Tecnoamerica

Page 1



XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ +

+

+

INDICE +

1

INGENIERÍA MECÁNICA

1

2

INGENIERÍA ELECTRICA

34

3

INGENIERÍA INDUSTRIAL

154

4.

ENERGÍA Y AMBIENTE

178

5.

TELECOMUNICACIONES

294

6.

FORO LIBRE

318

Derechos reservados COPIMERA 2015


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! +

Derechos reservados COPIMERA 2015


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! !

Ingeniería Mecánica Articulos: 1.! La importancia de las técnicas predictivas para el aumento de la disponibilidad y confiabilidad de los equipo industriales. 2.! OEE - Análise de conceitos e aplicação em uma indústria de beneficiamento de sementes. 3.! Optimizacion de la generacion de centrales hidroelectricas modelando las curvas de eficiencia de las turbinas. ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

1


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

!

Derechos reservados COPIMERA 2015

2


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

LA+ IMPORTANCIA+ DE+ LAS+ TÉCNICAS+ PREDICTIVAS+ PARA+ EL+AUMENTO+ DE+ LA+ DISPONIBILIDAD+Y+CONFIABILIDAD+DE+LOS+EQUIPOS+INDUSTRIALES+ 1

Jorge Nie Brito1, Lucas Costa Brito1 UFSJ - Universidade Federal de São João del-Rei São João del-Rei, Minas Gerais, BRASIL

RESUMEN+ En estos nuevos tiempos actividades como el Mantenimiento deben ser repensadas de manera a contribuir para los resultados de la empresa. Una de las contribuciones más significativa es cuando se tiene como política de Mantenimiento a detección de fallas en equipos industriales a través de Técnicas Predictivas, que es la primera grande quiebra de paradigma de la Manutención. Solamente a través de esas técnicas es posible practicar el Mantenimiento Planeada. En ese trabajo será presentada una introducción a las principales Técnicas Predictivas (Análisis de Vibración; Análisis de Corriente; Análisis de Flujo Magnético; Análisis de Tensión/Corriente Parasita en el Eje del Motor y Termografía Infrarroja). También serán presentados casos reales de detección de fallas de origen eléctrica e mecánica oriundos de experimentos realizados en el LASID (Laboratorio de Sistemas Dinámicos), del DEMEC (Departamento de Ingeniería Mecánica), de la UFSJ (Universidad Federal de São João delRei) y de las consultorías realizadas en diversas industrias brasileñas. A través del empleo de las Técnicas Predictivas es posible aumentar a disponibilidad de los equipos con confiabilidad o que proporciona resultados más significativos y expresivos para las industrias de los más diferentes seguimientos.

mantenimiento de la calidad y, en consecuencia, menos tiempo de inactividad tiempo de la planta industrial, Brito (2002). De acuerdo con Tavares (1999) hasta la década de 1980 la industria de la mayoría de los países occidentales tenía un objetivo bien definido, o sea, obtener el máximo de rentabilidad para una inversión dada. Sin embargo, con la penetración de la industria oriental en el mercado occidental, el consumidor pasó a ser considerado un elemento importante en las adquisiciones, o sea, exigir la calidad de los productos y los servicios suministrados, y esa demando hizo que las empresas consideren este factor, "calidad", como una necesidad para mantenersen competitivas, especialmente en el mercado internacional. En la Fig. (1) tiene la Evolución del Mantenimiento a lo largo de los años.

INTRODUCIÓN+ Entre las grandes empresas es una clara preocupación de ser el punto de referencia, es decir, ser la empresa de referencia en el mundo. En consecuencia, el área de mantenimiento de estas empresas también debe esforzarse por la excelencia, pues hay gran empresa sin sus diversos segmentos no lo son. Con el apoyo a esta necesidad, manteniendo en las grandes empresas deben tratar de mejorar de manera constante, utilizando las mejores prácticas conocidas, Comitti (2004). y

Fig. 1. Evolución del Mantenimiento. Fuente: Kardec y Nascif (2014). ! Actualmente se pude clasificar el mantenimiento en seis tipos: Mantenimiento Correctivo No Planeado; Mantenimiento Correctivo Planeado; Mantenimiento Preventivo; Mantenimiento Predictivo; Mantenimiento Detective y Ingeniería de Mantenimiento, Kardec, Nacif y Baroni (2002). El foco de este trabajo es el Mantenimiento Predictivo o Previsivo que puede ser definido como siendo los servicios de seguimiento del desgaste de una más piezas o componentes de

Conocer las técnicas de monitoreo existentes mejoran ellos desarrollan nuevas tecnologías significa un mejor

Derechos reservados COPIMERA 2015

3


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

DESBALANCEAMIENTO+ El desequilibrio de rotores es sin duda la principal causa de vibraciones en máquinas rotativas. Este fenómeno se caracteriza por la existencia de desequilibrios en masa en relación con el eje de rotación. La vibración resultante es predominantemente radial, fuerte componente ya que la frecuencia de rotación (1 x fr), con fase estable. Los dos rodamientos están luchando por desequilibrio estático y fuera de la fase de desequilibrio dinámico. En la Fig. (2) tiene el rotor de escape filtro de manga. El las Fig. (3) y (4) tiene los espectros de vibración horizontal y vertical, respectivamente, antes y después del balanceamiento.

equipos prioritarios, a través del análisis de síntomas o estimativa hecha por evaluación estadística, con el objetivo de predecir el comportamiento de esas piezas o componentes y determinar el punto exacto de cambio o reparación. Se trata de un Control Predictivo o Previsivo, para ejecución de Mantenimiento Preventivo, Tavares (1999). El concepto del Mantenimiento Preventivo por Estado que pude ser definido como siendo los servicios preventivos ejecutados en función de la condición operativa del equipo (reparación de defectos, predictivo, reforma revisión general etc.), Tavares (1999). En ese trabajo será presentada algunas de las principales Técnicas Predictivas y los resultados muestran el potencial de cada una. Conocerlas es extremadamente útil en la elección de la mejor tecnología para el diagnóstico de defectos baño equipos industriales. NOMENCLATURA+ LASID - Laboratorio de Sistemas Dinámicos DEMEC - Departamento de Ingeniería Mecánica UFSJ - Universidad Federal de São João del-Rei ANÁLISIS+DE+VIBRACIÓN+ El análisis de vibraciones es considerada la herramienta más valiosa para monitoreo de condición de máquinas rotativas. De acuerdo con el Art Crawford, "En la actualidad en la industria, todos los parámetros que se pueden medir no invasoramente, que contiene más información es la firma de vibración", Brito (2002). El análisis de vibraciones ayuda a diagnosticar problemas en el equipo de trabajo antes de que ocurra algún fallo catastrófico y ofrece importantes ventajas: - gran reducción en los costos de mantenimiento no planeado (Mantenimiento Correctivo); - altas reducciones en inventario de partes de repuesto al tener un mejor conocimiento del estado de la maquinaria; - reducción en las ordenes de trabajo de emergencia y tiempo extra; - reparaciones más eficientes y reducción de costes de mantenimiento; - incremento en la capacidad de producción, debido a menos rechazos por fallas en el equipo ocasionadas por excesiva vibración; - mejores condiciones de seguridad, al no forzar a las máquinas a trabajar hasta el punto de fallar. Una máquina que tiene un fallo, sea este eléctrico o mecánico, genera vibraciones. La frecuencia de estas vibraciones es leída y cotejada por los instrumentos de análisis, que reconocen en ellas parámetros específicos ("Firma de Vibración"), establecidos a lo largo de años de experiencia en el uso y mantenimiento de maquinaria, McFadden y Smith (1994).

Fig. 2. Rotor de escape filtro de manga. Fuente: Autor.

Antes de la corrección A = 9,964 mm/s

Después de la corrección A = 0,611 mm/s

Fig. 3. Espectros de vibración horizontal. Fuente: Autor.

Derechos reservados COPIMERA 2015

4


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

Antes de la corrección A = 10,36 mm/s

Después de la corrección A = 0,366 mm/s

Fig. 5. Espectro de vibración del desalineamiento. Después de la corrección. Fuente: Autor. HOLGURA+MECÁNICA+

Después de la corrección A = 0,729 mm/s

La holgura mecánica se caracteriza por la presencia de múltiples armónicas de la frecuencia de rotación (1 x fr) y genera vibraciones en la maquinaria de rotación debido a pernos sueltos, holguras excesivas en los cojinetes entre otros. El las Fig. (6) y (7) tiene los espectros de vibración, antes y después del holgura mecánica, respectivamente.

Figura 4. Espectros de vibración vertical. Fuente: Autor. El balanceamiento dinámico se ha realizado correctamente. Los niveles de vibración iniciales cerca de 10 mm/s, cayeron, después del balanceamiento, por debajo de 1 mm/s, lo que significa una reducción de aproximadamente 93%.

Fig. 6. Espectro de vibración del holgura mecánica. Antes de la corrección. Fuente: Autor.

DESALINEAMIENTO+

La desalineación angular, la vibración es más fuerte en la dirección axial con componentes 1 x fr y 2 x fr. En desalineación paralela, la vibración es mayor en la dirección radial, con fuertes componentes de los armónicos de la frecuencia de rotación (1 x fr, 2 x fr, 3 x fr, 4 x fr...) y las fases estables a 1800 entre los cojinetes). El las Fig. (4) y (5) tiene los espectros de vibración, antes y después del desalineamiento, respectivamente.

Fig. 7. Espectro de vibración del holgura mecánica. Después de la corrección. Fuente: Autor. RODAMIENTOS+

En rodamientos, defectos locales producen una serie de impactos que puede excitar resonancias en la estructura de la vivienda y la carcasa del motor, entre 1 kHz y 20 kHz. Se recomienda seguir la evolución del espectro de los rodamientos mediante la medición de la vibración, preferiblemente de aceleración. Las frecuencias características en (Hz) de la pista exterior (fPista Exterior = BPFO), la pista interior (fPista Interior = BPFI), el elemento de rodadura (fRodadura = BSF) y la jaula (fJaula = FTF) están respectivamente dado por las ecuaciones, Fig. (8), donde fr es la frecuencia de rotación (Hz), d es el diámetro de la esfera o rodillo (mm), D es el diámetro de paso del cojinete (mm), n es

Antes de la corrección A = 1,176mm/s

Fig. 4. Espectro de vibración del desalineamiento. Antes de la corrección. Fuente: Autor. Derechos reservados COPIMERA 2015

5


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

el número de bolas o rodillos y β es el ángulo de contacto de apoyo, Abreu, Brito y Lamim Filho (2007) y Bezerra (2004).

ANÁLISIS+DE+CURRIENTE+ El análisis se realiza en las bandas laterales alrededor de la frecuencia de línea (fl) separado de ± 2 x fs, donde fs es la frecuencia de deslizamiento, o sea fl ± 2 x fs. Cuanto menor la diferencia en dB mayor es el número de barras rotas o agrietadas. En baja frecuencia también es posible detectar tensión de desequilibrio, sobretensión y subtensión. El las Fig. (12) y (13) tiene los espectros de corriente para la condición normal y con siete barras rotas, respectivamente.

Fig. 8. Elementos del rodamiento. Fuente: Autor. En la Fig. (9) se tiene el rotor de trituración primaria. El las Fig. (10) y (11) tiene los evolventes de los espectros de vibración, Pista Exterior y Elemento de Rodadura, respectivamente.

Fig. 12. Espectro corriente - condición normal. Fuente: Autor.

Fig. 9. Rotor de trituración primaria. Fuente: Autor. Fig. 13. Espectro corriente - siete barras rotas. Fuente: Autor. ANÁLISIS+DE+FLUJO+MAGNÉTICO+ El análisis de flujo magnético permite el diagnóstico de fallas en las barras del rotor, anomalías en el estator y el voltaje de desbalance. El análisis de estos fallos se realiza mediante la inspección de dos bandas espectrales: baja frecuencia y alta frecuencia. Análisis de baja frecuencia es análogo al análisis actual. En este artículo se presenta la detección de fallas de bajo aislamiento (cortocircuito) que es detectado en altas frecuencias. En los espectros de alta frecuencia tienen una familia de frecuencias asociadas con la ranura de paso (fp) que permite evaluar la condición del estator. La frecuencia mínima para examinar estos fenómenos se corresponde con la frecuencia de cruzar ranuras 15 veces la frecuencia de línea (fl). La frecuencia de las ranuras de paso (fp) se define por el número de barras del rotor o ranuras del estator (Rs) veces la velocidad de rotación en Hz (fr) menos la frecuencia de línea (fl), o sea, fp = Rs x fr - fl. El cortocircuito se caracteriza por ser gradual, comenzando con una reducción en el aislamiento dieléctrico en la separación

Fig.10. Envolvente del espectro - Pista Exterior. Fuente: Autor.

Fig. 11. Envolvente del espectro - Elemento de Rodadura. Fuente: Autor.

Derechos reservados COPIMERA 2015

6


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

de las vueltas incluso conducir a un cortocircuito y por lo tanto el motor quema el aumento de la temperatura deterioro progresivo del aislamiento, debido a las altas corrientes que pueden estar circular. Al analizar el corto circuito de flujo magnético se pueden identificar fácilmente elevando el armónico 190 (1140 Hz) y 210 (1260 Hz) de la frecuencia de línea (fl). En las Fig. 14 y 15 tienen los espectros de flujo magnético sin defecto y 10 vueltas cortocircuito, respectivamente.

tensión [V], RMS o CC, arriba de 3 V es anormal. Como se puede ver la condición antes era de 9,492 V y después de la corrección se trasladó a 1,180 V. En la Fig. 18 tiene el rodamiento mecanizado por descarga eléctrica.

Fig. 16. Espectro de tensión/ corriente parasitaria. Con defecto. Fuente: Autor. Fig. 14. Espectro flujo magnético - sin defecto. Fuente: Autor.

Fig. 17. Espectro de tensión/ corriente parasitaria. Sin defecto. Fuente: Autor. Fig. 15. Espectro flujo magnético - 10 vueltas cortocircuito. Fuente: Autor. ANÁLISIS+DE+TENSIÓN/CORRIENTE+PARASITA+ La tensión/ corriente parasitaria en el eje de los motores eléctricos se han documentado y discutido en la literatura desde la década del 20. Los artículos han abordado diversos aspectos tales como: por qué la presencia de tensión; problemas derivados del paso de corriente a través de rodamientos, acoplamientos o los engranajes y las posibles soluciones. Sin embargo, hasta la fecha, es común en las fallas crónicas industrias relacionadas con este tipo de problemas, Boyanton (1994) y Walker (1990). Según Costello (1991), estos problemas están asociados con el uso de aisladores de baja calidad y los cojinetes no aislados. La medición y el seguimiento de la evolución de la corriente (AC y DC) del eje a tierra, se puede predecir fallas de rodamientos debido a las corrientes inducidas magnéticamente. En las Fig. 16 y 17 tienen los espectros de tensión/ corriente parasitaria con y sin defecto. Según Kowal (1999) la Derechos reservados COPIMERA 2015

Fig. 18. Rodamiento mecanizado por descarga eléctrica. Fuente: Autor. TERMOGRAFÍA+INFRARROJA+ La técnica de inspección termografía infrarroja se realiza utilizando sistemas de infrarrojos, para medir la temperatura o la observación de los patrones de distribución de calor 7


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

diferenciales, con el objetivo de proporcionar información relativa a la condición de funcionamiento de un componente, dispositivo o proceso. Una inspección termografía infrarroja identifica los problemas potenciales antes de que ocurran y permite hacer ajustes o correcciones antes de la próxima parada. Un sistema de termografía infrarroja consiste en el conjunto de características que permiten la realización de tareas de análisis predictivo en las áreas de redes eléctricas, equipos mecánicos, tuberías de vapor, hornos, reactores y procesos en general, Pacholok et al. (2004). Sistemas de infrarrojos están diseñados para transformar la radiación infrarroja capturada en información térmica presentado en los termogramas. En las Fig. 19 y 15 tienen las fotos de los equipos inspeccionados y sus respectivos termogramas, donde se pude ver la potencialidad de la termografía infrarroja.

Fig. 20. Fusibles.. Fuente: Autor. CONSIDERACIONES+FINALES+ En este trabajo se presentan algunas técnicas predictivas que están bien utilizados traerá ganancias significativas para las industrias. Las técnicas de predicción no son invasivas y permiten la práctica de mantenimiento correctivo planeado. A través dos casos prácticos a presentados se puede ver como las técnicas predictivas son importantes para el aumento de la disponibilidad y confiabilidad de los equipos industriales AGRADECIMIENTOS+ Los autores agradecien a FAPEMIG - Fundação de Amparo a Pesquisa de Minas Gerais; CNPq - Conselho Nacional de Pesquisa y CONFEA - Conselho Federal de Engenharia e Agronomia. REFERENCIA+ Abreu, R. D. A., Brito, J. N., Lamim Filho, P. C. M.. "Comparative Study Between the Techniques of Wavelet Decomposition and Envelope Detection for Bearing Damage Diagnosis", 19th International Congress of Mechanical Engineering, Brasília - DF, 2007. Bezerra , R. A. "Detecção de Falhas em Rolamentos por Análise de Vibração", Dissertação para obtenção do título de Doutor em Engenharia Mecânica, Universidade Estadual de Campinas, Campinas - SP, Brasil, 2004. Boyanton, H. (Shaft Grounding Systems, Inc., Albany, Oregon). Electrically Induced Bearing Damage, The Need for Shaft Grounding. CSI User’s Conference, 1994, Nashiville, TN. Brito, J. N., 2002, "Desenvolvimento de um Sistema Inteligente Híbrido para Diagnóstico de Falhas em Motores de Indução Trifásicos". Campinas, Faculdade de Engenharia Mecânica, Universidade Estadual de Campinas, p.(2002. 214). Tese (Doutorado). Costello, Michael J. (Magnetic Products and Services, Inc., Holmdel, NJ), "Shaft Voltages and Rotating Machinery", IEEE Paper No. PCI-91-13, July, 1991. Comitti, A. "Por que Investir em Manutenção Preditiva", Mecatrônica Atual - n° 16, 2004. Kardec, A. e Nacif, J. "Manutenção Função Estratégica". Qualitymark Editora Ltda. 339p., 4a Edição, 2014. Kardec, A., Nacif. J. e Baroni, T.. "Gestão Estratégica e Técnicas Preditivas". Qualitymark Editora Ltda. 160p., 2002.

Fig. 19. Painel Eléctrico. Fuente: Autor.

Fig. 20. Línea de Transmisión. Fuente: Autor.

Derechos reservados COPIMERA 2015

8


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

McFadden, P. D. e Smith, J. D. "Model for the Vibration Produced by single point defect in a rolling element bearing", Journal of Sound and Vibration, Vol. 96(1), pp. 69-81, 1984. Pacholok, M., Barbieri, N., Barbieri, R. "Uso da Termografia para Avaliação do Desalinhamento de Eixos de Máquinas Rotativas uma Ferramenta Auxiliar à Análise de Vibrações", Dissertação para obtenção do título de Mestre em Engenharia Mecânica, Pontifícia Universidade Católica do Paraná. 2004. Tavares, L. "Administración Moderna de Mantenimiento". Novo Polo Publicações Ltda. 213p., 1a Edição, 1999. Walter, P. "Preventing Motor Shaft-Current Bearing Failures", Plant Engineering, Oct. 4, 1990.

Derechos reservados COPIMERA 2015

9


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

Derechos reservados COPIMERA 2015

10


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ OEE+#+ANÁLISE+DE+CONCEITOS+E+APLICAÇÃO+EM+UMA+INDÚSTRIA+DE+ BENEFICIAMENTO+DE+SEMENTES+ + Fernando Willian Santos1, Jorge Nei Brito1 1

Universidade Federal de São João del-Rei, São João del-Rei, Brasil

RESUMEN+ Este trabalho tem o intuito de explicar e analisar aspectos e características do OEE - Overall Equipment Effectiveness (Eficiência Global dos Equipamentos), demonstrando sua métrica, as perdas por disponibilidade, desempenho (performance) e qualidade e como ele pode ser um potente indicador de produtividade da empresa, tendo grande importância no controle de ativos, redução de custos e consequentemente aumento dos lucros. Como segundo objetivo, será explorado um caso prático do uso do OEE em uma usina de beneficiamento de sementes. Ainda que com um sistema de coleta de dados manual, foi possível avaliar o quanto uma área da usina operava com baixo rendimento, obtendo média de apenas 13% no OEE do mês de janeiro. A partir deste resultado, a empresa então teve condições de analisar as causas do problema e partir para melhorias buscando sua solução, além de tomar a decisão de implantar um sistema de coleta automática nos equipamentos, para uma eficácia maior ainda do indicador nos próximos meses.

para ações futuras. Por fim, esses resultados serão discutidos e analisados. O nome e logotipo da empresa foram escondidos para que se respeitem questões de direitos autorais e propriedade privada. NOMENCLATURA+ Overall Equipment Effectiveness, OEE, Total Productive Maintenance, TPM, Usina de Beneficiamento de Sementes. OEE - Conceitos O OEE é um método de cálculo derivado da metodologia TPM - Total Productive Maintenance, em português, Manutenção Produtiva Total, desenvolvida no Japão originalmente por Seiichi Nakajima, a fim de eliminar perdas, reduzir paradas, garantir a qualidade e ainda diminuir custos nas empresas com processos contínuos. A finalidade do TPM é atingir o menor número possível de acidentes, defeitos e avarias (SANTOS; SANTOS, 2007). O indicador OEE pode ser entendido como a evolução métrica do TPM. Consiste em um método simples, prático, objetivo e muito eficaz de se quantificar o desempenho não só de um equipamento, mas da fábrica como um todo. Os três focos principais consistem na análise de perdas por disponibilidade dos equipamentos, perdas por desempenho e perdas por qualidade dos produtos finais.

+ INTRODUCCIÓN+ O OEE - Overall Equipment Effectiveness, em português Eficiência Global dos Equipamentos, consiste de um indicador que permite às empresas gerenciar de forma mais efetiva o uso de seus ativos, ou seja, de suas máquinas e equipamentos. A análise do OEE tem como base uma avaliação minuciosa dos aspectos: disponibilidade, performance e qualidade, identificando e apontando as perdas devidas a esses três fatores. Com base nesses dados, é possível que os gestores possam focar suas melhorias nas áreas de maior impacto, o que garante uma melhor gestão tanto de investimentos quanto de produtividade. Este trabalho tem como objetivo primeiramente analisar e explicar o funcionamento do OEE, sua forma de cálculo e algumas de suas particularidades. Em segundo lugar, será exemplificado um caso prático de uma indústria de grande porte da área de beneficiamento de sementes, mostrando os resultados preliminares do indicador OEE e também apontando Derechos reservados COPIMERA 2015

FIGURA 1 - Bases do OEE.

11


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

tempo de produção real e as perdas devidas à disponibilidade. Do tempo de produção real tiram-se as perdas por performance, resultando no desempenho real. Finalmente, considerando-se as perdas por qualidade, chegamos aos produtos finais aprovados. Para obter-se o índice de disponibilidade (EA, do inglês Equipment Availability), divide-se o tempo de produção real pelo tempo planejado de produção. O índice de performance (PR, do inglês Performance Rate) é resultado da divisão do desempenho real pelo tempo de produção real. Por fim, para se calcular o índice de qualidade (QR, do inglês Quality Rate), faz-se a divisão dos produtos aprovados sem defeito pelo desempenho real. Em posse desses três valores, realiza-se a multiplicação deles, e o resultado final é o indicador OEE. As equações (2) até (5) demonstram os cálculos para o índice OEE:

As perdas por disponibilidade são aquelas que impedem a continuidade da produção devido a falhas em equipamentos, paradas para manutenção corretiva/regulagens, dentre outras. As perdas mais comuns por índice de performance são paradas operacionais, como paradas para limpeza, setups e ajustes, além de paradas por falta de produto e por perda de velocidade. Perdas por qualidade são aquelas que abrangem os produtos que não alcançam o índice mínimo de qualidade estabelecido pela empresa, que geram retrabalho e reprocesso. A Figura 2 ilustra a configuração de perdas do OEE de acordo com sua categoria:

FIGURA 2 - Configuração do OEE.

Segundo Nakajima (1993), o a meta a ser alcançada pelas empresa no índice de OEE é de 85%. Para tanto, seriam necessários índices de 90% para disponibilidade, 95% para desempenho e 99% para qualidade. A Equação (1) demonstra o cálculo final do OEE: ESTUDO DE CASO PRÁTICO (1) Considerações sobre a empresa A implementação do OEE na empresa em questão teve, inicialmente, caráter experimental. Os gestores desejavam entender melhor as grandes perdas de rendimento que há tempos existia, considerando o material desde sua entrada na planta até o produto final ensacado. Nesta planta beneficia-se diferentes qualidades de sementes de milho e, por se tratar de um organismo vivo, as sementes requerem grande cuidado em seu processamento e possuem várias características particulares, que também variam de acordo com o tipo de milho. Apenas isso já causa uma grande quantidade de downtimes, mas era necessário identificar as maiores ocorrências e causas das paradas para então buscar por melhorias que pudessem diminuí-las. O OEE foi escolhido por se tratar de uma métrica de relativa facilidade e simplicidade de aplicação, além de ser um indicador consolidado e reconhecido internacionalmente. A grande literatura existente sobre o tema também teve importância na escolha. A planta é dividida entre recebimento (onde ocorrem os processos de descarga, despalha, debulha, pré-tratamento e armazenamento em silos) e torre (onde ocorrem os processos de classificação, tratamento, ensaque e armazenamento em câmara climatizada). Recentemente foram instalados dois robôs que

Aquelas empresas que alcançam índices de OEE maiores que 85% recebem o prêmio "TPM Award", como reconhecimento pela eficácia na aplicação da metodologia TPM. O prêmio é distribuído pela "JIPM - Japanese Institute of Plant Maintennce". Cálculo do OEE A Figura (3) ilustra como é feito o cálculo do OEE: TEMPO TOTAL Tempo planejado de produção Tempo de produção real Desempenho real Produtos aprovados

Paradas planejadas Perdas de DISPONIBILIDADE

Perdas de PERFORMANCE

Perdas de QUALIDADE

FIGURA 3 - Esquema de cálculo do OEE.

O processo de cálculo inicia-se com o tempo total disponível por dia (24 horas). Do tempo total subtraem-se as horas de paradas programadas, que podem ser para refeição, reuniões planejadas, diálogos de segurança planejados, etc. Este tempo planejado de produção pode então ser dividido entre o Derechos reservados COPIMERA 2015

12


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

realizam a paletização dos sacos e, dessa forma, toda a área de ensaque foi renovada. Optou-se então por se aplicar o OEE na ensacadeira, localizada na torre. Sabe-se que o equipamento trabalha abaixo de sua capacidade nominal, pois não se produz a quantidade de material que ela suporta. Entretanto, quando nela ocorre uma parada, todo o processo da torre é paralisado. Dessa forma, pode-se considerá-la como um equipamento gargalo. As operações na área de recebimento não são afetadas diretamente pelas operações da torre. O OEE mede, portanto, apenas os índices operacionais da torre. A coleta de dados utilizada para os cálculos de disponibilidade, performance e qualidade seria feita por planilhas elaboradas no software Excel, com preenchimento de responsabilidade dos líderes de cada turno. Sabe-se que a condição mais adequada para a coleta de dados seria a aplicação de um sistema de coleta automática, sendo possível evitar a manipulação dos tempos de parada, já que o sistema registra os tempos de início e fim das interrupções (JEONG; PHILLIPS, 2001). Entretanto, optou-se por um sistema de coletas manual, pois a intenção era, neste ponto, avaliar a criticidade dos índices e, a partir daí, determinar se era financeiramente atrativa a implementação de uma rede automatizada para a coleta de dados.

A partir dos dados coletados, pôde-se elaborar gráficos de downtimes diários e mensais, evidenciando a quantidade de paradas, sua duração, etc., como ilustram as Figuras (4) e (5):

FIGURA 4 - Gráficos gerados a partir dos downtimes coletados.

Plano de ação do OEE Para a coleta de dados necessária para se calcular o OEE, já haviam informações catalogadas diariamente, como: •! Número de sacos/dia •! Número de sacos rejeitados/dia •! Taxa ideal de sacos/hora

FIGURA 5 - Gráfico de downtimes/dia, por manutenção e produção.

Finalmente, com os dados de downtimes disponíveis, pôde-se calcular o indicador OEE. O tempo planejado foi considerado como 19,5 horas, considerando que 4,5 horas são reservadas para refeições e reuniões planejadas.Também utilizando-se do software Excel, foi elaborada uma planilha que automaticamente capturava os valores de disponibilidade, performance e qualidade das planilhas supracitadas, realizando o cálculo e gerando o gráfico correspondente. As Figura (6) e (7) ilustram os resultados obtidos:

Essas informações são coletadas e fazem parte de planilhas elaboradas pelos times de planejamento, produção e qualidade da empresa. Para o armazenamento de dados relacionados às paradas de produção, foi criada uma tabela semelhante à Tabela 1. Com ela, pôde-se coletar informações como data, categoria da parada (por manutenção ou produção), tempo de parada, turno em que ocorreu, equipamento e motivo. A tabela possuía opções a serem escolhidas em cada coluna, evitando que o responsável por seu preenchimento (o líder de turno) digitasse a informação. Isso garantia uniformidade e padronização dos dados. Apenas a coluna "Parada" não respeitava essa regra, e o líder devia inserir sobre ela um breve texto contendo o equipamento e o motivo da parada. TABELA 1 - Modelo de tabela usada para coleta de dados de downtime. Data

Parada

Categoria

Início

Derechos reservados COPIMERA 2015

Término

Tempo parad o

Turno

13


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Torna-se, portanto, um item indispensável a qualquer empresa de alto nível que deseja competir no mercado mundial.

FIGURA 6 - Tabela de cálculos do OEE.

REFERENCIA+ BENTO, A; et al. Utilização da Tecnologia OEE Como Ferramenta Para Monitorar Centros de Usinagem no Setor Automotivo. IX Convibra Administração - Congresso Virtual Brasileiro de Administração. 2012. CHIARADIA, A. Utilização do Indicador de Eficiência Global de Equipamentos na Gestão e Melhoria Contínua dos Equipamentos: Um Estudo de Caso na Indústria Automobilística. Universidade Federal do Rio Grande do Sul. 2004. JEONG, K.; PHILLIPS, D. T. Operational Efficiency and Effectiveness Measurement. International Journal of Operations & Production Management. v. 21, n. 11, 2001. NAKAJIMA, S. Introduction to TPM, Productivity Press. Cambridge: MA, 1993. SANTOS, A. C. O.; SANTOS, M. J. Utilização do Indicador de Eficácia Global de Equipamentos (OEE) na Gestão de Melhoria Contínua do Sistema de Manufatura – Um estudo de caso. Anais do XXVII Encontro Nacional de Engenharia de Produção (ENEGEP). Foz do Iguaçu-PR, Outubro, 2007.

FIGURA 7 - Gráfico de resultados OEE/dia.

RESULTADOS E CONCLUSÕES Notou-se, ao final do processo, que o resultado do OEE da área de ensaque da empresa obteve valores consideravelmente baixos, com média de apenas 13% no mês de janeiro. De certa forma, esperava-se um índice de efetividade pequeno, considerando que a ensacadeira não trabalha com o máximo de sua capacidade nominal, uma vez que não se produz essa quantidade diária de sementes. Todavia, também não se sabia que o impacto desse e dos outros problemas por manutenção ou produção afetavam tão significativamente a capacidade de produção. A partir de então, com base nesse estudo e nos resultados demonstrados, medidas foram tomadas e outras se encontram sob análise. Para a continuação e ampliação do cálculo do OEE sobre toda a planta, uma empresa foi contratada e sensores para a coleta automática de dados serão instalados em equipamentos estratégicos em todos os setores de produção. Para um melhor aproveitamento da ensacadeira, uma equipe foi montada com o intuito de se pesquisar a possibilidade de não se trabalhar em turno contínuo nesta área. A equipe de manutenção pôde verificar quais os equipamentos apresentam problemas recorrentes e analisar possíveis soluções para saná-los. Acredita-se que com a ampliação e automatização do OEE poderá se ter amplo controle sobre o aproveitamento correto dos equipamentos da planta, o que consequentemente acarretará em redução de custos e aumento de rendimentos para a empresa. Dessa forma, conclui-se que o OEE é uma potente ferramenta quando se busca atingir o máximo de potencial de uma empresa. Ele permite identificar e expor os maiores problemas relativos a equipamentos, possibilitando ao time elaborar análises e busca de soluções e melhorias, que significam indubitavelmente maior rendimento e maior lucro. Derechos reservados COPIMERA 2015

14


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

ANEXO+A+ [FIGURAS+4,+5,+6,+7]+

a)! Paradas por Turno , Ocurrências y Downtime.

b)! Paradas por categoria, Ocurrências y Downtime.

Derechos reservados COPIMERA 2015

15


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

c)! Manutençao, Ocurrências y Downtime

b)Produçâo, Ocurrências y downtimes Figura 4 - Gráficos gerados a partir dos downtimes coletados.

Derechos reservados COPIMERA 2015

16


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

FIGURA 8 - Gráfico de downtimes/dia, por manutenção e produção.

FIGURA 6 - Tabela de cálculos do OEE.

Derechos reservados COPIMERA 2015

17


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

FIGURA 9 - Gráfico de resultados OEE/dia.

Derechos reservados COPIMERA 2015

18


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ OPTIMIZACION+DE+LA+GENERACION+DE+CENTRALES+HIDROELECTRICAS+ MODELANDO+LAS+CURVAS+DE+EFICIENCIA+DE+LAS+TURBINAS++ M.Sc. Ing. Reynaldo Villanueva Ure

!

Universidad Nacional de Ingeniería, Lima, Perú!! !

Resumen+

Introducción+

Este trabajo tiene por propósito desarrollar un modelo de optimización de la operación de la generación hidroeléctrica. Con énfasis de la eficiencia de la unidad generadora; planteando las unidades generadoras, que deben trabajar cerca a su punto de máxima eficiencia, tal objetivo es generar la mayor cantidad de potencia (MW) por caudal turbinado (m3/s). Los métodos actuales de optimización son diversos, la selección depende del grado de exactitud.

Los sistemas de potencia eléctrica han presentado un significativo cambio en sus estructuras, a nivel mundial. Como consecuencia de esta evolución, sus agentes se han visto en la necesidad de revisar sus enfoques, estrategias y metodologías de toma de decisiones y de formulación de políticas para lograr la eficiencia de sus actividades que le permitan ser cada vez más competitivos. Esta situación ha conducido a cambios muy profundos en los procedimientos aplicados por las empresas generadoras para garantizar una operación segura y eficiente, modificando drásticamente la forma en que obtienen sus beneficios. En el desarrollo de este informe se estudian los enfoques de modelado más adecuados para el análisis y el diseño de estrategias de operación óptima para una empresa de generación hidroeléctrica, operando en mercados de electricidad de corto plazo. El análisis se realiza a partir de una detallada representación de la eficiencia de los grupos de generación.

Las mediciones de eficiencia, en diversas centrales están orientadas a tomar decisiones de implementación de algún mantenimiento o acción correctiva; este artículo plantea un mejor uso modelando las curvas de cada grupo y adicionándole una prioridad de despacho dependiendo de su eficiencia. Esta metodología, expresa un algoritmo implementado en prototipos de software que se aplican a una Central Hidroeléctrica. Desarrollando un modelo de optimización basado en la Programación No Lineal Entera Mixta, PNLEM, para solucionar el problema de la programación de la operación hidroeléctrica de manera integrada.

Nomenclatura+ Caudal, potencia, eficiencia, metodología. CUERPO+DEL+DOCUMENTO+

La ventaja de las técnicas de optimización clásica con respecto a las demás metodologías, que simplifica la identificación de las alternativas de planificación económicamente más atractivas, permite un gran número de alternativas y escenarios. Luego de tener un conjunto reducido de candidatos, generalmente se complementa el estudio con otras metodologías con la evaluación en diversos escenarios, compromiso, riesgo, etc.

OPTIMIZACION DE LA GENERACION DE CENTRALES HIDROELECTRICAS Y SU APLICACIÓN CASO MALPASO 1.+ DESCRIPCION+ DE+ LA+ GENERACION+ ÓPTIMA+ DE+ LAS+ UNIDADES+ DE+ GENERACION+ DE+ LA+ CENTRAL! La optimización de la generación es uno de los factores más importantes en la planificación de la producción de energía en una central hidroeléctrica. Esto es, atender la demanda de energía eléctrica utilizando el menor consumo de agua. Dentro de los diversos factores que intervienen para la generación optima de una unidad de generadora, en el presente

Tales razones, en este trabajo se concluye que es la herramienta computacional ideal para identificar alternativas de solución al problema de la optimización de la generación de una Central Hidroeléctrica.

Derechos reservados COPIMERA 2015

19


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

informe se le ha dado énfasis a la eficiencia de la unidad generadora; la idea que se plantea es que todas las unidades generadoras deben trabajar cerca a su punto de máxima eficiencia con el objetivo de generar la mayor cantidad de potencia (MW) por caudal turbinado (m3/s).

momento en el cual está a punto de fallar un equipo es una variable importante para la optimización de la generación de la central.

+ !!!!

Figura 2 . CRITERIOS PARA OPTIMIZAR LA GENERACIÓN

!

Figura 1+.+OPERAR ÓPTIMAMENTE EN FUNCIÓN DE LA EFICIENCIA+

4+ ALTERNATIVA+ DE+ EFICIENCIA+ COMO+ CRITERIO+ PARA+LA+OPTIMIZACION+

2.+ METODOLOGIA+ BASADA+ EN+ TECNICAS+ DE+ OPTIMIZACION+MATEMATICA+ En la actualidad, la metodología basada en técnicas de optimización ha surgido como la principal metodología para obtener alternativas de planificación económicamente atractivas. Estados Unidos, España, Australia, Singapur, Colombia y otros países, han adoptado el uso de técnicas de optimización en la planificación de sus sistemas eléctricos.

4.1+ MEDICION+DE+LA+EFICIENCIA+EN+CENTRALES+ HIDROELECTRICAS+ Para escoger este criterio también se debe tener en cuenta de las características pluviales del país el cual está conformado por un periodo de avenida y otro de estiaje; esta variación influye fuertemente en los costos del agua y de generación. Una central hidroeléctrica es una instalación que aprovecha la transición brusca de una masa de agua situada inicialmente en un nivel energético superior, a un nivel con un contenido energético menor, produciéndose cambios en los parámetros que definen el mismo, esto es: posición, velocidad y temperatura. Las turbinas hidráulicas tienen fuertes variaciones de eficiencia al variar su potencia (caudal), figura (17):

3.+ CRITERIOS+PARA+OPTIMIZAR+LA+GENERACION+ DE+CENTRALES+DE+GENERACION+ 3.1+ CRITERIO+ POR+ EFICIENCIA+ DE+ UNIDADES+ DE+ GENERACION+ Se toma en cuenta la eficiencia de la central como variable principal a optimizar, también se debe tener en cuenta el número de grupos de la central, arranques y paradas programados y no programados. El rendimiento o eficiencia en una central hidroeléctrica es el cociente entre la energía de salida y la energía de entrada del elemento en cuestión (circuito, alternador, turbina, grupo, etc.). 3.2+ CRITERIOS+DE+CONDICIONES+OPERATIVAS+ Una correcta operación es cuando los parámetros mecánicos y eléctricos no sobrepasan los límites establecidos; en el caso de una central hidroeléctrica una manera de supervisar de que estos parámetros no excedan los límites es mediante la curva de capabilidad para el caso del generador y la curva colina para el caso de la turbina o rodete.

Figura 3 . CURVA DE EFICIENCIA DE UNA TURBINA HIDRÁULICA

4.2+ EDICION+DE+LA+EFICIENCIA+DE+UNA+TURBINA+ MEDIANTE+EL+METODO+TERMODINAMICO+ El método de medición termodinámico se ha usado en más de cuarenta años. El método de medición termodinámica utiliza el principio de conservación de la energía, La primera ley de la termodinámica, por la transferencia de energía entre la turbina y el agua. La diferencia en las energía mecánica

3.3+ CRITERIO+DE+LA+CONDICION+DEL+EQUIPO+ Conocer o por lo menos tener la idea del estado de la condición de los equipos de una central hidroeléctrica es fundamental para la operación de la misma por lo que saber el Derechos reservados COPIMERA 2015

20


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

específica antes y después de que el fluido está determinada por tiempo de medición de las variables, la presión, la temperatura, la velocidad y el nivel. Esta diferencia es una expresión para la energía transferida desde el agua al eje de la turbina. La eficiencia se calcula como la razón entre la energía mecánica específica y la energía hidráulica.

Figura 6 . REPRESENTACIÓN DIDÁCTICA DE ENERGÍA HIDRÁULICA Y ENERGÍA MECÁNICA EN UNA CENTRAL

La eficiencia termodinámica viene dado por el cociente entre la energía hidráulica (disponible) y la energía aprovechada (mecánica). Figura 4 . VISTA DE PERFIL DEL GRUPO TURBINA-GENERADOR, UBICACIÓN Y NIVELES DONDE SE REALIZARA LA MEDICIÓN DE EFICIENCIA.

!

4.2.1+ OBJETIVO+Y+CONFIGURACION+DE+LA+ MEDICION+ •! •! •! •! •!

(1)! !

Mide directamente la Eficiencia Interna de la Turbina. Utiliza las propiedades termodinámicas del agua que dependen directamente de la Temperatura y Presión. No requieren medir caudal, este se calcula luego de evaluar la eficiencia. Aplicable a turbinas con caídas netas superiores a 100 metros. Incertidumbre de medición menor a +- 1.5%.

!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!(2)

La medición de eficiencia termodinámica incluye, temperatura, presión. La configuración de la medición se muestra en la siguiente figura:

(3) A: Energia mecánica en términos de presión. B: Energía mecánica en términos de temperatura. C: Energía mecánica en términos de nivel. D: Energía mecánica en términos de velocidad a: Energía hidráulica en términos de presión b: Energía hidráulica en términos de velocidad c: Energía hidráulica en términos de la altura. •! I.! II.! III.! IV.!

Figura 5 . PUNTOS DE MEDICIÓN DE TEMPERATURA Y PRESIÓN

Derechos reservados COPIMERA 2015

21

PERDIDAS EN LA TURBINA Perdidas Volumétricas Perdidas Hidráulicas (fricción) Perdidas Mecánicas (cojinetes) Perdidas por ventilación.

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

4.2.1.1+ +ESQUEMA+DE+PRUEBA+EN+CAMPO+

que trata se basan en la optimización (minimización o maximización) de una función lineal conocida como función objetivo, sujeta a una serie de restricciones lineales de igualdad o desigualdad. Matricialmente, un problema de PL en notación estándar (con igualdades) se puede expresar como:

Las pruebas se realizan utilizando medidores de temperatura y presión tanto en la entrada como en la salida de la Turbina, estos medidores antes de sus instalación deben de estar debidamente calibrados para así evitar!!!

!"#$$$$% = '# (. "$$$$*# = + #≥0 Dónde: cx es la función objetivo a maximizar (ó minimizar), # ∈ $ℝ01 representa el vector de variables a determinar ' ∈ $ℝ1 es el vector de costos asociado a las variables. A ∈ $M345 es la matriz de coeficientes. + ∈ $ℝ06 el vector de términos independientes (ó rhs) relativos a las restricciones. 4.1.2+ MODELOS+ DE+ OPTIMIZACION+ NO+ LINEAL+ O+ PROGRAMACION+NO+LINEAL+ La mayoría de los modelos matemáticos resultantes del modelamiento de problemas de la vida real son problemas de Programación No Lineal (PNL). Un problema es de programación no lineal cuando tiene una función objetivo y/o alguna(s) restricciones como una función no lineal. Un problema de programación no Lineal (PNL) puede ser representado de la siguiente forma:

Figura 7 . ESQUEMA DE CAMPO DE LA MEDICIÓN DE EFICIENCIA MEDIANTE EL MÉTODO TERMODINÁMICO

3.5 METODOLOGIA+ BASADA+ EN+ TECNICAS+ DE+ OPTIMIZACION+ CLASICA+ COMO+ ALTERNATIVA+ DE+ SOLUCION La ventaja de las técnicas de optimización clásica con respecto a las demás metodologías es que simplifica enormemente la identificación de las alternativas de planificación económicamente más atractivas. Luego de un conjunto reducido de candidatos, generalmente se complementa el estudio con otras metodologías como la evaluación escenarios, etc. Por las razones, en este trabajo se desarrolla la metodología basada en técnicas de optimización clásica; concluye que es la herramienta computacional ideal para identificar alternativas de solución al problema de la optimización de la generación!de la central hidroeléctrica Malpaso.

4.1.3+ MODELOS+DE+OPTIMIZACION+ENTERA+

4. METODOS+DE+OPTIMIZACION+Y++SELECCION+DEL+ ALGORITMO+DE+SOLUCION

Técnica que permite modelar y resolver problemas cuya característica principal es que el conjunto de soluciones factibles sea discreto. Este modelo se obtiene agregando al modelo PL variables de decisión de tipo discretas; en algunas oportunidades las variables pueden ser enteras y otras continuas, en este caso hablamos de programación lineal entera mixta.

4.1+MODELOS+DE+OPTIMIZACION+MATEMATICA+ Un modelo es una representación matemática simplificada de una realidad compleja, herramienta que ayuda a la toma de decisiones, sus resultados deben ser inteligibles y útiles. En esta parte se describirán básicamente los tipos de modelos más importantes dentro de los modelos de optimización clásica: Optimización lineal, Optimización No Lineal y Optimización Entera.

Caso Particular: modelos lineales binarios donde las variables representan decisiones del tipo sí o no (1 o 0).

(89)!í<$$$$% = ' = #! (. "$$$$*# ≤ +! #? ∈ @AB $$$$C = 1, . . . , <!

4.1.1+ MODELOS+DE+OPTIMIZACION+LINEAL+O+

PROGRAMACION+LINEAL+

Con IN0 los naturales unión el cero.

Una de las aéreas más importantes y activas de la optimización es la Programación Lineal (PL). Los problemas Derechos reservados COPIMERA 2015

22


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

4.2 ALGORITMOS+DE+SOLUCION+DEL+PROBLEMA+DE+ OPTIMIZACION+MATEMATICA

Fase de Iniciación: Una de las peculiaridades del algoritmo simplex consiste en incorporar una nueva variable Z, igual a la función objetivo del problema, y la restricción asociada.

Son técnicas utilizadas para resolver los problemas de optimización planteados en los modelos vistos anteriormente. Escogiendo el algoritmo de solución adecuado resulta fundamental para la solución del problema ya sea por el resultado de la solución o por el soporte computacional que necesitaría; en general los algoritmos de optimización lineal son los que poseen mayor flexibilidad para su uso respecto a los algoritmos de optimización no lineal, esto debido principalmente a la restricción computacional que presentan.!! Principales algoritmos que nos ayudarán a resolver el problema que se plantea en el presente informe.

Las restricciones son:

Z = c1 x1 + ... + cn xn Y la función objetivo:

Z = (0 c

4.2.1+ ALGORITMO+SIMPLEX+ Es un método analítico de solución de problemas de programación lineal, procedimiento iterativo que permite mejorar la solución de la función objetivo en cada paso. El proceso concluye cuando no es posible continuar mejorando dicho valor, es decir, se ha alcanzado la solución óptima.

⎛1⎞ ⎜ ⎟ c )⎜ xB ⎟ ⎜x ⎟ ⎝ N⎠ T N

BxB + Nx N = b

Dónde:

v = B −1b

xB = B −1b − B −1 Nx N = v + UxN U = − B −1 N Ahora, de la ecuación de la función objetivo y la anterior ecuación obtenemos:

Sea$el$PPL:

Sujeto a

T B

Donde (B N) es una partición de la matriz A, y XB y XN definen otra partición de x, en variables básicas y no básicas, respectivamente. Usando la ecuación de restricciones podemos obtener:

!

Minimizar

⎛x ⎞ ( B N )⎜⎜ B ⎟⎟ = b ⎝ xN ⎠

f ( x) = c T x

Z = c BT (v + Ux N ) + c TN x N

Ax = b; b ≥ 0,

Z = c BT v + (c BT U + c TN ) x N Dónde:

x ≥ 0,

Donde ' = '1, '2, … , '< = es una matriz de costos y A es una matriz de m x n.

Para obtener:!!

El algoritmo simplex consta de dos etapas:

Z = u 0 + wx N

u0 = cBT v w = cBTU + cTN

⎛ Z ⎞ ⎛ u0 w ⎞⎛ 1 ⎞ ⎜⎜ ⎟⎟ = ⎜⎜ ⎟⎟⎜⎜ ⎟⎟ ⎝ xB ⎠ ⎝ v U ⎠⎝ xN ⎠

a.+ Etapa de Iniciación !! El conjunto inicial de restricciones se transforma en otro equivalente de igualdades, asociadas a una solución básica. !! Los valores de las variables básicas se transforman en no negativos (se obtiene una solución básica factible). Esta etapa se llama reguladora.

El algoritmo comienza con el conjunto de restricciones: (0) ⎛ Z ⎞ ⎛⎜ u 0 ⎜ ⎟ ⎜ − −⎟ = ⎜ − ⎜ x ⎟ ⎜⎜ v ( 0) ⎝ B⎠ ⎝

b.+ Etapa de Iteraciones Estándar En esta etapa los coeficientes de la función de costo se transforman en no positivos y el valor de la función de costo se mejora iterativamente, hasta obtener la solución óptima, se detecta solución no factible, o solución no acotada. En este proceso iterativo se obtienen diferentes soluciones factibles. Para este fin se utiliza la llamada transformación elemental de pivotaje.

T

w(0) + − U (0)

⎞⎛ 1 ⎞ ⎛ 1 ⎞ ⎟⎜ ⎟ ⎜ ⎟ (0) ⎟⎜ − − ⎟ = Z ⎜ − − ⎟ ⎟⎜ ⎟ ⎜x ⎟ ⎟⎝ x N ⎠ ⎝ N⎠ ⎠

Donde xB u xN es una partición del conjunto de variables {x1,x2,…,xn}. Las matrices v(0) y U(0) se obtienen resolviendo las restricciones!en!XB.!

U ( 0 ) = C BT V ( 0 ) , w( 0 ) = cBT U ( 0) + cTN Derechos reservados COPIMERA 2015

23


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

modo que x '= [x'B | x'N] y vamos a tratar de hacer el ejercicio considerando a xB como funciones de xN.

Donde cIJ y cKJ son los coeficientes de costo asociados a xB y xN, respectivamente.

`ab

Podemos entonces obtener un nuevo conjunto equivalente de restricciones con la misma estructura.

⎛ Z ( t ) ⎞ ⎛!!u (0t ) ⎜ ⎟ ⎜ ⎜−−⎟ =⎜ − ⎜ x ( t ) ⎟ ⎜⎜ v ( t ) ⎝ B ⎠ ⎝

∇_ ℎ # $$ =

`ac `_b

⎛ 1 ⎞ w( t ) ⎞⎟⎛ 1 ⎞ ⎜ ⎟ ⎜ ⎟ (t ) − ⎟⎜ − − ⎟ = Z ⎜ − − ⎟ ⎟⎜ ⎟ ⎜ (t ) ⎟ U ( t ) ⎟⎝ x (Nt ) ⎠ ⎝ xN ⎠ ⎠ T

+

`_b

`ab

`ab

… … …

`_c `_cdb

`ac

`ac

`_c `_cdb

… … …

= f|A

`_e

Reemplazando en la aproximación lineal:

Donde t se refiere al número de la iteración y t=0 es la iteración inicial.

#i − #i[ = −f #[

4.2.2+ METODO+DEL+GRADIENTE+REDUCIDO+ Parte de una solución factible conocida como punto inicial. El algoritmo intenta entonces moverse, a partir de este punto, en una dirección a través de la región factible, de tal forma que el valor de la función objetivo mejore. Tomando un salto o movimiento determinado en dicha dirección factible, se pasa a una nueva solución factible mejorada. De nuevo, el algoritmo identifica una nueva dirección factible, si existe, y un salto determinado avanzando hacia una nueva solución factible mejorada. El proceso continúa hasta que el algoritmo alcanza un punto en el cual no existe una dirección factible para moverse que mejore el valor de la función objetivo. Cuando no hay posibilidad de mejora, o el potencial para tal mejora es arbitrariamente pequeño, el algoritmo finaliza. Ahora bien, en ese momento la solución es un óptimo local, y por tanto no necesariamente global.

kX

#i − #i[ #j − #j[ = 0$ (7)

A(#[ )(#j − #j[ )

(8)

(9) El problema de minimizar J(x) bajo h(x)=0 es equivalente a minimizar Oa (#i #j , #j ) con respecto a xN y sin restricciones. Para este propósito, se puede utilizar el gradiente de Jh con respecto a xN que es: lmn l_o

=

lm l_o

+

lm l_p

(10)

l_p l_o

Pero: (11) Así:

q=

qrs qtu

=

qr qtu

Con el criterio de parada: A)+ PRIMER+CASO:+CON+RESTRICCION+DE+ IGUALDAD+

qr qtv lmn l_o

v tw

kx

u tw

≤y

Esta expresión recibe el nombre de gradiente reducido y se puede utilizar, por ejemplo cuando se aplica el método de mayor pendiente en función de xN.

L. M:$$$$$$$$$!C<$$O # $ PQRSTU$":$$$$$$$ℎ # = 0$

Dónde: $O # = O #1, #2, … , #< $$; $$ℎ # =

`ac

(6)

∇_ ℎ #[ # − #[ = 0 → $$ f #[ |A(#[ )

Sea:

`ab `_e

ℎX (#) ⋮ $ (4) ℎ6 (#)

Esta estrategia conduce a puntos que mejoran los valores de J (x), independientemente de la linealidad de h (x).

Por aproximación lineal de funciones se tiene: ℎ # ≅ ℎ #[ + ∇[ ℎ(#[ )(# − #[ ) Como ℎ #[ = 0 ; ∇_ ℎ #[ # − #[ = 0

(5)

(12) Oa #j,z0X − Oa #j,[ ≈

Por simplicidad, vamos a nombrar xB a los primeros m componentes de x, (variables básicas) y xN a los restantes, de Derechos reservados COPIMERA 2015

`mn _o,| `_o

Oa #j,z0X − Oa #j,[ ≈ −} 24

#j,z0X − #j,[

`mn _o,| `_o

~

(14)

(13)


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

El caso más general en ambas restricciones de igualdad y desigualdad se aborda mediante la transformación de la desigualdad en las ecuaciones de igualdad utilizando variables de holgura adicionales:

Así que, para un σ suficientemente pequeño como para garantizar la validez de la aproximación lineal de J, la gradiente reducida da una dirección de descenso de J. El principal problema de esta estrategia se asocia al hecho de que la aproximación lineal de h (x) conduce a puntos que no satisface la restricción no lineal h (x) = 0. No es difícil ver que los puntos del hiperplano. ∇_ ℎ #[ # − #[ = 0 (14)

L. M:$$$$$$$$$ÅC<_ $$Ç(#X , #~ , … , #1 )$ PQRSTU$":$$$$$$$ℎ[ #1, #2, … , #< = 0$$; $$É = 1,2, … , Ñ$ $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ÖÄ #1, #2, … , #< ≤ 0; $$$$R = 1,2, … , Å

Sea:

Límite de las variables: # Üáà ? ≤ #? ≤ # âä ? $; $$$$C = 1,2, … , <

No coinciden, en general, con h(x) = 0. Por lo tanto, si utilizamos: #i − #i[ = −f #[ kX A(#[ )(#j − #j[ ) (15)

Se puede transformar a: L. M:$$$$$$$$$ÅC<_ $$Ç #1, #2, … , #< $ $PQRSTU$":$$$$$ℎ[ #1, #2, … , #< = 0$$; $$É = 1,2, … , Ñ$$ $$$$$$$$$$$$$$$$$$ÖÄ #1, #2, … , #< + #10Ä = 0; $$$$R = 1,2, … , Å

Para calcular xB de xN, en general, no satisfarán h(x) = 0. A medida que la relación entre el cambio en xN y el cambio en xB es -B-1N, esta relación se podría utilizar para calcular los valores “x”:

Límite de las variables:

# Üáà ? ≤ #? ≤ # âä ? $; $$$$C = 1,2, … , < #10Ä ≥ 0; $$$R = 1,2, . . , Å

kX #z0X = #[ − } −f A

Variables Independientes y Dependientes Número de variables originales: n Número de ecuaciones de restricción originales: l Número de variables independientes para el problema: n-l Número de variables de holgura: m Número total de variables: m+n Número total de ecuaciones de restricción: l+m Número o de variables dependientes: (n+m)-(n-l)=l+m Teniendo a: ã = [#X , #~ , … , #1 , #10X , #10~ , … , #601 ]=

(16)

La estrategia correcta es calcular los "m" componentes xB en la iteración k + 1, a partir de las restricciones no lineales h(x) = 0, por lo que están satisfechos: ℎ #i,z0X , #j,[ − } = 0 Para este propósito, el método de Newton se puede utilizar:

Particionados la variable [X] en variables independientes [Z] y dependientes [Y]: é ã = = [%X , %~ , … , %1 , êX , ê~ , … , #Ü01 ]= è

(17) = # Ä i,[0X − f(# Ä i,z0X , #j,[ − } )kX ℎ # Ä i,z0X , #j,[ − }

De lo planteado en la ecuación anterior se puede organizar las restricciones como un solo vector: ℎ ë = Ö

Si no converge, σ debe reducirse y las iteraciones comenzar de nuevo. Una estimación inicial de xB,k+1 se puede obtener de: kX #z0X = #[ − } −f A (18)

Con las consideraciones anteriores aplicamos la metodología del GRG: L. M:$$$$$$$$$!C<CÅC%S$Ç(é, è) PQRSTU$":$$$$$$$$ë é, è = 0

Luego, se debe comprobar que J(x) mejora en xk+1. B)+ SEGUNDO+CASO:+CON+RESTRICCION+DE+ IGUALDAD+Y+DESIGUALDAD!

Nuevos límites de las variables: % Ü ? ≤ %? ≤ % â ? , C = 1,2, … , < − Ñ Derechos reservados COPIMERA 2015

25


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

ê Ü í ≤ êí ≤ ê â í , T = 1,2, … , Å + Ñ

5+

Con la nueva función objetivo, restricciones y variables tendríamos el siguiente sub-problema: Minimizar:

ìCÅCTS($ S$î"ïC"+ÑS(:$∆é, ∆è$ S+C "ÅS<TS$ïS(TïC<ÖC "($

5.1+ DESARROLLO+ DEL+ MODELO+ DE+ CURVA+ DE+ EFICIENCIA+ ! 5.1.1.+ RECOLECCION+ Y+ ANALISIS+ DE+ DATOS+ OBTENIDOS+DE+LAS+PRUEBAS+ Las mediciones de la eficiencia termodinámica de la Central Malpaso se llevaron acabo de acuerdo con la norma IEC 41, Field acceptance tests to determine the hydraulic performance of hydraulic turbines, storage pumps and pumpturbines; el objetivo de las mediciones es determinar la eficiencia hidráulica de cada unidad. Se realizaron ocho(08) pruebas de eficiencia, de las cuales se comentaron lo siguiente:

Calculando el GRG: Suponiendo que el método GRG inicia en el punto: H(xi)=0 A continuación las restricciones linealizadas se pueden escribir como: ∇ó ëX= ∇ò ëX= ∇ó ë~= ∆é + ∇ò ë~= ∆è = * ∆é + f ∆è = 0 (19) : : = = ∇ó ëÜ06 ∇ò ëÜ06 kX Luego: ∆è = − f * ∆é Reemplazando en la función objetivo: Ç ∆é = Ç ã ? + ∇ó Ç ã ? = ∆é − ∇ò Ç(ã ? )= f kX * ∆é = Ç ã ? + {∇ó Ç ã ? = − ∇ò Ç(ã ? )= f kX * }∆é = Ç ã ? + ∇ó Ç ã ? = − f kX * = ∇ò Ç(ã ? )= = ∆é = Ç ã ? + õú = ∆é (20)

•! •! •!

GR es el gradiente reducido de la función f(x), es quien le provee de la dirección optima (s) para las iteraciones. En resumen describiremos el algoritmo gradiente reducido de la siguiente manera:

•!

Unidad 1 – En la prueba 06 y 07 no dieron resultados suficientemente buenos y no se incluye en este informe. Unidad 4 – En la prueba 01 no dio resultados suficientemente buenos, y no se incluye en el presente informe. Unidades 3 y 4 - No fue posible medir el punto de funcionamiento deseado de 13,5 MW (prueba 08). Cuando el operador aumentó la apertura de los álabes guía a 12 MW la potencia de salida se redujo a 11 MW. Las eficiencias de todas las unidades se calculan con un rendimiento del generador de 98%.

A continuación se muestran los resultados de las pruebas de eficiencia para la unidad N° 2:

Paso 1: Incializamos ãX , Aù (N° de iteraciones), yC (para la convergencia y parada), û (contadores de iteraciones) Paso 2: Identificamos [Z], [Y] Calculamos [A], [B] Calculate [GR]

PRUEBA 1 2 3 4 5 6 7 8

Paso 3: Con GR , S= -GR , Para un paso ü Inicializamos û = 1 ∆é = üP; $$é = é † + ∆é; ∆è † = − f kX [*]∆é; é Paso 4: è †0X = è † + ∆è † ; ã †0X = †0X è Si ë(ã †0X ) = 0;$Stop, Converge Si no: û = û + 1 ∆è † = f kX [−ë(ã †0X )] Volver al Paso 4 Criterio de Parada: ∆ã = ã°0X − ã° Si ∆ã = $∆ã ≤ y1: Stop Si q=Ns (Numero de Interaciones)

Derechos reservados COPIMERA 2015

DESARROLLO++DE+MODELOS+

POTENCIA MW 4.50 6.00 7.50 9.50 10.50 12.00 13.10 12.00

EFICIENCIA % 81.51% 82.63% 87.14% 89.29% 91.56% 90.88% 89.67% 91.54%

Con esta información se procede a graficar los puntos en los ejes potencia vs eficiencia.

26


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ Figura 8 . CURVAS DE EFICIENCIA DE LAS TURBINAS DE LA CH MALPASO

5.1.2+ FORMULACION+DEL+MODELO++ Se puede observar el comportamiento no lineal de la eficiencia ante una variación de la potencia (pruebas), de modo que según la literatura se puede ajustar a modelos polinomios: cuadráticos, cúbicos, exponenciales, logarítmicos, etc; por lo que se planteara el siguiente modelo:

TURBINA(1

TURBINA(2

TURBINA(3

TURBINA(4

A

0.1423

0.5871

0.4180

0.4047

B

1.4263

0.2653

0.6356

0.5846

C

0.1438

0.0186

0.0704

0.0555

5.1.3+ VALIDACION DEL MODELO En esta etapa del proceso se obtienen las eficiencias de cada unidad de acuerdo al modelo planteado (Columna “Ajuste”), el cual se compara con los resultados de la medición (Columna “Medición”).

Eficiencia: En % eficiencia = a ⋅ P b ⋅ e −c⋅P P: Potencia en MW a,b y c: Parámetros de Ajustes Luego de realizar el análisis de ajuste de curvas como se muestra en el Anexo AAA, se obtuvieron los siguientes valores para las variables a, b y c. Dónde:

a.+ Turbina G1

Para el cálculo de los parámetros a, b y c; se procederá de la siguiente manera: Sea la siguiente función: ê = Ç ", +, ' = " ∗ # £ ∗ S k§∗_ De acuerdo a las pruebas de eficiencia se tienen los siguientes puntos: Puntos {#? , ê? } = { #X , êX ; #~ , ê~ ; … ; (#1 , ê1 )}

Figura 10 . Curva de eficiencia Turbina del Grupo 1

b.+ Turbina G2

Figura 9 . DATOS DISPERSOS Y CURVA DE AJUSTE DE DATOS DISPERSOS Figura 11 . CURVA DE EFICIENCIA TURBINA DEL GRUPO 2

Para el ajuste lo que se busca es lo siguiente:

c.+ Turbina G3

1

Ö ", +, ' = !C<$

Ç ", +, ', #? − ê?

!

~

?•X

Por ser a,b y c únicas variables, procedemos a aplicar las derivadas a la función respecto a dichas variables: ¶ Ö(", +, ') = 0$$$$ ….$$$(ü) ¶" ¶ Ö(", +, ') = 0$$$$ ….$$$(ß) ¶+ ¶ Ö(", +, ') = 0$$$$ ….$$$(®) ¶' De resolver el conjunto de ecuaciones se obtienen los siguientes valores para a,b y c:

Derechos reservados COPIMERA 2015

Figura 12 . CURVA DE EFICIENCIA TURBINA DEL GRUPO 3

27

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

(Ver Figura 28) de cada unidad y tener una idea de la operación optima de la central.

d.+ Turbina G4

5.2.2.+FORMULACION+ DEL+ PROBLEMA+ ESPECIFICACION+MATEMATICA+

Y+

Para la formulación del problema definiremos las variables asociadas a la central que intervienen en la optimización, sus ecuaciones, su función objetivo y los parámetros relacionados.

Figura 13 . CURVA DE EFICIENCIA TURBINA DEL GRUPO 4

Q(m3/s )

De los cuadros anteriores se puede observar que existe una desviación máxima de 1.83% en la segunda y quinta prueba, de lo que podemos que el modelo refleja de buena forma el comportamiento de la eficiencia en función de la potencia de la turbina. 5.2+ DESARROLLO+DEL+MODELO+DE+OPTIMIZACION+ ! 5.2.1.+IDENTIFICACION+DEL+PROBLEMA+ En una central de generación eléctrica, en este caso generación hidroeléctrica la eficiencia de sus unidades generadoras juega un papel importante en el proceso de generación, esta eficiencia depende directamente de la eficiencia de la turbina hidráulica (buscar diferencia entre turbina y rodete) en ese sentido operar a las unidades teniendo en cuenta su máxima eficiencia, su potencia de despacho establecida de la central hidroeléctrica, los limites técnicos de la turbina, etc; es un tema de evaluación y análisis que se abordara en el presente modelo.

Pin

n(%)

Pout Figura 15 . ESQUEMA DE LOS PARÁMETROS BÁSICOS A TOMAR EN EL MODELO

Empezamos a formular el problema definiendo que cual es el beneficio que queremos obtener y de acuerdo a ello plantearemos nuestra función objetivo. Del gráfico: 8C< = Ç ©, ë $ CïS'T"ÅS<TS$™ïU™Uï'CU<"Ñ; $$$ë = 'TS$$ →$$$$↓ 8C<, ↓Q Por lo que para reducir el consumo de caudal se debe minimizar la potencia de ingreso a la central; para ello recurriremos a la herramienta de optimización matemática. Objetivo del Problema:

!C<CÅC%"ï{8?1X + 8?1~ + 8?1¨ + 8?1≠ } Por otro lado teniendo en cuenta el modelo de eficiencia elaborado en el numeral 5.1 del presente informe, se tiene lo siguiente: Figura 14 . ZONA DE OPERACIÓN A MAYOR EFICIENCIA

eficiencia = a ⋅ P b ⋅ e −c⋅P

+

Dónde: Eficiencia: En % P: Potencia de salida de la unidad (Pout) en MW a, b y c: Parámetros de ajuste de curva Luego de realizar el análisis de ajuste de curvas como se muestra en el Anexo II, se obtuvieron los siguientes valores para las variables a, b y c.

Teniendo a la eficiencia de la turbina hidráulica como uno de los elementos fundamentales de la central hidroeléctrica, medir su eficiencia periódicamente nos ayudaría a tomar una mejor decisión en el despacho de potencia; por ello en CH Malpaso se realizaron pruebas de medición de eficiencia, cuyo objetivo fue determinar la eficiencia de la turbina y a su vez la de la unidad hidráulica.

Por lo que relacionando la potencia de ingreso y la de salida al grupo se tiene:

Se realizaron ocho (08) pruebas de eficiencia, en el cual se midió temperaturas, presión y caudal a potencia variable, estos datos sirvieron para después obtener las curvas de eficiencia Derechos reservados COPIMERA 2015

eficiencia = 28

Pout Pout 1 1−b = = • Pout e cPout b − c⋅ Pout Pin a ⋅ Pout ⋅ e a

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Teniendo en cuenta los limites técnicos de las turbinas: 8ÅC<, 8Å"#

s.a:

Planteamiento del problema: Para los cuatro (04) grupos:

<X =

°ÆØ∞b

<~ =

°ÆØ∞≥

<¨ = <≠ =

°±eb

°±e≥ °ÆØ∞¥ °±e¥ °ÆØ∞µ °±eµ

→ $ 8?1X =

X Xk£b °ÆØ∞b §b 8 S ≤b áâíX

→ 8?1~ =

X

→ 8?1¨ = → 8?1≠ =

Xk£≥ °ÆØ∞≥ §≥

8 S ≤≥ áâí~ X Xk£¥ °ÆØ∞¥ §¥ 8 S ≤¥ áâí¨ X Xk£µ °ÆØ∞µ §µ 8 S ≤µ áâí≠

(21)

a)! Definición de variables y parámetros: # de variables originales: n=4 # de ecuaciones de restricción originales: l=1 # de variables independientes(z) para el problema: n-l =3 # de variables de holgura: m=4 # total de variables: m+n=8 # total de ecuaciones de restricción: l+m=5 # de variables dependientes(y): (n+m)-(n-l)=l+m=5

(22) (23) (24)

Tenemos la nueva Función Objetivo:

Xk£≥ X X Xk£b °ÆØ∞b §b 8 S + 8áâí~ S °ÆØ∞≥§≥ ≤b áâíX ≤≥ X X Xk£¥ °ÆØ∞¥ §¥ 8 S + 8áâí≠Xk£µ S °ÆØ∞µ§µ } (26) ≤¥ áâí¨ ≤µ

!C<CÅC%"ï${$$

Vector variable: ã = ™1 ™2 ™3 ™4 ™5 ™6 ™7 ™8 Dónde: ê = ™1 ™2 ™3 ™4 ™5 = % = ™6 ™7 ™8 = Calculamos las matrices B y A: ¶ℎ(™) ¶ℎ(™) f= $; * = ¶ê ¶%

+

Sujeto a: 8áâíX + 8áâí~ + 8áâí¨ + 8áâí≠ − 8ù∂í = 0 Límite de Variables:

86?1X 86?1~ 86?1¨ 86?1≠

≤ 8áâíX ≤ 8áâí~ ≤ 8áâí¨ ≤ 8áâí≠

ℎ1 ™ = ™1 + ™2 + ™3 + ™4 − ™(ST = 0 86?1X ≤ ™1 ≤ 86≤_X → ℎ2 ™ = $™1 − ™5 = 0$ 86?1~ ≤ ™2 ≤ 86≤_~ → ℎ3 ™ = $™2 − ™6 = 0$ 86?1¨ ≤ ™3 ≤ 86≤_¨ → ℎ4 ™ = $™3 − ™7 = 0$ 86?1≠ ≤ ™4 ≤ 86≤_≠ → ℎ5 ™ = $™4 − ™8 = 0$

≤ 86≤_X ≤ 86≤_~ ≤ 86≤_¨ ≤ 86≤_≠

=

Empezamos las iteraciones con q=1 y ã X = [6 6 6 6 0 0 0 0 ]= é X = [0 0 0]= è X = [6 6 6 6 0]=

Del planteamiento podemos establecer: Variables: 8áâíX ,$8áâí~ $, 8áâí¨ $ê$8áâí≠ Parámetros: 86?1X , 86?1~ $, 86?1¨ , 86?1≠ $;$

Por lo tanto podemos calcular el gradiente reducido, reemplazando las constantes a, b y c de las pruebas de eficiencia citadas en el numeral 5.1.2 del presente informe para la función objetivo: õú = 0.43997 0.34469 0.32843 =

86≤_X ,$86≤_~ , 86≤_¨ , 86≤_≠ ; 8ù∂í

De lo planteado, se puede observar la que la función objetivo contiene términos no lineales, las restricciones contiene términos lineales de desigualdad e igualdad y el problema posee cuatro (04) dependientes entre sí por una potencia de ingreso (Pset), por ello el problema se definiría como un problema de Programación No Lineal (PNL) con restricciones de igualdad y desigualdad con cuatro variables de análisis.

Para α=0.01, Calculamos ∆é$, ∆èX , éX , è ~ de acuerdo al algoritmo descrito en el numeral 4.2.2 del presente informe: ∆é = [−0.0044 ∆è = [0.0111 −0.0040

−0.0034 −0.0034

−0.0033]= −0.0033 0.0111]=

Entonces:

5.2.3.+RESOLUCION+

é = [−0.0044 −0.0034 −0.0033]= ∆è = [6.0111 5.9956 5.9967 5.9967 0.0111]=

Para la resolución se aplicara el método del Gradiente Reducido Generalizado (GRG); a continuación se muestra el desarrollo:

Tenemos el nuevo vector X:

Del numeral 5.2.2 se tiene el modelo: Planteamiento Para: Pout =p; pset = cte Para una Potencia de entrada de Pset=30MW, reemplazamos en las restricciones iniciales:

Función Objetivo: !C<CÅC%"ï$$Ç ™ = Ç$(™1, ™2, ™3, ™4) Derechos reservados COPIMERA 2015

29


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

ë ã~ X

−6 0 6 0 = 6 ; æUÅU$ë ã ~ ≠ 0 $ → $ ∆èX = f 6 0 6 0

Ə = 24

−6

−6

−6

30

kX

las pruebas y H, g y ρ indicado anteriormente; por ejemplo para los siguientes datos:

−ë(ã ~ )

Potencia ejecutada real Pout (MW):

=

G1 G2 G3 G4 Total 11.71 7.79 10.84 10.70 41.03 Con el modelo se calcula la nueva distribución óptima potencia ejecutada (MW) y la Potencia optima de ingreso a la central (MW): G1 G2 G3 G4 Total 9.75 12.78 8.58 9.92 41.03

Con este valor volvemos a iterar. Realizar las iteraciones manualmente resulta tedioso a nivel operativo por lo que generalmente para obtener resultados de este tipo de problemas de varias variables y varias restricciones es común utilizar la ayuda de algún programa computacional en nuestro caso se hará uso de la interfaz del Solver de Excel utilizando específicamente el módulo de optimización no lineal el cual está basado en el método de Gradiente Reducido Generalizado (GRG). En el Anexo AAA del presente informe se adjunta el modelo elaborado en el Solver y una aplicación macros VA Excel para calcular las potencias óptimas por cada unidad de generación.

G1 G2 G3 G4 Total 11.036 14.332 9.781 11.338 46.488 Y con ello mediante las formulas calculamos los caudales óptimos en (m3/s)

Para una Potencia de entrada de 30 MW (ingresada generalmente por el operador) se tiene la siguiente distribución de potencia óptima por cada unida de generación: P1 0.00

P2 12.22

P3 8.27

Q1 14.376

CAUDAL OPTIMO POR GRUPO Q2 Q3 Q4 18.669 12.740 14.769

TOTAL Q optimo 60.555

En cuanto al cálculo de los caudales reales se utilizara la información obtenida durante las pruebas de eficiencia de la C.H Malpaso; durante las pruebas de eficiencia que se realizaron a la central, uno de los datos que se obtuvieron fue el de caudal; por lo que se aprovechó dicha información para analizar el comportamiento de la potencia de salida (Pin) vs el caudal consumido por grupo, y de esa manera elaborar el ajuste de curvas y ecuaciones características potencia vs caudal por cada unidad, con las ecuaciones características de cada unidad finalmente se procedió a la estimación de los caudales reales consumido por cada unidad.

P4 9.51

5.2.4.++VALIDACION,+ INTERPRETACION+ Y+ ANALISIS+ DE+RESULTADOS+ Para validar el modelo realizaremos la comparación de los caudales obtenidos por el modelo de optimización respecto los resultados reales. Sabiendo que la potencia generada (Pout) a la salida de los bornes de generación está relacionada fundamentalmente con la eficiencia de la central y la potencia a la entrada de la central (Pin), y que a su vez Pin está en función del caudal y altura, entonces podemos obtener el caudal en función de la potencia de entrada, eficiencia y altura por cada grupo, considerando constantes los parámetros gravedad y densidad.

MW

8UQT = Ç <%, 8C< ; $$$8C< = Ç ©, ë → $$© = Ç(<%, 8UQT, ë)

8C<: Potencia de entrada del grupo generador 8UQT: Potencia de salida en bornes del grupo generador Considerando los siguientes datos Constantes (datos de acuerdo a lo obtenido de las pruebas) ë: Altura de la central = 78.587 m Ö: Gravedad =9.77 m/s2 ¡: Densidad =999.77 m/s2 Para el cálculo del caudal óptimo se procederá de acuerdo a lo mencionado anteriormente, teniendo como Pout a la potencia obtenida del modelo de optimización, n% de los resultados de

Derechos reservados COPIMERA 2015

Figura 16 . CURVA DE AJUSTE DE CAUDALES VS LA POTENCIA DE SALIDA POR GRUPO DE GENERACIÓN.

CAUDAL REAL POR GRUPO Q1 18.03

30

Q2 11.90

Q3 16.93

TOTAL Q4 15.94

QR 62.791


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ Q(m3/s) 67.000 66.000 65.000 64.000 63.000 62.000 61.000 60.000 59.000 58.000 57.000 56.000

Con la información de los caudales reales y óptimos calculadas tendríamos disponibles los resultados del ahorro en m3/s; por lo que el paso final sería la valorización del ahorro utilizando su equivalente en potencia (MW) y el costo marginal de la energía cada 15 minutos. COSTO MARGINAL S/. MWh 49.51

BENEFICIO/AHORRO Ahorro cada 15 min Q (m3/s) 2.236

MW 1.726

MWh 0.358

S/. 17.728

Optimo

Habiendo descrito el proceso de cálculo de ahorro al generar energía hidroeléctrica mediante el modelo de optimización planteado, para un mayor panorama y una mejor evaluación de su impacto se realizara una reevaluación de la generación de la C.H Malpaso considerando un horizonte anual, en el cual se ha recabado información de la generación ejecutada cada 15 minutos(Ver cuadro cccc) y los costos marginales promedios mensuales; el presente informe abarcara el periodo de enero a diciembre del 2013, con ello se podría estimar una proyección para los siguientes años.

Real

!

Figura 18 . CAUDAL REAL VS CAUDAL OPTIMO – AVENIDA MÁXIMA

Avenida Media Q(m3/s) 70.000 68.000 66.000 64.000 62.000 60.000 58.000 56.000 54.000 52.000

Optimo

Real

Figura 19 . CAUDAL REAL VS CAUDAL OPTIMO – AVENIDA MEDIA Figura 17 . VARIACIÓN MENSUAL DE LOS COSTOS MARGINALES 2013

Avenida Mínima

El criterio de evaluación considera los escenarios hidrológicos de Avenida y Estiaje más los escenarios de variación de la demanda Máxima, Media y Mínima.

Q(m3/s) 62.000 61.000 60.000 59.000 58.000 57.000 56.000 55.000 54.000 53.000

Escenario de Avenida Avenida Máxima

Optimo

Real

Figura 20 . CAUDAL REAL VS CAUDAL OPTIMO – AVENIDA MÍNIMA

Escenario de Estiaje Estiaje Máxima Derechos reservados COPIMERA 2015

31

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

6+ Q(m3/s) 68.000 67.000 66.000 65.000 64.000 63.000 62.000 61.000 60.000 59.000 58.000

EVALUACION+ECONOMICA+

6.1+INTRODUCCION+ La justificación económica, el cual se basa en la comparación de los beneficios que genera y los costos o inversiones que se requiere para la elaboración del modelo de optimización.

Optimo

6.2+INFORMACION+UTILIZADA+Y+CONSIDERACIONES+ Se ha utilizado información de la producción y costos de energía de la central hidroeléctrica Malpaso referente al año 2013, asimismo se está realizando una evaluación de los costos que implican la medición de la eficiencia de la central, los costos de la elaboración e implementación del modelo de optimización, y los costos para su mantenimiento. Para tener un ratio más real de la evaluación económica de la optimización de la generación y su impacto en la producción de energía de la central, se va considerar la evaluación económica asumiendo que la etapa de implementación al Sistema SCADA esté concluida.

Real

Figura 21 . CAUDAL REAL VS CAUDAL OPTIMO – ESTIAJE MÁXIMA

Estiaje Media Q(m3/s) 80.000 70.000 60.000 50.000 40.000 30.000 20.000 10.000 0.000

6.2.2+Inversión+

Optimo

Real

Figura 22 . Caudal Real vs Caudal Optimo – Estajea Media

!

Estiaje Mínima 6.2.3+Ingresos+Anuales+ Los ingresos estarían dados por el ahorro en la cantidad de agua que se obtendría al generar óptimamente respecto a la generación real ejecutada para un periodo anual.

Q(m3/s) 70.000 60.000 50.000 40.000 30.000 20.000

$

10.000 0.000

Ahorro.de. Caudal. Total.Ingresos.

Optimo

Real

Figura 23 . Caudal Real vs Caudal Optimo – Estiaje Mínima

Derechos reservados COPIMERA 2015

$ Estiaje.(Mayo.;.Noviembre).

S/.. 1521096.355$

Avenida.(Diciembre.;.Abril).

411086.557$

$$

1932182.912$

6.2.3+Indicadores+Económicos+ Teniendo como información la inversión y los ingresos anuales se elabora el flujo de caja: + Tomamos a 12% de tasa de descuento para el análisis del proyecto, de acuerdo ello se halla el VAN, TIR y B/C.

+

32


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

De acuerdo a los resultados de indicadores económicos se evidencia la viabilidad y su alta rentabilidad del modelo de optimización; de acuerdo a lo indicado anteriormente en el numeral 6.2 del presente informe, el modelo sería rentable aun si procederíamos a implementarlo a algún software computacional (Excel, SCADA, etc.).

Referencia+ [1] Andrés Ramos, Pedro Sánchez, José María Ferrer, Julián Barquín, Pedro Linares – Universidad Pontificia Comillas - Madrid, Septiembre 2010. Modelos Matemáticos de Optimización.! [2] Mokthar S. Bazaraa – Fourth Edition Canada 2010. Linear Programming and Network Flows [3] University Of Waterloo Canada - 2006. Non Linear Optimization. [4] James A. Momoh, New York- 2001. Electric Power System Applications of Optimization. [5] Allen J. Wood and Bruce F. Wollenberg, Canada - 1996. Power Generation, Operation, and Control – Second Edition.

Derechos reservados COPIMERA 2015

33


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

33


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! !

Ingeniería Eléctrica Articulos: 1.! Verificación del diseño del aislamiento y conductor de fase en líneas de transmisión en 500 kv ubicadas a gran altitud. Implementación de una red neural en un dispositivo embedido para el seguimiento del máximo punto de potencia en un sistema solar fotovoltaico. 2.! Cálculo de índices de importancia para los componentes de un sistema eléctrico de potencia desde el punto de vista de la confiabilidad. Tecnología de Impresión 3D para el diseño y prototipo de productos. 3.! Propuesta de modelo matemático para la evaluación del cumplimiento de la regulación primaria de frecuencia en el mercado peruano. 4.! Tecnología de Impresión 3D para el diseño y prototipo de productos. 5.! Propuesta de modelo matemático para la evaluación del cumplimiento de la regulación primaria de frecuencia en el mercado peruano. 6.! Principio de funcionamiento del reactor magnéticamente controlado y su aplicación en el sistema eléctrico interconectado nacional del Perú. 7.! Mejoramiento Metodológco de las proyecciones de la demanda eléctrica del Peru mediante modelos econométricos cointegrados y analisis predictivo estocastico del PBI. 8.! La evolución de las unidades de medicón fasorial. 9.! Fabricación de una prótesis humana utilizando una impresora 3D en Honduras. 10.! Asignación de Perdidas en sistemas de Distribución Basados en Teoría de Circuitos y el Método de Aumann Shapley. 11.! Artificial neural network applied to medium term demand forecasting to support the distribuition system expansión. 12.! Dimensionamento de painéis fotovoltaicos usando enxame de partículas para reduzir as perdas de energia e melhorar o perfil de tensão. 13.!Previsão de demanda à medio prazo utilizando lógica fuzzy.

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

!

Derechos reservados COPIMERA 2015

!

34


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

35


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+

VERIFICACIÓN+DEL+DISEÑO+DEL+AISLAMIENTO+Y+CONDUCTOR+DE+FASE+EN+ LÍNEAS+DE+TRANSMISIÓN+EN+500+KV+UBICADAS+A+GRAN+ALTITUD+ 1

Abraham Marví Reáteguí1, Edson Cueto De la Torre2.

COES SINAC, Lima Perú, amaravi@coes.org.pe . 2 COES SINAC, Lima Perú, ecueto@coes.org.pe

Resumen+

empleados por la empresa titular del proyecto, para el desarrollo de éstos análisis.

En este trabajo se describe la verificación del diseño de aislamiento y del conductor de fase (desde el punto de vista eléctrico) de la futura línea de transmisión Mantaro – Marcona, en Perú, para altitudes mayores a 3000 msnm. Para la verificación del diseño se empleó normativa nacional e internacional, la amplia experiencia peruana en diseño de líneas en 220 kV a gran altitud y la experiencia del proyecto L.T. 500 kV Suchian – Tibet en China (de 522 km, que recorre altitudes de hasta 5000 msnm), puesto en servicio en noviembre del 2014.

Nomenclatura+ ! "# "$ % %& I '( ) )# *# *+ *$ R ,.&/ .´&/

Distancia crítica fase – tierra (m). Gradiente crítico corona (kVrms/cm). Gradiente superficial (kVrms/cm). Altitud sobre el nivel del mar (m). Altura sobre el suelo del conductor i (m). Corriente del conductor (A). Factor de corrección por altitud. Exponente usado para factor de corrección por altitud. Factor de irregularidad del conductor. Calor perdido por convección (W/m). Calor perdido por radiación (W/m). Calor ganado por irradiación solar (W/m). Resistencia AC del conductor (Ω/km). Radio del conductor (cm). Distancia entre los conductores “i” y “j”. Distancia entre el conductor “i” y la imagen del conductor “j” 123+4 Valor de tensión de descarga 50% punta-plano. 5 Matriz de coeficientes de potencial (m/F). * Matriz de cargas (C/m). 6 Matriz de voltajes (V). Densidad relativa del aire.

+ Introducción+ El COES SINAC como parte de sus funciones revisa y aprueba la conexión de nuevas instalaciones en el Sistema Eléctrico Interconectado Nacional (SEIN) de Perú. En el año 2014 el COES SINAC recibió el Estudio de Pre Operatividad para la Conexión al SEIN del Proyecto “Línea de Transmisión en 500 kV Mantaro – Marcona – Socabaya – Montalvo”, de 911 km, en cuyo tramo Mantaro – Marcona (358 km), se propone el recorrido de la línea en altitudes de hasta 4500 msnm, convirtiéndose así en el primer proyecto en 500 kV del Perú con una línea de transmisión que atraviesa zonas de gran altitud. Actualmente en el Perú se cuenta con la experiencia en el diseño de líneas de transmisión a gran altitud únicamente para niveles de tensión de 220 kV y menores. En ese sentido, para la revisión del diseño de la línea en 500 kV propuesto se realizaron análisis muy profundos a partir de ésta experiencia y la obtenida de la L.T. 500 kV Suchian – Tibet en China (que recorre altitudes de hasta 5000 msnm), que entró en operación en noviembre del 2014. En el presente trabajo se resumen los criterios y metodologías, propuestos por el COES SINAC, y que fueron

I.+CARACTERÍSTICAS+TÉCNICAS+DE+LA+FUTURA+L.T.+ 500+KV+MANTARO+#+MARCONA+ Las características técnicas principales de la futura línea de transmisión 500 kV Mantaro – Marcona, son las siguientes: •! Capacidad de Transmisión por límite térmico: 1400 MVA.

Derechos reservados COPIMERA 2015

36


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

•! Longitud : 358 km (114 km en altitud menor a 3000 msnm y 244 km en altitud mayor a 3000 msnm). •! Número de ternas : una (01). •! Disposición de conductores : horizontal (0-3000 msnm) y triangular (3000-4500 msnm). •! Conductor de fase : 4xACAR 800 MCM (0-3000 msnm), 4xACAR 900 MCM (3000-4000 msnm) y 4xACAR 1000 MCM (4000-4500 msnm). •! Estructuras soporte : torres de celosía de acero galvanizado. •! Aislamiento : aisladores poliméricos.

1,0 y a una potencia de transmisión de 800 MVA, de acuerdo al Contrato de Concesión. Se obtuvo un porcentaje de pérdidas Joule de 2,7%, valor inferior al límite establecido de 2,8%.

III.+VERIFICACIÓN+DEL+CONDUCTOR+DE+FASE+ Para la verificación del conductor de fase, se revisó los siguientes requisitos de diseño exigidos en el Contrato de Concesión SGT “L.T. 500 kV Mantaro – Marcona – Socabaya Montalvo y subestaciones asociadas” (Contrato de Concesión) y en el PR-20 Ref. [1]: A.+Límite+térmico+de+los+conductores+de+fase+ De acuerdo al Contrato de Concesión y al PR-20 Ref. [1], la temperatura de operación del conductor no debe superar el límite térmico de 75 °C para la potencia de transmisión de 1400 MVA; por tanto, se obtuvo la máxima temperatura de operación del conductor de fase, empleando la Ec. (1) de balance de calor en estado estacionario: *# + *+ = *$ + 9 : ;

Figura!1.!TEMPERATURA!DEL!CONDUCTOR!ACAR!1000! MCM!VERSUS!LA!CORRIENTE!EN!AMPERIOS!!

C.+Efecto+Corona+ Se verificó que el gradiente superficial ("$ ) en los conductores de fase laterales sea menor al 90% del gradiente crítico corona ("# ) en las condiciones atmosféricas predominantes, según lo exigido en el Contrato de Concesión. Para el cálculo de "$ y "# se empleó las metodologías descritas en EPRI Ref. [4], de esta manera "# se calcula mediante la Ec. (2):

(1)

Donde los valores de *# , *+ y *$ son obtenidos mediante la norma IEEE 738 Ref. [2]; no se empleó la norma IEC 61597 Ref. [3] debido a que no considera ninguna corrección por altitud; a diferencia de IEEE 738 Ref. [2], donde el incremento de H aumenta el *$ y disminuye el *# . Así mismo, para el cálculo de capacidad de corriente se consideraron las siguientes condiciones ambientales: •! Temperatura ambiente máxima. •! Radiación solar máxima. •! Viento mínimo de 0,61 m/s perpendicular al conductor. De esta manera se obtuvieron los resultados de la Tab. 1, donde se observa que los conductores propuestos no superan el límite térmico.

"# = 21.1)# ? 1 +

"$ =

Tabla!1.!TEMPERATURA!DEL!CONDUCTOR! Altitud (H)

Conductor

<3000 – 4000> msnm <4000 – 4500> msnm

4 x ACAR 900 MCM 4 x ACAR 1000 MCM

Potencia 1400 MVA

56 °C

1400 MVA

52°C

* 2BC3 ,#

* = 5 5EE 5 = 5:E 5FE

!

(2)

DE

5E: 5:: 5F:

(3)

6

(4) 5EF 5:F 5FE

(5)

Donde los coeficientes de potencial de 5 tienen las siguientes expresiones:

B.+Pérdidas+Joule+ Se verificó el límite máximo de pérdidas Joule establecido en el Contrato de Concesión, para un factor de potencia igual a Derechos reservados COPIMERA 2015

,# ?

Por otro lado, el "$ en cada uno de los conductores de fase, se calcula mediante la Ec. (3); obteniéndose previamente las cargas de cada conductor mediante Ec. (4).

! Temperatura conductor (°C)

0.301

37


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

1 2%& GH 2BC3 ,#

(6)

.´&/ 1 5&/ = GH 2BC3 .&/

(7)

5&& =

Tabla!2.!GRADIENTE!SUPERFICIAL!Y!GRADIENTE!CRÍTICO! DEL!CONDUCTOR!

!

En la Fig. 2 se puede apreciar las distancias %& , .&/ y .´&/ .

Altitud (H)

Conductor

<3000 – 4000> msnm <4000 – 4500> msnm

4 x ACAR 900 MCM 4 x ACAR 1000 MCM

"$ (kVrms/cm)

"# (kVrms/cm)!

"$ /"#

12,97

14,54

0,89

12,42

13,86

0,89

!

Por otro lado, la L.T. 500 kV Suchian – Tibet, que recorre altitudes de hasta 5000 msnm, emplea el conductor 4 X ACSR 800 MCM, de sección menor a la propuesta. Por lo expuesto, se considera que los conductores propuestos en la futura L.T. 500 kV Mantaro – Marcona son apropiados. IV.+VERIFICACIÓN+DEL+AISLAMIENTO+ Respecto al diseño del aislamiento, se obtuvieron las distancias mínimas fase-tierra ante sobretensiones de maniobra empleando la Ec. (8), indicada en lEC 60071 Ref. [5], norma exigida en el PR-20 Ref. [1]. Asimismo, considerando la poca experiencia en proyectos de muy alta tensión a gran altitud se procedió a verificar los resultados con la Ec. (9) indicada en IEEE 1313 Ref. [6] y con la Ec. (10) de la metodología CRIEPI (Kishizima et al.) indicada en EPRI Ref. [4].

Figura!2.!CONDUCTORES!“i”,!“j”!Y!SUS!IMAGENES!

En la futura línea en 500 kV Mantaro - Marcona, para altitudes entre 3000 y 45000 msnm, se tiene la siguiente disposición de conductores:

123+4 = 500! 3,L 123+4 =

3400 8 1+ !

123+4 = 1080lnQ(0,46d + 1)

(8) (9)

(10)

Las ecuaciones indicadas arriba son aplicables al nivel del mar, por tanto se requiere aplicar el factor de corrección por altitud ('( ) mediante la Ec. (11). Así mismo, para obtener las distancias mínimas fase-tierra, para las configuraciones “fase central - estructura” y “fase central - ventana” es necesaria la aplicación de factores, que son indicados en las referencias respectivas (Ref. [4-6]). '( = V

X YE23

(11)

Así mismo, se comparó con las distancias de aislamiento del proyecto L.T. 500 kV Suchian – Tibet en China, obteniéndose los resultados de la Tab. 3, donde se observa que las distancias mínimas fase – tierra propuestas en la L.T. 500 kV Mantaro-Marcona, en alturas mayores a 3000 msnm son apropiadas.

Figura!3.!DISPOSICIÓN!DE!CONDUCTORES! PROPUESTA!PARA!LA!L.T.!500!KV,!EN!ALTITUDES!ENTRE! 3000!Y!4500!MSNM!!

De esta manera, se obtuvo los resultados de la Tab. 2, donde se observa que los conductores propuestos, así como su disposición física, cumplen con el requisito exigido por efecto corona.

Derechos reservados COPIMERA 2015

W

! ! ! !

38


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Ref. [5], IEEE 1313 Ref. [6] y CRIEPI (incluida en EPRI Ref. [4]), así como las obtenidas del proyecto L.T. 500 kV Suchian – Tibet, encontrándose que las distancias propuestas cumplen holgadamente; en ese sentido, se espera un buen desempeño del aislamiento en la futura línea de transmisión. La metodología empleada para el diseño de los demás componentes de la línea, como son: cable de guarda, puesta a tierra, cimentaciones, etc, y sus cálculos mecánicos, son similares a las utilizadas en proyectos de 220 kV ubicados a gran altitud, por lo tanto, no forman parte de los alcances del presente trabajo. La experiencia, en diseño de líneas de transmisión, que se obtiene de este proyecto, servirá para otros países que presentan zonas de gran altitud como son Bolivia, Chile, etc.

!

AGRADECIMIENTOS+ Gracias a la Universidad Nacional de Ingeniería de Lima, Perú, por su sólida formación científica, tecnológica y humanística.

! !

REFERENCIA+ [1] Procedimiento Técnico COES PR-20 “Ingreso, Modificación y Retiro de Instalaciones en el SEIN”. (PR20). [2] “IEEE Standard for Calculating the Current-Temperature Relationship of Bare Overhead Conductors”, IEEE Standard 738, 2006. [3] IEC “Overhead electrical conductors - Calculation methods for stranded bare conductors”, IEC 61597, 1995. [4] “EPRI AC Transmission Line Reference Book - 200 kV and Above, Third Edition”, Electric Power Research. Institute, 2005. [5] IEC “Insulation co-ordination”, IEC 60071, 2006. [6] “IEEE Guide for the Application of Insulation Coordination”, IEEE Std. 1313-2, 1999.

Figura!4.!SILUETA!DE!ESTRUCTURA!PROPUESTA!PARA!LA! L.T.!500!KV,!EN!ALTITUDES!ENTRE!3000!Y!4500!MSNM.! ! ! Tabla!3.!DISTANCIAS!MÍNIMAS!FASEITIERRA,!POR! SOBRETENSIONES!DE!MANIOBRA,!EN!LÍNEAS!DE! TRANSMISIÓN!EN!500!KV! ! Metodología o Proyecto

Distancias mínimas fase-tierra

Altitud (H)

Fase central

Fase lateral

6,0 m

5,0 m

5,4 m

4,3 m

5,2 m

4,8 m

6,1 m

4,7 m

5,2 m

4,4 m

EPO LT 500 kV Mantaro-Marcona Metodología IEC 60071 Metodología IEEE 1313

<3000 – 4500> msnm

Metodología CRIEPI (Kishizima et al.) LT 500kV SichuanTibet

Abraham Maraví, nació en Lima - Perú, en 1979. De 1997 a 1999 estudió hasta cuarto ciclo la especialidad de Fisica, en la Universidad Nacional de Ingeniería (UNI), Lima, Perú. En el 2004 egresó de la UNI y obtuvo el título de Ingeniero Electricista en el 2013. Del 2006 al 2010 trabajó en la empresa consultora CESEL INGENIEROS, como asistente y posteriormente como especialista en diseño de líneas de transmisión de alta tensión. Actualmente labora en el COMITÉ DE OPERACIÓN ECONÓMICA DEL SISTEMA INTERCONECTADO NACIONAL (COES – SINAC), como especialista en líneas de transmisión, apoyando en la revisión de Estudios para la conexión de nuevas instalaciones al sistema interconectado. Ha participado activamente en la elaboración de los criterios de

V.+CONCLUSIONES+ Los conductores de fase propuestos, 4 x ACAR 900 MCM y 4 x ACAR 1000 MCM, cumplen los requisitos eléctricos de límite térmico, efecto corona y pérdidas Joule. Por otro lado, respecto al desempeño ante las exigencias mecánicas en las zonas de altitud (hielo, viento, etc), se sabe que en el Perú existen líneas en 220 kV, ubicadas a grandes altitudes, con conductores 2 x ACAR 1000 MCM y 1 x ACAR 1000 MCM. En ese sentido, se espera un buen desempeño eléctrico y mecánico de los conductores de fase propuestos. Sabiendo que la experiencia mundial en diseño de aislamiento en líneas de transmisión, en muy alta tensión, a gran altitud es prácticamente nula; se verificó las distancias mínimas fase – tierra, mediante las metodologías IEC 60071 Derechos reservados COPIMERA 2015

39


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

diseño, para líneas de transmisión en alta y muy alta tensión, del Procedimiento Técnico COES PR-20. Por otro lado, participó como expositor en jornadas técnicas organizadas por la UNI y CONIMERA.

+ Edson Cueto, nació en Lima - Perú, en 1973. Egresado de la Universidad Nacional de Ingeniería – UNI en 1996 y obtuvo el título de Ingeniero Electricista en 1998. Asimismo fue incorporado como miembro ordinario del Colegio de Ingenieros del Perú en 1998. De 1996 al 2000 participó como ingeniero de proyectos con la empresa consultora PRICONSA en el desarrollo de Estudios Definitivos de diseño de Líneas de Transmisión, Subestaciones, Pequeños Sistemas Eléctricos y Minicentrales Hidroeléctricas. Del 2000 al 2009 participó como coordinador de Subestaciones en la Unidad de Transmisión Norte Medio de ETECEN y posteriormente en RED DE ENERGÍA DEL PERÚ en donde finalizó sus labores como miembro del equipo de Mantenimiento Especializado de los equipos de patio. Actualmente labora en el COMITÉ DE OPERACIÓN ECONÓMICA DEL SISTEMA INTERCONECTADO NACIONAL (COES – SINAC) como especialista en la revisión de Estudios para la conexión de nuevas instalaciones al sistema interconectado. Ha participado como expositor en eventos y jornadas técnicas organizadas por las universidades UNI y la Universidad Nacional del Callao. Asimismo, en el 2015 participó como miembro del Jurado de las Jornadas Técnicas organizada por la empresa ISA – COLOMBIA en la especialidad de equipos de patio.

Derechos reservados COPIMERA 2015

40


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! !

Derechos reservados COPIMERA 2015

!

41


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ +

+

+ IMPLEMENTACIÓN+DE+UNA+RED+NEURONAL+EN+UN+DISPOSITIVO++EMBEBIDO+PARA+EL+ SEGUIMIENTO+DEL+MAXIMO+PUNTO+DE+POTENCIA+EN+UN+SISTEMA+SOLAR+FOTOVOLTAICO+ Ms.C Carlos Arturo Vides Herrera1, Ing. Jesus Eduardo Ortiz1 1

Universidad de Pamplona carlosarturvi@hotmail.com, carlosarturovides@gmail.com!

+ Resumen+ +

reaccionar frente a su entorno. En otras palabras, actuar de manera “inteligente” [1-3].

El presente trabajo describe de forma práctica la metodología utilizada para realizar la implementación de una red neuronal en un dispositivo Microcontrolador de la serie TIVA de forma embebida para el control del máximo punto de potencia de un sistema de seguimiento solar. Para realizar el proyecto se utilizó un controlador FUZZY que fue previamente diseñado en un proyecto de maestría de la universidad de pamplona, este controlador era una especie de caja gris ya que se desconocía el modelo matemático de la planta y el comportamiento del controlador; para lo cual se realizaron diversas pruebas como la implementación del controlador FUZZY en un dispositivo DSP 30F4013 de la empresa Microchip, lo que Permitió que se observara el funcionamiento del sistema de seguimiento solar. Para la prueba de funcionamiento del controlador difuso fue necesario la implementación de un prototipo para el seguimiento solar tipo girasol.

Las redes neuronales son una rama fundamental de la inteligencia artificial estas son inspiradas en el funcionamiento del cerebro humano y la principal característica de todas las RNA independientemente de su estructura y propiedades, es su capacidad de aprender. Las redes neuronales pueden ajustarse a condiciones cambiantes que son muchas veces imposibles de predecir, tales como los cambios ambientales. En la actualidad la gran mayoría de redes neuronales artificiales se utilizan por medio de un computador; por lo cual es necesario hacer una implementación a nivel de hardware de estos sistemas [4]. Siguiendo los contextos anteriores se decide utilizar una red neuronal como método de control debido propiedades mencionadas en los párrafos anteriores, uno de los objetivos del proyecto es realizar la clonación de un controlador FUZZY utilizando el método de control indirecto debido a que este método de control utiliza esquemas flexibles, por lo tanto son los más apropiados para abordar la mayoría de problemas de control [5]. La finalidad del proyecto es obtener un modelo neuronal artificial implementado en hardware que pueda realizar el control de un seguidor solar teniendo en cuenta las intensidades de radiación solar para el posicionamiento del sistema, la implementación en hardware se hará en forma embebida, esto evitara el uso de computadoras y permitirá que el sistema sea portable y eficiente ,además de hacerlo económico ya que ese es uno de los factores que se desea optimizar [6].

Palabras claves: Redes Neuronales, Sistema fotovoltaico, Sistema Embebido, MPPT, TIVA C.

Introducción+ + La inteligencia artificial es el responsable del desarrollo de máquinas con comportamiento igual o superior al de los seres humanos[1]. Cada nuevo desarrollo tecnológico implica la aparición de problemas de mayor complejidad o que gracias a la rápida evolución de la tecnología es posible afrontar la solución de problemas que antes no se tenían en consideración [2]. En aplicaciones donde prima un entorno cambiante o con altos niveles de incertidumbre, como lo es en el caso de un sistema de seguimiento solar debido a que la Radiación solar recibida por lo celdas solares depende de varios factores como lo es el entorno en el que se encuentre, el estado del tiempo, posición de las celdas, entre otros. Por tal motivo es útil que exista alguna capacidad de las máquinas para tomar decisiones, aprender y Derechos reservados COPIMERA 2015

Metodología+ Para obtener e implementar un modelo neuronal de forma embebida y que este cambie la forma habitual en la que se implementan este tipo de controlador lleva una serie de etapas. Para poder describir las diferentes etapas del proceso vamos a analizar los diferentes pasos que se deben emplear para llevar a cabo el proyecto. La metodología consta de cuatro etapas que son:

42


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

estas entradas pueden tomar valores de [-5 ,5] y una salida llamada proceso esta toma valores de [20, 168] como se observa en la figura 1.

A.# Adquisición de la data del controlador FUZZY Para obtener la data del sistema se utiliza la herramienta de SIMULINK para este paso se toma el bloque FUZZY; este bloque posee 3 entradas llamadas norte ,sur y proceso donde

Figura 1. Controlador FUZZY del sistema de seguimiento solar.

Figura 2. Diagrama para la adquirir la data los valores aleatorios producidos por los bloques Random, además de incluir 4 bloques de SIMULINK llamados ToWorkspace estos bloque permiten guardar la información de las entradas y salidas del sistema. El esquema utilizado para la obtención de la data se puede apreciar en la figura 2.

Para obtener la data de este controlador FUZZY se agregan dos bloques random para variar las entradas norte y sur, también es necesario añadir un delay. Este delay hace que la salida se retroalimente con la entrada llamada proceso; en este paso es necesario tener en cuenta los limites en el cual se debe trabajar Para obtener una data precisa se ejecuta la simulación en tiempo de 20000, esto proporcionará una data con 20001 valores diferentes, después de obtener estos datos se guardan para

Derechos reservados COPIMERA 2015

después llamarlos.En la Figura 3 variables de la data en MATLAB.

43

se puede observar

las


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Figura. 3.Variables obtenidas en el worspace de MATLAB

B.# !Obtención del modelo neuronal Para poder obtener el modelo neuronal se utiliza la TOOLBOX ANN de MATLAB esta TOOLBOX recibe los valores de la data obtenida en la etapa 1, se define el tipo de red neuronal que se desea y las características de esta. Una vez realizada la clonación se procede a rectificar el funcionamiento de la red

para ello se introduce valores de entrada al bloque del controlador neuronal obtenido y estos mismos valores son introducidos al bloque del controlador FUZZY y se compara las salidas de los dos controladores hasta que sea igual o relativamente cercanos.

Figura. 4. Simulación del controlador FUZZY y el controlador neuronal. El diagrama de la figura 5 es capaz de proporcionar el comportamiento de los dos controladores de forma gráfica; este comportamiento se observa en las figura 6, 7, 8,9. La señal de color amarillo representa la señal del controlador FUZZY por lo tanto la señal restante es la del controlador neuronal. Fueron muchas las simulaciones realizadas para conseguir el modelo neuronal deseado. A continuación se muestra algunas señales obtenidas con el entrenamiento.

Para simular el sistema y verificar el perfecto funcionamiento de la red se hace una simulación de la red neuronal en paralelo con el controlador FUZZY. El diagrama utilizado para las pruebas se muestra en la figura 4. Para probar la red de forma práctica y sin tener que estar ingresando los valores de forma manual se utilizó el diagramaen bloques de la Fig. 5. para comparar el funcionamiento de los dos controladores. Derechos reservados COPIMERA 2015

44


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Figura. 5. Diagramas para las pruebas del controlador neuronal utilizando bloques random.

Figura. 6. Salidas de la simulación con 2 neuronas.

Figura. 7. Salidas de la simulación con 10 neuronas.

Derechos reservados COPIMERA 2015

45


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Figura 8. Salidas de la simulación con 20 neuronas.

Figura 9. Salidas de la simulación con 56 neuronas. C.# Implementación del modelo neuronal en la tarjeta TIVA C. Una vez que se obtuvola red neuronal optima se procedió a implementarlo para ello se hace un estudio de las características del tipo de programación que utiliza la tarjeta TIVA C , para la implementación se tiene en cuenta el modelo matemático que caracteriza la naturaleza de la red neuronal. El número de entradas para este sistema clonado son 3; pero en realidad el número de celdas del sistemas son 5 por tanto se necesitan 5 entrada. En el diseño original se agrupa las celdas solares como se muestra en la Figura 10.

la parte marcada con el número 2 en color verde. La ventaja de agrupar las celdas es que facilita el proceso de implementación ya que si se obtiene el controlador para la parte 1 los pesos y los umbrales servirán para la parte dos con la diferencia que las entradas ingresadas van a ser diferentes. Estas entradas son adquiridas por el conversor análogo digital de la tarjeta, como el conversor tiene una resolución de 12 bit se realiza un arreglo de estos valores, se multiplica por 5 y se divide entre 4095 para obtener valores de [0 5]. Para esta aplicación se necesitan valores de 5 y -5. Para obtener estosvalores se toma la entrada de la celda que se encuentra ubicada en el medio y a esta se resta con otra entrada tal cual como se observa en lasecuaciones(1) y (2). !"#$% = '5 − '1; (1) ,,,,,-.# = '5 − '4; (2) ,0#"1%-" = -23452,5%3,-4-$%62; Estas entradas son multiplicadas por los pesos correspondientes así como se muestra en la ecuación (3). 7 = !"#$% ∗ 91 + -.# ∗ 92 + 0#"1%-" ∗ 93 (3) Después al valor f se le suma elBiasy el resultado se ingresa a la función tansig como se observa en las ecuaciones (4) y (5). = = > + ?,,,,

Figura 10. Agrupación de las celdas solares Esto significa que se deben implementar dos controladores uno para la parte marcada con el número 1 de color azul y otra para Derechos reservados COPIMERA 2015

@ = $2!-4A =

46

B C DB EC B C FB EC

(4) (5)


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Estas operaciones se utilizan en la capa oculta y se repite el procedimiento.Esto depende del número de neuronas que se estén utilizando. La función de activación que se utiliza en la capa de salida es la función purelin esto en palabras coloquiales significa “lo que entra es lo mismo que sale “. G$ = ,H1 ∗ G1 + H2 ∗ G2 + H3 ∗ G3 … . + HK ∗ GL (6) La función St de la ecuación 6es la que nos proporciona el número de los grados para controlar los servomotores. Para esto se utiliza las salidas PWM de la tarjeta para realizar el control de los servomotores.

solares de baja potencia y 2 salidas de PWM para el control de los servomotores es por esto que el estudio de las características de la tarjeta mencionado en la etapa 3 es de gran importancia. Una vez que se valore este tipo de consideraciones se procede a diseñar el circuito impreso para el acople de la tarjeta TIVA C con la estructura del seguimiento solar.

Resultados+ Ahora veamos los resultados obtenidos en este trabajo de investigación y desarrollo. Uno de los objetivos principales de este trabajo es la comparación del comportamiento del controlador FUZZY con el control Neuronal clonado, estos resultados se pueden observar en la Tabla 1.

D.# Acople de la tarjeta TIVA C al sistema Para la esta etapa se tiene en cuenta que se necesitan leer 5 valores analógicos de entrada que provienen de los paneles Tabla 1 Porcentaje de error con simulación en tiempo de 4000 Numero de neuronas Salida del FUZZY

Salida red neuronal

Error

15

130

108

16.32 %

20

130

105

19.23 %

40

137

102

25.54%

56

132

95

28%

Fuente: Elaboración Propia. Se muestra los porcentajes de error más elevados que se pudieron encontrar estos corresponden al pico más alto que se pudo observar en las gráficas producidas; esto no significa que todos los valores tuvieran ese rango de error solo se escogió el valor de error más alto para para compararlos con las demás señales. En lafigura 11 se puede apreciar algunas señales de salida de las redes neuronales obtenidas con respecto a la señal

del controlador FUZZY con muestras en tiempo de 4000. En estas graficas se puede apreciar el margen de error más alto encontrado en las señales. Como no se obtenía una clonación adecuada se procedió a aumentar el número de muestras en tiempo, estas se aumentaron a 20000 en esta parte se realizó el mismo procedimiento.

Figura 11. Graficas de las señales con 10, 20, 40 y 56 neuronas.

Derechos reservados COPIMERA 2015

47


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Tabla 2 Porcentaje de error en las señales de los modelos con 52, 55, 56, 61 neuronas Numero de neuronas

Salida del FUZZY

Salida red neuronal

Error

52

133

116

12%

55

133

118

11.27%

56

133

123

7.51%

61

127

108

14,96%

Fuente: Elaboración propia. En la tabla anterior se mejoró los márgenes de error el mejor resultado se produjo en la red de 56 neuronas este margen de error es aceptable.

En lafigura 12 se puede observar el resultado obtenido que corresponde con la Tabla 2.

Figura.13.Graficas de las señales 52, 55, 56,61 muestras en tiempo 20000.

Costo,computacional ≈ ,3.4%, A pasar que la red contiene 56 neuronas el costo computacional sigue siendo bajo lo que confirma que este es el dispositivo ideal para realizar redes neuronales embebidas

El tamaño o espacio utilizado de la memoria de programa fue de unos 35.648 bytes de un total disponible de 10.48.576 por lo tanto el costo computacional es: 35632 ∗ 100 x= ,,,,,,,(7) 1048576

Derechos reservados COPIMERA 2015

48


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Tabla 3 Porcentaje de error entre la red neuronal de 56 simulada y la implementada. norte

Sur

proceso

Salida red simulada

Salida dela red implementada

% error

-1 2 -1 -2.8

-1 -1 -3 -2

10 10 60 30

89.44 103.9 115.6 157.7

89.08 103.56 115.22 151.33

0.4% 0.327% 0.328% 0.403%

Fuente: Elaboración Propia. Los porcentajes de error encontrados en la tabla 3 muestra que la implementación de la red neuronal no

supera el 0.4% de error lo que demuestra que esta red es muy precisa.

Figura.14. Modelo en Simulink para la comparación de los controladores Fuzzy y Neuronal.

Figura 15. Prototipo del seguidor con la red clonada.

Derechos reservados COPIMERA 2015

Figura 16. Sistema de seguimiento solar con el controlador Neuronal clonado.

49


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Conclusiones+ +

[2].Olabe X. “Redes neuronales y sus aplicaciones” Escuela Superior de Ingeniería de Bilbao año, año 2008. [3]. Sánchez A. “Máquinas de Aprendizaje Extremo Multicapa: Estudio y Evaluación de Resultados en la Segmentación Automática de Carótidas en Imágenes Ecográficas” universidad politécnica de Cartagena. [4].Ortiz. J, Gualdrón. O, Durán .C, “Implementación de un modelo neuronal en un dispositivo hardware (FPGA) para la clasificación de compuestos químicos en un sistema multisensorial (nariz electrónica)”, Universidad de Pamplona, Año 2011. [5]. Ruge. J, Alvarado. J “Sistema basado en FPGA para la evaluación de redes neuronales orientadas al reconocimiento de imágenes”, Universidad de Cundinamarca, AÑO 2011. [6]. J.M. Sánchez-Dehesa, I. García, “implementación de una red neuronal autoorganizativa para el análisis hiperespectral sobre procesadores DSP” Universidad de Extremadura. [7].Mejía. A” Diseño e implementación de un seguidor solar para la optimización de un sistema fotovoltaico” universidad tecnológica de Pereira, año 2010. [8].Ramón Galán, Agustín Jiménez “Control inteligente” Universidad Politécnica de Madrid, Madrid, AÑO 2006. http://www.redalyc.org/pdf/925/92541004.pdf. [9].Anegon f, herrero v, guerrero v,” la aplicación de redes neuronales artificiales a la recuperación de información “universidad de granada, año 2007. [10].Nicolas C, “clasificación automática de vinos utilizando redes neuronales”, universidad tecnológica de Perú, AÑO 2011. [11]. Rojas C” Energía fotovoltaica: compresión” Universidad Nacional de Colombia. Facultad de Ciencias, mayo de 2010. [12].Balenzategui j “fundamentos de la conversión fotovoltaica: la célula solar”, Módulo: Gestión Eficiente de la Energía, 2008. [13]. Ruiz C. Luis J., Beristáin J. José A., Sosa T. Ian M “Estudio del Algoritmo de Seguimiento de Punto de Máxima Potencia Perturbar y Observar” revista de ingeniería eléctrica, electrónica y computación, vol. 8 no. 1, diciembre 2010. [14]. Muñoz G “Tutorial de lógica fuzzy” universidad nacional de San Marcos, lima- Perú., Año 2012. [15]. Pérez D, “Sistemas Embebidos y Sistemas Operativos Embebidos” Universidad Central de Venezuela, año 2009. [16]. Página oficial de la empresa Texas instruments, la página se puede encontrar en la siguiente dirección http://www.ti.com/ revisada el 2/10/2014.

Con todas las pruebas realizadas se pudo observar que a mayor número de muestras en tiempo mejora la calidad de la información obtenida, el inconveniente de aumentar el número de muestras es: que produce un mayor consumo de recursos en el momento que se realiza la clonación, lo que hace que el entrenamiento sea demorado. El software de Energía permitió realizar implementaciones de manera rápida y eficiente, este entorno es muy amigable, a pesar que es un software nuevo este cumplió con los requisitos exigidos por el proyecto, el costo computacional fue de un 3.3%, lo que es insignificante comparado con otras implementaciones. El uso de la tarjeta TIVA C reemplazo el uso del computador y de los dispositivos USB- TTL esto fue de gran ayuda, permitió reducir la circuitería que poseía el seguidor solar; además de disminuir el precio de la implementación, los resultados fueron positivos el dispositivo final obtenido es un dispositivo pequeño fácil de transportar, este realiza un control adecuado en tiempo real, debido a su alta capacidad de procesamiento. En la tarjeta TIVA C se pueden implementar aproximadamente 600 neuronas este fue un resultado bueno para la investigación; ya que si se comparara este resultado con una tarjeta similar como lo es el Arduino2560, la TIVA C lo superaría por un amplio rango, en cuanto a capacidad y economía; esto significa que se podrían implementar en la tarjeta TIVA C aplicaciones que necesiten alta capacidad de procesamiento. Lo importante del proyecto fue que se pudo obtener una red neuronal implementada de forma embebida, para la clonación de un controlador FUZZY al cual solo se conocía algunos conceptos básicos del funcionamiento del mismo como el valor máximo de las entradas y el tipo de salida de este.

Referencias+ [1]. Caicedo B,López J, Muñoz Inteligente”Universidad del Valle, año 2009.

Derechos reservados COPIMERA 2015

M.

“Control

50


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

51


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

CÁLCULO!DE!ÍNDICES!DE!IMPORTANCIA!PARA!LOS!COMPONENTES!DE!UN! SISTEMA!ELÉCTRICO!DE!POTENCIA!DESDE!EL!PUNTO!DE!VISTA!DE!LA! CONFIABILIDAD! Chigne Tataje, David Alejandro | PMP ® Universidad Simón Bolívar, Caracas, Venezuela.

reparables) para dar origen a la disponibilidad, entendida como la probabilidad de que el sistema se encuentre en el estado operativo (éxito) para un tiempo futuro. Dependiendo de la especialidad o área en la cual se esté realizando un estudio, uno de estos conceptos puede generar mayor interés que el otro. Para un ingeniero aeroespacial, la confiabilidad será su preocupación fundamental, en tanto que para un ingeniero de planificación de sistemas eléctricos, la disponibilidad será el factor determinante.

Resumen! !El objetivo del presente trabajo especial de grado es analizar y determinar qué componentes influyen de forma significativa en la confiabilidad de un sistema eléctrico de potencia (S.E.P). Este análisis, basado en diversos indicadores de importancia, proporciona al administrador del SEP una herramienta de decisión útil, ya que suministra información de cuál o cuáles componentes deben ser reforzados o mejorados. Cada componente del SEP (de transmisión o de generación) es considerado como un modelo de dos estados (operación o falla) y está caracterizado por su capacidad y por su probabilidad de operación (o falla). Se plantea que la confiabilidad del SEP puede evaluarse a través de dos métodos (cortes mínimos y simulación estocástica de Monte Carlo) considerando dos criterios de operación (continuidad y flujo máximo). De esta manera es posible la evaluación de cada componente y su posterior jerarquización, desde el más importante al menos importante. !

En el presente trabajo de investigación, se hace uso el concepto de confiabilidad, en el contexto del desempeño de un sistema de potencia, pues se intenta buscar la probabilidad de que dicho sistema alimente la demanda que se le exija, para un período de tiempo finito “t”, dejando de lado el concepto de disponibilidad, pues los tiempos de reparación dependerán de la mantenibilidad (la cual se encuentra asociada a los recursos disponibles, para solventar una avería).

Palabras! Claves:! Elementos! reparables,!Cortes! Mínimos,! Medidas! de! importancia,!Simulación! Monte! Carlo,!Indicadores!de!confiabilidad!y!riesgo.!

En el trabajo de investigación aquí expuesto, se consideran dos métodos de cálculo, como son los conjuntos de corte (CC) y la simulación de monte Carlo (SMC), conjugados con dos criterios de éxito (relacionados con la satisfacción de la demanda), como son el criterio de continuidad eléctrica (CE) y capacidad de carga de los elementos (CCE). Es decir, un sistema puede ser estudiado mediante el criterio de continuidad eléctrica (sin considerar la capacidad de los elementos involucrados y tomando en cuenta la existencia de al menos un camino entre la generación y la carga), o si se prefiere el estudio mediante el criterio de capacidad de carga de los elementos: la solución en ambos casos se! puede obtener mediante conjuntos de corte o simulación de monte Carlo.

INTRODUCCIÓN! La fiabilidad o confiabilidad de un componente, equipo o sistema, es la probabilidad de que éste cumpla la función para la cual fue diseñado, durante un período de tiempo “t” especificado y bajo unas condiciones del entorno dadas. Esta definición absolutamente matemática de confiabilidad, aplica tanto a sistemas no reparables (por ejemplo, componentes electrónicos), como para sistemas intrínsecamente reparables (por ejemplo, líneas de transmisión) (Billinton, 1996). En el caso de elementos reparables, una definición existente es la de mantenibilidad, entendida como la probabilidad de que dicho elemento una vez fallado, sea efectivamente reparado, en un período de tiempo dado. Se dice que un sistema es “altamente mantenible” cuando el esfuerzo asociado a su restitución es bajo, caso contrario al de un sistema de “baja mantenibilidad”, donde se requieren grandes esfuerzos para su restitución. Los conceptos establecidos de confiabilidad y mantenibilidad pueden conjugarse (en el caso de sistemas

Derechos reservados COPIMERA 2015

Si la función de un sistema de potencia se entiende como la de satisfacer la demanda en MW, es absolutamente plausible preguntarse cuál es la probabilidad de que tal misión se cumpla para un tiempo previamente definido (tiempo de la misión). En este contexto, es que se desarrolla este trabajo de investigación.

Todos estos criterios y métodos son aplicados para la obtención de indicadores de importancia, conceptos que miden el efecto que un componente tiene, por ejemplo, en la confiabilidad del sistema y permite conocer qué elementos son más importantes para poder cumplir con esa confiabilidad. Para la cuantificación de dichos indicadores, es necesario determinar la confiabilidad del sistema de potencia dada una misión que dure un tiempo “t”. Esta evaluación requiere definir qué combinación de elementos en operación y/o falla, 52


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

Definición!de!la!investigación!

producen eventos de éxito o fracaso del sistema. Para ello se recurre a técnicas simplificadas de uso común en teoría de redes (grafos), en lugar de recurrir a algoritmos tipo flujo de carga. De esta forma, el criterio de continuidad (determinación de caminos desde la generación a los puntos de carga, considerando la topología de la red) y el criterio de flujo máximo (que considera la generación, la capacidad de los elementos, la carga y la topología de la red) se instrumentan a través de algoritmos referenciados en la literatura de teoría de grafos (Minieka, 1992).

B.! Planteamiento del problema En la literatura pertinente (Billinton, 1970) se deduce que para un período de tiempo definido “t”, la confiabilidad (Reliability, “R”) obedece a la expresión: (1.1) En tanto que la mantenibilidad (M) se expresa como:

Es necesario evaluar y conocer cada uno de los elementos que componen el sistema, para de esta manera determinar la importancia o el grado de participación de cada uno de ellos en el desempeño del sistema, medido por ejemplo, a través de la confiabilidad. Se presentarán métodos de estudio de un sistema eléctrico, específicamente en el área de la transmisión de energía (Electricity Transmission Systems ETS) que permitan, a partir de indicadores de importancia, jerarquizar cada uno de los elementos que componen un sistema eléctrico.

(1.2) Las populares funciones exponenciales representadas en 1.1 y 1.2, suponen una tasa de falla y una tasa de reparación constantes, siempre y cuando el desempeño se encuentre en el período de vida útil. Cuando cualquier elemento agota su vida útil, entra en el período de desgaste, donde la tasa de falla deja de ser constante, en cuyo caso los tiempos aleatorios para fallar, dejan de tener una distribución de probabilidades exponencial, para regirse por una distribución de Weibull, Gamma o Gausianna (Johnson, 1997).

A.! Estructuración del presente trabajo En “II. Definición de la investigación” se establecerán las características de este trabajo, para que de esta manera el lector se encuentre centrado y tenga conocimiento de los alcances y limitaciones del presente trabajo de investigación, justificando la problemática asociada y definiendo el método de estudio.

Si la tasa de falla es creciente, la confiabilidad disminuye aceleradamente y el “tiempo esperado para fallar (mean time to failure, MTTF) se reduce considerablemente. Para evitar que dentro de un sistema hayan componentes en la “zona de fatiga” se substituyen tales componentes por elementos nuevos, mediante acciones conocidas como mantenimiento preventivo.

Considerando las limitaciones de espacio en el presente documento, no es posible desarrollar un “Marco teórico general” donde se indiquen los antecedentes y conceptos principales a ser utilizados, por lo tanto se da por sentado que el lector tiene conocimiento sobre fundamentos teóricos asociados a: •! Eventos y espacios muestrales, axiomas de Probabilidad, Distribución de tiempos de falla, Tasas de falla y Función de riesgo. •! Técnicas de modelación y evaluación de confiabilidad bajo los métodos clásicos (teoría de redes y sus aproximaciones, como es el caso del método de cortes mínimos) y métodos de simulación estocástica (método de monte Carlo). •! Criterios de evaluación (continuidad, capacidad, flujo de carga) y medidas de importancia asociadas a confiabilidad (Birnbaum, CIR, RRW, RAW) y riesgo (RRW’, RAW’).

Suponiendo que el sistema permanezca dentro del período de vida útil mediante el adecuado mantenimiento preventivo, se establece en la literatura (Billinton, 1996) que para un tiempo dado “t”, además de la conocida confiabilidad, definida en la ecuación 1.1, también se definen otros términos: (1.3)

Disponibilidad

(1.4)

Indisponibilidad

(1.5)

En la ecuación 1.5 la disponibilidad “A” se toma como independiente del tiempo, porque la componente variable es despreciable, dado que se extingue muy rápidamente. Despreciar la dependencia del tiempo en la expresión de confiabilidad, representada en la ecuación 1.1, sería un exabrupto, considerando que la confiabilidad se comporta como una función no creciente tendiente a cero, al transcurrir el tiempo (Billinton, 1992).

Acto seguido, se dará paso al “III. Desarrollo y análisis” del trabajo de investigación, presentado el estudio (aun cuando se estudiaron todos los modelos aquí mencionados) del sistema de potencia representado en la figura 1.1. Finalmente, en “IV. Conclusiones y recomendaciones” se presentarán al lector las conclusiones y recomendaciones de los estudios realizados en el presente trabajo de investigación así como la clara intención de motivar al lector de realizar futuros desarrollos en el tema con base en los conceptos aquí presentados. Derechos reservados COPIMERA 2015

Inconfiabilidad

Es importante aclarar que en sistemas no reparables no es posible hablar de disponibilidad en el contexto matemático (aunque sí de confiabilidad), en tanto que en sistemas reparables es posible hablar de confiabilidad, así como también de disponibilidad.! ! 53


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

Como se ha mencionado anteriormente, la intención del presente trabajo es, a partir de un sistema eléctrico de potencia definido y con base en el valor de confiabilidad individual de los elementos que lo componen, determinar qué componentes influyen de forma importante en la confiabilidad del sistema. Esta evaluación permite conocer qué componentes deben ser reforzados o mejorados, para obtener una jerarquización de los elementos que componen el sistema eléctrico de potencia (en este trabajo no se consideran ni aspectos técnicos ni económicos para realizar las posibles mejoras a los componentes). El caso que se analiza en el presente trabajo, al estar la importancia evaluada en términos de la confiabilidad, se considera en forma indirecta, el efecto de la tasa de falla de los componentes. Para ello, se ilustra la determinación de los índices de importancia del sistema eléctrico de potencia mostrado en la Figura 1.1. Este sistema es analizado en forma manual y mostrando una secuencia de cálculo “paso a paso”, con la intención que sea de total comprensión para el lector. Se jerarquizarán sus elementos con base en cada uno de los indicadores calculados, y posteriormente se analizan e interpretan los resultados obtenidos.

Figura 1.1. Sistema eléctrico de potencia de siete barras (Anders, 1990).

A continuación se ilustra la determinación de los índices de importancia de un sistema eléctrico de potencia de pocos elementos, representado en la figura 1.2. En esta ocasión se realizará utilizando el método de cortes mínimos bajo el criterio de continuidad y la técnica de análisis basada en el método de simulación de Monte Carlo, bajo el mismo criterio. Para realizar los cálculos computaciones de Monte Carlo se utilizará la herramienta SIMRED / SIM FLUJO, desarrollada en Fortran (Rocco, 2009). Considerando que el interés del presente trabajo de investigación se basa en el estudio del sistema como un “todo”, se recurre a la teoría de redes (grafos). Esta metodología de cálculo requiere la verificación de existencia de caminos (continuidad) o determinación del máximo flujo (capacidad).

Figura 1.2. Sistema eléctrico de potencia de 6 barras y 5 nodos.

Adicionalmente en el mismo sistema representado en la figura 1.2 se realizará estudio del sistema suponiendo capacidades de generación, transmisión y demanda para cada uno de los elementos del sistema utilizando el método de cortes mínimos y el criterio de flujo máximo (capacidad). De esta forma se compararán los resultados con base en diferentes criterios.

Derechos reservados COPIMERA 2015

Finalmente se realizará el cálculo de los índices de importancia para dos sistemas de potencia, usando el método de simulación de Monte Carlo, bajo el criterio de capacidad, utilizando teoría de grafos para su modelación. El primero, extensamente utilizado en la literatura, conocido como el IEEE Reliability Test Systems RTS One Area– 1996, (figura 1.3), está compuesto por 24 barras, 38 líneas de transmisión, 32 unidades de generación y 17 barras con carga.

54


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

C.! Justificación del problema En los últimos años, grandes y pequeñas corporaciones han volcado su atención hacia la optimización de sus costos de operación y/o mantenimiento minimizando fallas que acarrean principalmente pérdidas financieras. Todos ellos han apuntado principalmente a técnicas que permitan optimizar la operación del sistema, sin poner en riesgo la confiabilidad y/o disponibilidad, factores que impactan directamente en la rentabilidad de los procesos productivos y en el negocio medular (Yañez M. & Gomez de la Vega, 1999). Es por esta razón que cada día se dedican enormes esfuerzos destinados a visualizar, identificar, analizar, implantar y realizar actividades para la solución de problemas y toma de decisiones efectivas y acertadas. Por otra parte, en las empresas eléctricas, la prestación del servicio de energía ha demandado cada vez una mejor y eficiente calidad en el servicio. En algunos países (USA; UK; ARGENTINA; COLOMBIA, entre otros) los órganos reguladores imponen multas a las empresas suplidoras del servicio eléctrico por “energía no servida”. Por lo tanto es importante que el sistema mantenga una confiabilidad y disponibilidad aceptable.

! Figura 1.3. Sistema de potencia de 24 Barras (IEEE RTS – One Area 1996) El segundo sistema corresponde a una versión del sistema eléctrico de potencia Italiano de alta tensión (figura 1.4), caracterizado por 312 nodos y 575 elementos de transmisión (enlaces).

La continua operación de los sistemas del sector eléctrico, ya sea en el ámbito de la generación, transmisión o distribución de energía, requieren técnicas que permitan a los ingenieros minimizar los costos por multas, compensaciones y recursos de mantenimiento, determinando y jerarquizando aquellos elementos “clave” del sistema, para de esta manera mejorar su confiabilidad individual o buscando soluciones que eleven la confiabilidad del conjunto. Por estas razones se hace necesario poder contar con indicadores de sensibilidad que nos permitan organizar sistemáticamente la importancia de cada uno de los elementos de un sistema eléctrico, bajo un criterio definido por el operador. D.! Método de estudio propuesto Para el desarrollo de los sistemas eléctricos definidos, se parte de las premisas que la determinación de la confiabilidad del sistema será en algunos casos mediante la utilización del método de cortes mínimos y en otros a partir de la aproximación obtenida de la simulación probabilística de los componentes bajo el enfoque de Simulación de Monte Carlo. En ambos casos se incluirán procedimientos de verificación de existencia de caminos (continuidad) o determinación del máximo flujo (capacidad). Se considerará aceptable la modelación del sistema de potencia a partir del estudio del máximo flujo en la red, esto es, sin el uso de un flujo de carga. ! En el presente trabajo de investigación, se seguirán las siguientes hipótesis:

Figura 1.4. Sistema eléctrico de potencia Italiano (Rocco, 2010) De esta manera se podrán realizar comparaciones entre los diferentes métodos, técnicas y criterios de jerarquización utilizados en el presente trabajo.

Derechos reservados COPIMERA 2015

55


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

•! •! •!

Un equipo que es parte del sistema eléctrico de potencia puede encontrarse únicamente en dos estados: funciona o está fallado. El estado del sistema sólo depende del estado de sus componentes. El sistema es coherente.

Metodología! de! solución:! desarrollo! y! análisis!

Elemento

3.1 Sistema eléctrico de potencia (Anders, 1990) Con base en el sistema eléctrico de potencia (Anders, 1990) definido por siete barras, diez líneas de transmisión, dos barras de generación y dos barras de carga, se conocen las siguientes tasas de falla para las líneas de transmisión representadas en la tabla 3.1 Elemento

Tasa de Falla

Elemento

Conocidas las confiabilidades, según la ecuación 2.71 se determinan las probabilidades de falla para cada elemento, las cuales se muestran en la tabla 3.3. Se usará el método de cortes mínimos y la definición de “falla” sugerida por Anders en su ejemplo. Se define como “falla” aquellos eventos en los que el sistema de transmisión no permite la alimentación TOTAL de las cargas, sin violar las capacidades de las líneas (Anders, 1990). Falla

Elemento

Falla

0.02

0.01

0.03

0.02

0.03

0.01

0.01

0.05

0.03

0.05 !

Tabla 3.3. Probabilidades de falla determinadas para un tiempo “t=1000”

Tasa de Falla

En las figura 3.1 se presentan algunos de los posibles casos para determinar los caminos entre la fuente y la carga, necesarios para la determinación de los cortes. Los recorridos son demarcados en línea oscura. Como ya se ha mencionado anteriormente, se supone que el flujo es divisible y se requiere satisfacer por completo la demanda del sistema. !

Tabla 3.1. Tasas de falla para las líneas de transmisión del sistema eléctrico de potencia representado en Figura 1.1 A partir de las tasas de falla y suponiendo que los elementos se encuentran dentro del período de vida útil (esto es, tasa de falla constante), se determinan las confiabilidades, por ejemplo, para una misión de 1000 horas. Para el componente 1 se obtiene, con base en la ecuación 2.261. (Camino a)

(2.26) De esta manera se realiza el mismo procedimiento para todos los elementos, obteniéndose los siguientes resultados representados en la tabla 3.2. Elemento

Confiabilidad

Elemento

A continuación se describe la obtención de un camino con base en la figura 3.1 (Camino a). El camino parcial formado por L2 y L5 puede transportar un flujo máximo de 10 MW, desde la generación hasta la carga L=15 MW. El camino parcial L3 y L9 permite el transporte de hasta 20 MW, hasta la carga L=10 MW. El flujo restante (20-10) =10 MW, puede circular, a través de L10, hasta la carga L=15MW, completando el requerimiento de carga total. Por tanto el camino a está formado por: L2, L5, L3, L9 y L10. Note que todos estos elementos deben funcionar simultáneamente.

Confiabilidad

0.98

0.99

0.97

0.98

0.97

0.99

0.99

0.95

0.97

0.95

! Tabla 3.2. Confiabilidades determinadas para un tiempo “t=1000”

Luego de definidos todos los caminos posibles, se obtienen los siguientes cortes mínimos (Anders, 1990), representado en la figurar 3.2: •! Cortes de primer orden: L2, L3 •! Cortes de segundo orden: (L4, L9), (L5, L7) , (L5, L9) , (L9, L10)

1 Aun cuando la numeración de la ecuación no se encuentre mencionada en el presente documento por limitaciones de espacio, ésta se mantiene con base al trabajo original, a efectos que en caso el lector desee ampliar la información, pueda documentarse haciendo referencia al mismo.

Derechos reservados COPIMERA 2015

(Camino b)

Figura 3.1. SEP de siete barras. Ejemplo de “caminos” ! utilizando método de cortes mínimos según el criterio por capacidad. (En paréntesis, capacidad de cada línea en MW)

56


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

•! •!

Cortes de tercer orden: (L6, L8, L9) , (L4, L5, L6) , (L4, L8, L10) , (L5, L6, L8) , (L5, L6, L10) Cortes de cuarto orden: (L4, L6, L7, L10)

Elemento

IST

Rank

CIR

Rank

L1

0,0000

10

0,0000

10

L2

0,9670

2

0,2251

2

L3

0,9866

1

0,6889

1

L4

0,0313

5

0,0146

6

L5

0,0391

4

0,0273

5

L6

0,0049

8

0,0011

9

L7

0,0288

7

0,0067

7

L8

0,0016

9

0,0018

8

L9

0,0935

3

0,0653

3

L10

0,0300

6

0,0349

4

!

Tabla 3.3. Jerarquización de indicadores de importancia para los elementos del SEP representado en Figura 1.1, calculados bajo el método de cortes mínimos, criterio de capacidad

Figura 3.2. Descomposición a través de cortes mínimos del SEP de siete barras representado en la Figura 3.1, a partir del método de cortes mínimos (criterio de capacidad). Aplicando reducciones y simplificaciones “paralelo-serie” al sistema equivalente obtenido, se puede determinar la probabilidad de falla a partir de las probabilidades de falla equivalentes para cada corte, a efectos de llegar finalmente a la confiabilidad del sistema completo. (3.33)

RAW

Rank

RRW

Rank

L1

1,0000

10

1,0000

10

L2

0,9897

2

0,0000

2

L3

0,9700

1

0,0000

1

L4

0,9993

6

0,9679

5

L5

0,9988

5

0,9603

4

L6

0,9999

9

0,9950

8

L7

0,9997

7

0,9703

7

L8

0,9999

8

0,9985

9

L9

0,9970

3

0,9053

3

L10

0,9984

4

0,9703

6

! Tabla 3.4. Jerarquización de indicadores de importancia para los elementos del SEP representado en Figura 1.1, calculados bajo el método de cortes mínimos, criterio de capacidad (continuación)

(3.34) El cálculo a través de esta vía puede ser bastante complicado. Aunado a ello, se debe mantener presente en todo momento la dependencia que puede existir entre los cortes, que considerando se está “simplificando”, se puede perder la referencia de cada elemento que compone el corte inicial. 3.2. Medidas de importancia Se proceden a calcular los siguientes índices: •! Índice de Birnbaum (BI) •! Índice de importancia Crítica (CIR) •! Reliability Achievement Worth (RAW) •! Reliability Reduction Worth (RRW) •! Risk Achievement Worth (RAW) •! Risk Reduction Worth (RRW)

Elemento

RAW'

Rank

RRW'

Rank

L1

1,0000

10

1,0000

10

L2

23,2758

1

1,3019

2

L3

23,2758

2

3,2062

1

L4

1,7147

5

1,0149

6

L5

1,8836

4

1,0284

5

L6

1,1125

8

1,0012

9

L7

1,6620

7

1,0076

7

L8

1,0338

9

1,0023

8

L9

3,1085

3

1,0731

3

L10

1,6626

6

1,0367

4

!

Tabla 3.5. Jerarquización de indicadores de importancia para los elementos del SEP representado en Figura 1.1, calculados bajo el método de cortes mínimos, criterio de capacidad (continuación)

Luego de obtenidos todos los valores, se procede a realizar la jerarquización para cada uno de los indicadores de importancia calculados, bajo la premisa que la importancia es mayor si el valor numérico es más grande.

Derechos reservados COPIMERA 2015

Elemento

Con base en los resultados obtenidos, se procede a graficar cada uno de los indicadores en gráfico de barras

57


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

donde el eje negativo de las ordenadas es utilizado para el RRW (o RRW`) y el eje positivo para el RAW (o RAW`).

Gráfico 3.1. Índice de importancia IST asociados al SEP representado en Figura 3.1 Como se puede apreciar en el Gráfico 3.1, los elementos más importantes se encuentran asociados a las líneas L2 y L3. Por otra parte, L1 representa el elemento menos importante del sistema debido a que su índice IST es igual a cero. Es probable que el lector concuerde que observando el sistema eléctrico de potencia representado en la Figura 1.1, este resultado era predecible. Sin embargo, si se estudia un sistema eléctrico de potencia (como los representados en las Figuras 1.3 o Figura 1.4) esta conclusión no será tan sencilla de obtener.

Gráfico 3.3. Comparación entre los índices de importancia (RAW y RRW) asociados al SEP en Figura 3.1 Nótese que los las líneas L2 y L3 poseen un RRW de cero, lo que implica que al momento de fallar, el sistema entero falla (la RSISTEMA se hace igual a cero). La interpretación de RRW debe ser inversamente proporcional a su valor, es decir, a menor su valor, mayor será el impacto en la confiabilidad del sistema.

Gráfico 3.4. Comparación entre los índices de importancia (RAW’ y RRW’) asociados al SEP representado en Figura 3.1

Gráfico 3.2. Comparación entre los índices de importancia (Birnbaum e Importancia Crítica) asociados al SEP representado en Figura 1.1

Como es de esperarse, las líneas L2 y L3 poseen considerablemente el mayor nivel de riesgo para el sistema eléctrico de potencia.

Nótese que aunque los indicadores IST de las líneas 2 y 3 son cercanamente idénticos, el indicador CIR si representa una diferencia considerable. Nótese que la línea L3 posee una confiabilidad menor (probabilidad de falla mayor), por lo tanto, aunque el IST no considera la confiabilidad del elemento, el CIR si lo hace.

No obstante, la línea de transmisión L3 corresponde a uno de los elementos de mayor importancia y a su vez, las mejoras que se le puedan hacer permiten un mayor rango de reducción de riesgo para el sistema.

Por otra parte, los indicadores RAW y RRW asociados a la confiabilidad, representan el impacto en el incremento y/o la pérdida de la confiabilidad para el elemento en estudio. En el caso de RAW’ y RRW’ representan incremento y/o perdida, pero asociados al riesgo. Por lo tanto, la interpretación apropiada de los mismos es a través de gráficos “enfrentados”, Derechos reservados COPIMERA 2015

Finalmente, la tabla 3.6 resume las jerarquías obtenidas con las diferentes medidas de importancia

58


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! ! Rank

Rank

Rank

Rank

Rank

Rank

Elemento

POper|RLiOK

POper|RLi Falla

ISTi

Rank

IST

CIR

RAW

RRW

RRW’

RAW'

1

0,9997

0,9997

0,0000

--

L1

10

10

10

10

10

10

2

1,0000

0,9704

0,0295

1

L2

2

2

2

2

1

2

L3

1

1

1

1

2

1

3

1,0000

0,9901

0,0099

2

L4

5

6

6

5

5

6

4

0,9996

0,9996

0,0000

8

0,9998

0,9998

0,0001

6

Elemento

L5

4

5

5

4

4

5

5

L6

8

9

9

8

8

9

6

0,9997

0,9993

0,0004

4

L7

7

7

7

7

7

7

7

0,9997

0,9996

0,0000

7

L8

9

8

8

9

9

8

8

0,9998

0,9996

0,0002

5

L9

3

3

3

3

3

3

9

0,9996

0,9987

0,0009

3

L10

6

4

4

6

6

4

10

0,9998

0,9998

0,0000

--

!

Tabla 3.6. Resumen de jerarquías obtenidas para cada una de las diferentes medidas de importancia

! Tabla 3.17. Indicador de importancia IST para los elementos de la figura 3.1, obtenidos a partir del método de simulación, criterio de continuidad

Nótese que la línea L1 es el elemento menos importante del sistema, situación que era de esperarse al observar el diagrama unifilar del SEP. Por otra parte, salvo el caso que se presenta en el indicador RRW’, las medidas de importancia ubican a L3 como la línea más importante, seguido por la línea L2. Para el resto de los elementos el orden de importancia varía dependiendo de la medida usada.

II.! CONCLUSIONES Y RECOMENDACIONES El conocimiento de un sistema parte de admitir y conocer su variabilidad, sus causas o deficiencias y las mismas son imposibles de conocer sin medición. Conocer indicadores que permitan detectar los elementos “importantes” de un sistema, es precisamente la clave para gerenciar un proceso, un sistema y para conquistar los objetivos de eficiencia que se plantea la empresa (Hernandez, 2000). Los indicadores de importancia nos permiten: •! Planificar con mayor certeza. •! Discernir con mayor precisión las oportunidades de mejora de un proceso dado.

Esta variación de la importancia es una característica típica de los indicadores de desempeño: diferentes indicadores pueden producir diferentes clasificaciones, por ello es importante determinar el interés que se tiene sobre cada indicador. Al respecto es conveniente mencionar dos estrategias que han sido utilizadas a la hora de tomar decisiones. La primera consiste en calcular todos los indicadores de importancia y analizar las posiciones obtenidas. En el ejemplo mostrado, la línea L3 aparece en la primera posición en cinco de los seis indicadores, lo que le confiere la calificación de elemento más importante. La segunda estrategia consiste en utilizar la información de todos los indicadores, recordando que éstos miden diferentes aspectos. Esta estrategia requiere la definición de esquemas de “combinación” de información, también conocidos en la literatura como esquemas de “fusión de la información” (Rivero, 2008). En el presente trabajo no se consideran estos esquemas de decisión.

En el presente trabajo de investigación se han estudiado diferentes sistemas eléctricos de potencia con la intención de calcular sus indicadores de importancia. Se ha visto que en un SEP, algunos elementos tienen más importancia que otros en la determinación de la probabilidad de operación o falla (Clemente, 1982).

El ejemplo presentado fue resuelto usando la capacidad como criterio de operación. Aunque no se presentan los detalles, se quiere resaltar que el uso de otro criterio de operación pudiera producir resultados distintos. Por ejemplo, si el criterio de operación es el de continuidad (“existencia de al menos un camino desde la generación hasta la carga”), la probabilidad de falla del sistema (calculada usando el método de simulación) se reduce a 0.0003 (por lo tanto R=0,9997). El índice IST se muestra en la tabla 3.7

El estudio de medidas de importancia (IM), tales como el índice de importancia estructural o índice Birnbaum (IST o IB) y el índice de importancia relativa (ICR o CIR) permiten jerarquizar la importancia de los elementos individuales en un SEP. En algunos casos se observó que aunque el IST tenía un valor muy cercano o idéntico a otro elemento, el CIR fue un indicador que permitió jerarquizar con mayor precisión al elemento, debido a que éste indicador considera la confiabilidad del elemento.

Si bien los elementos más importantes siguen siendo 2, 3 y 9, el resto ha cambiado posiciones.

Otros indicadores como el Reliability Achievement Worth (RAW) o Reliability Reduction Worth (RRW) permiten evaluar la importancia de un elemento a la confiabilidad del sistema cuando el mismo está en perfecta operación (R = 1) o completamente fallado (R = 0), para de esta manera poder

Derechos reservados COPIMERA 2015

Como se puede entender, es indudable el interés que tiene el conocimiento de la importancia relativa de las componentes individuales de un sistema, sobre todo, con vistas a la incorporación de elementos al sistema a un SEP, desde el punto de vista de su confiabilidad.

59


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

evaluar el impacto individual del elemento en estudio sobre el SEP. •!

Por otra parte, indicadores tales como el Risk Achievement Worth (RAW) o Risk Reduction Worth (RRW) permiten evaluar la importancia de un elemento al riesgo, es decir, la “no confiabilidad” del sistema, bajo las mismas condiciones mencionadas anteriormente. Aunque los acrónimos entre los indicadores asociados al riesgo y a la confiabilidad son iguales, su interpretación y utilización es diferente.

•!

El presente trabajo de investigación permite concluir: •!

•! •!

•! •!

•!

•!

•!

•!

La importancia de un elemento del sistema tiene dos aspectos, uno estructural y otro probabilístico. El primero hace referencia a la situación estratégica del elemento dentro de la estructura del SEP del que forma parte, y el segundo se refiere a su probabilidad de funcionamiento (Clemente, 1982). El indicador de importancia de Birnbaum (IB o IST) no requiere conocer la función de distribución de probabilidad del elemento para su cálculo. Considerando que para el presente trabajo de investigación se considera que la tasa de falla “ i(t)” es constante, para todo tiempo “t” mayor que cero, se obtendrá siempre el mismo ranking de elementos. El índice de importancia crítica CIR o ICR toma en cuenta la confiabilidad del elemento. El RAW y RRW son indicadores basados en el efecto sobre la confiabilidad del sistema, mientras que los indicadores RAW’ y RRW’ se basan en el efecto en la no confiabilidad o riesgo del sistema. La interpretación de los mismos se realiza a través de gráficos “enfrentados” donde el eje negativo de las ordenadas es utilizado para el RRW (o RRW`) y el eje positivo para el RAW (o RAW`). De esta manera se puede apreciar en un mismo gráfico el impacto de un elemento (a la confiabilidad o al riesgo). Los indicadores de riesgo (risk) son considerados una guía para jerarquizar recursos en la gerencia de programas de riesgo. Aquel elemento que tenga el RAW’ más elevado, se cataloga como el elemento que está entre los más importantes para la seguridad y el nivel de riesgo actual del sistema. La determinación del RRW’ ayuda a ubicar y jerarquizar las actividades destinadas a reducir el riesgo. Se calcularon los indicadores de importancia a partir de diferentes métodos de cálculo bajo un mismo criterio (método de cortes mínimos y simulación de monte Carlo). Se apreció que independientemente del método de cálculo que se utilice, los indicadores obtenidos son muy similares. Para SEP compuestos por un número grande de elementos (mallados), el desarrollo manual puede ser engorroso, sobre todo para la determinación de los posibles caminos. Si bien no se estudiaron los aspectos de complejidad algorítmica asociadas al método de cortes o al de Monte Carlo, la literatura refiere que el uso del método de cortes

Derechos reservados COPIMERA 2015

mínimos presenta mayor complejidad que el método de Monte Carlo. Por lo que este último es el método recomendado para analizar sistemas de potencia. Dependiendo del indicador que se utilice, el orden de importancia varía. Esta variación es una característica típica de los indicadores de desempeño: diferentes indicadores pueden producir diferentes clasificaciones, por ello, la selección de un único indicador de importancia, dependerá del ente decisor. Es importante tener en cuenta que el criterio de funcionamiento que se utiliza puede influir en la recomendación de la importancia de los elementos del SEP.

Recomendaciones! •!

•!

•!

60

Los indicadores de importancia permiten jerarquizar los elementos del sistema eléctrico, lo cual es una excelente herramienta al momento de la toma de decisiones asociadas a inversión, mantenimiento, entre otros. Sin embargo, siempre será necesario considerar el factor económico para la toma de decisión final: factores que afectan el costo final de la inversión, tales como la topología del terreno, tipo de torres y conductor, condiciones climáticas, entre otros; y factores de beneficio (por ejemplo, menor demanda insatisfecha). En el presente trabajo no se analizaron estos factores y se dejan para ser considerados en futuras extensiones. No existe consenso general, por autores o expertos en el área, que definan cuál es el “mejor” indicador, ni tampoco cuál de ellos es el que mejor se adapta a los sistemas eléctricos de potencia, específicamente a la transmisión de energía. Típicamente los indicadores asociados al riesgo (Risk) son reservados para sistemas donde se encuentren involucrados procesos, tales como las plantas de generación. Los indicadores RAW’ y RRW’ son utilizados ampliamente por las compañías aseguradoras, ya que los mismos indican de forma exacta cuál o cuáles elementos deben ser reforzados en un sistema (Vesely, 1983). Es conveniente mencionar dos estrategias que han sido utilizadas a la hora de tomar decisiones. La primera consiste en calcular todos los indicadores de importancia, analizar las posiciones obtenidas y determinar el componente importante considerando el número de veces que éste aparece en la primera posición. La segunda estrategia consiste en utilizar la información de todos los indicadores, recordando que éstos miden diferentes aspectos. Esta estrategia requiere la definición de esquemas de “combinación” de información, también conocidos en la literatura como esquemas de “fusión de la información” (Rivero, 2008). Estos esquemas permiten “ponderar” las importancias de los elementos según diferentes criterios, incluyendo las preferencias que pudiera tener el decisor. En el presente trabajo no se consideraron estos esquemas y se dejan para ser considerados en futuras extensiones.


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

•!

[1].! Allan, R. Billinton R, N.M.K. Abdel-Gavad, (1986). “The Ieee Reliability Test System - Extensions to and Evaluation of the Generating System", IEEE Trans. on Power Systems, Vol. Wl, pp 1-7. [2].! Amendola, L. (2001). “Indicadores De Confiabilidad, Propulsores En La Gestión Del Mantenimiento”. Revista Klaron.net (Extraído el 18 de marzo de 2010 desde www.mantenimientoplanificado.com/Articulos%20gestión %20mantenimiento.../indicadores%20confiabilidad%20am endola.pdf) [3].! Anders, G. (1990). Probabilistic Concepts in Electric Power Systems. Wiley-Interscience. [4].! Billinton, R. (1970). Power System Reliability Evaluation, New York: Gordon and Breach. [5].! Billinton, R. y Allan, R. (1996). Reliability Evaluation of Power Systems. Second Edition. Plenum Press, New York. [6].! Billinton, R. y Allan, R. (1992). Reliability Evaluation of Engineering Systems. Second Edition. Plenum Press, New York. [7].! Canavos, G. (1988). Probabilidad Y Estadística, Aplicaciones Y Métodos. Mc-Graw Hill Americana. [8].! Clemente, G. (1982). Nueva definición de importancia de fiabilidad de una componente. Qûestró Vol. 6, Nº1. [9].! Espíritu, J. y otros. (2006). “Component Criticality Importance Measures for the Power Industry”, Rutgers University, Department of Industrial & Systems Engineering. (Extraído el 20 de Enero de 2010 desde www.rci.rutgers.edu/~coit/EPSR_2007.pdf). [10].! Grainger, J., Stevenson. "Análisis de Sistemas de Potencia", McGRAW-HILL, 2da Edición, 1996. [11].! Hernández, E. (2000). “Comparación De Métodos De Análisis De Confiabilidad Aplicados A Sistemas Eléctricos Industriales”, Instituto de investigaciones eléctricas (Extraído el 15 de Enero de 2010 desde www.reliabilityweb.com/excerpts/excerpts.../sistemas_ele ctricos.pdf) [12].! Hillier, F. y Lieberman, G. (2006). Introducción a la Investigación de Operaciones. 8va edición. McGraw Hill. [13].! Hines, W. y Montgomery, D. (1986). Probabilidad y Estadística para Ingeniería y Administración. Ed. Continental. [14].! Johnson, R. (1998). Probabilidad y Estadística Para Ingenieros de Miller y Freund. 5ta Edición, Prentice Hall. [15].! Minieka, E. y Evans, J. (1992). Optimization Algorithms for Networks and Graphs. 2nd Edition, Marcel Dekker Inc. [16].! Moubray, J. (1997). Reliability Centred Maintenance. 2nd Edition, Oxford Boston. [17].! Rivero, L. (Abril, 2008). “Jerarquización de los Elementos de un Sistema mediante la Fusión de Medidas De Importancia”, Trabajo de Grado, Universidad Central de Venezuela, Postgrado de Investigación de Operaciones. [18].! Robledo, O. (2000). “Optimización Del Costo De Mantenimiento De Sistemas De Distribución Eléctrica: Una Aplicación A La Función De Distribución De Weibull”. Revista Universidad EAFIT (120), 9-24. (Extraído el 21 de Marzo de 2009 desde http://redalyc.uaemex.mx/redalyc/pdf/215/21512002.pdf)

Los índices presentados permiten evaluar la importancia individual de los elementos. En el ejemplo de estudio del sistema eléctrico italiano y, por ser un sistema muy mallado, resultó que algunos de los indicadores de importancia tenían valores similares, sin embargo puede ser útil evaluar indicadores de importancia por grupos de elementos. Esta información puede ser útil en el caso de desear jerarquizar los elementos, por ejemplo, en pares o tríos. Por ejemplo, si para el sistema italiano se desea evaluar los efectos en grupos de dos se deben evaluar 157.080 combinaciones, según la ecuación 4.1. (4.1)

En la literatura se han desarrollado recientemente (Whitson y Ramírez-Márquez, 2009) modelos de búsqueda aproximados. Se recomienda estudiar la conveniencia y beneficios de tales modelos. •!

•!

El presente trabajo de investigación basó su desarrollo en la confiabilidad del sistema y la confiabilidad de los elementos. Es posible la evaluación de la importancia de los elementos en función de otras consideraciones (funciones de desempeño), como por ejemplo, de la disponibilidad del sistema y la disponibilidad de cada elemento. En este caso, la disponibilidad del sistema considera la importancia del componente “i” no sólo en función de la tasa de falla de cada elemento sino que involucra también la tasa de reparación de los mismos. Se deja para trabajos futuros evaluar el efecto de la disponibilidad de los componentes, el efecto individual de la tasa de reparación y/o el efecto simultáneo de tasa de falla y tasa de reparación. Para el caso del método de simulación de monte Carlo, se consideró el “éxito” de cada simulación el funcionamiento de todo el sistema, es decir, la necesidad de alimentar todas las cargas. Se deja para trabajos futuros el estudio del efecto de los componentes considerando otras funciones de desempeño válidas, por ejemplo, satisfacer la demanda en uno o más nodos, satisfacer cargas esenciales o cargas de demanda mayor a X MW. En este caso se hace necesario estudiar con más detalle los métodos de combinación de importancia.

Agradecimiento!! ! Este trabajo no hubiera sido posible sin el valioso aporte desinteresado de los profesores (M. Sc. Ph. D). Claudio Rocco (Universidad Central de Venezuela) y (M. Sc. Ph. D) Juan Bermúdez (Universidad Simón Bolívar) a los cuales elevo mi más sincero y grato reconocimiento en su labor académica y docente.

Referencias! Derechos reservados COPIMERA 2015

61


! ! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! ! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras! !

Sobre!el!autor! !

[19].! Rocco, C. (2009). “8082352 – Confiabilidad En Sistemas De Potencia”, Apuntes de clase, Universidad Central de Venezuela, Escuela de Ingeniería Eléctrica, Postgrado. [20].! Vesely, W. y otros. (1983). Measures of Risk Importance and their Applications, U.S. Nuclear Regulatory Commission. [21].! Whitson, J. Ramírez-Márquez, J. (2009) “Resiliency as a component importance measure in network reliability” Reliability Engineering and System Safety 94, pp. 1685–1693.

David Chigne es Titulado Ingeniero Electricista egresado en el año 2006 de la Universidad Simón Bolívar (Caracas, Venezuela). Desde el año 2005 se desempeñó como Ingeniero de diseño en el área de subestaciones eléctricas para Alta y Extra Alta Tensión en una importante empresa transnacional, motivando su interés en desarrollar estudios en el área de Sistemas de Potencia y transmisión. Obtuvo su Especialización en Sistemas de Potencia Eléctrica en el año 2010 en esta misma casa de estudios, recibiendo el mayor mérito académico en el trabajo de grado por su innovación en la utilización de métodos probabilísticos utilizados comúnmente en elementos no reparables. En el último trimestre del año 2014 inicia estudios en el instituto para la calidad de la Pontificia Universidad Católica del Perú (PUCP) siendo parte de la plana estudiantil del diplomado avanzado en gestión de proyectos y calidad bajo los estándares del PMI. David plantea posteriormente obtener su certificación como PMP en el año 2015. Actualmente se desempeña como Director General de la empresa INGEMA PERU SAC, sucursal de la empresa colombiana INGEMA SA, empresa orientada a ofrecer soluciones (EPC) integrales en sistemas de energía para la industria minera, petrolera y eléctrica.

Derechos reservados COPIMERA 2015

62


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

63


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

+

TECNOLOGÍA+DE+IMPRESIÓN+3D+PARA+EL+DISEÑO+Y+PROTOTIPO+DE+ PRODUCTOS+ Ing. Eduin Figueroa. CIMEQH 1865, San Pedro Sula, Honduras

Resumen+

La impresión 3D basa su fabricación agregando capas sobre capa de material fundido como plástico, acero o hierro en polvo, resinas liquidas o gelatinosas, fibras como carbono o de vidrio, etc., por lo que da la ventaja a los diseñadores y desarrolladores de productos o cualquier área de interés para crear objetos con diferentes propiedades físicas y mecánicas.

La Tecnología de “impresión 3D” está siendo utilizada a nivel mundial, para la creación de modelos reales como: artefactos, prototipos de productos, piezas mecánicas etc. a partir de modelos 3D hechos en computadoras, esto es una gran ventaja para los diseñadores de productos, ya que pueden contar en un tiempo prudencial con el modelo físico de su creación digital.

Nomenclatura+

En este artículo se darán a conocer a grandes rasgos datos de la investigación, Diseño y construcción de la primera Impreso 3D diseñada con ingeniería Hondureña, basada en tecnologías OPEN SOURCE de Software y Hardware, con el objetivo de fabricar, comercializar y aplicar dicha impresora a nivel educativo, comercial e industrial, en toda la Región de Centro América, como una opción más económica de la que ofrecen mercados Americanos y Europeos y que esta esta tecnología pueda estar al alcance de la pequeña y mediana empresa e instituciones educativas, demostrar cómo se desarrolla un diseño 3D y los pasos y las herramientas OPEN SOURCE, disponibles para usar esta tecnología, así como las posibilidades de mejorar nuestro conocimiento, habilidad y creatividad, aplicándolos a la Ingeniería.

3D, CNC, Estereolitografía, 2D, CAD, CAM, Open Source. Plásticos PLA, ABS, NYLON, PTFE, extrusion, processing, makers.

Tecnicas+de+impresión+3d+ Entre las técnicas más comunes utilizada actualmente, se encuentran la Estereolitografía, Impresión por inyección y por disposición de material fundente (Polvo). La Estereolitografía conocida como SLA, basa su técnica de fabricación utilizando resinas especiales “gelatinosas” que son sensibles a la luz ultravioleta o laser, un proyector que genera este tipo luz se utiliza para generar las imágenes 2D que son proyectadas sobre la resina, solidificando capa tras capa hasta obtener el objeto 3D deseado, la fig. 1 muestra de forma básica esta técnica.

Introducción+ Las técnicas de impresión 3D disponibles en estos días son diversas, todas se basan en la creación de un objeto tridimensional real a partir de adición de algún tipo material, es decir que se crea un objeto a partir de la nada, al contrario de las técnicas de fabricación tradicional por sustracción de material, en la que dicho objeto es creado a partir de un bloque al que se le va quitando material hasta formar el objeto, este tipo de técnicas requieren de equipo especializado como maquinas CNC (Computer Numeric Control) por sus siglas en inglés.

Derechos reservados COPIMERA 2015

64


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

3D, todo el material que no se imprime en el proceso se puede reutilizar. Una gran ventaja de esta técnica es que puede imprimir piezas a colores, ya que el material aglutinante se aplica idénticamente que una impresora de inyección como se mencionó anteriormente y con una mejor resolución, en la fig. 3 puede observar el concepto del funcionamiento. Con esta técnica también se construyen impresoras 3D para fabricar piezas de hierro, Acero u otro tipo de materiales duros, en los que la materia prima se encuentra en forma de polvo y en lugar de material aglutinante se utiliza una unidad laser que Funde por principio de calor concentrado el material en polvo, puede observar la figura 3.

Fig. 1. Principio de funcionamiento de una impresora por técnica de Estereolitografía.+

La impresión por inyección, es una de las técnicas más utilizadas por el bajo costo de la materia prima, la cual pueden ser plásticos de varios tipos como: ABS, PLA, NYLON, PTFE quienes pueden ser materiales vírgenes o reciclados, además cerámica en pasta, incluso concreto o cemento, es decir cualquier material que queda ser fundido y segregado por un elemento “Inyector”. En el caso de la inyección de plástico, la impresora utiliza un elemento llamado extrusor, el cual calienta el filamento de plástico que es inyectado sobre una plataforma donde se “Dibujan” las capas que formaran el objeto, estas capas pueden ser tan finas como 0.1mm, a que se le llama resolución de la impresión, entre más fina es la resolución, más nivel de detalle puede tener la pieza 3D. En la fig. 2, puede observar el concepto del funcionamiento.

+ + + + Fig. 3. Principio de funcionamiento de una impresora por técnica por dispersión de material fundente (polvo).+

CONTRUCCION+ BASICA+ DE+ UNA+ IMPRESORA+ 3D+ CON+TECNICA+DE+INYECCION+DE+PLASTICO.+ Como se mencionó en párrafos anteriores esta técnica es la más económica de replicar, por dos razones: una es que existe una comunidad mundial en la que se ha liberado la investigación y desarrollo de estos increíbles artefactos y dos es porque esta comunidad ha desarrollado impresoras de muy bajo costo, así que cualquiera que tenga el ímpetu, los conocimientos básicos de electrónica, programación y destreza de armar partes mecánicas, puede adquirir las partes y construirse una, basándose en modelos existentes de la comunidad o si cuenta con un conocimiento más avanzado en diseño mecánico, lenguajes de programación “processing”, puede diseñar y construir una versión propia, mejorada de acuerdo a sus propias necesidades.

Fig. 2. Principio de funcionamiento de una impresora por técnica de Inyección.+

La impresión por disposición de material (Polvo), es una de las técnicas más costosas, ya que los equipos de impresión son fabricados por compañías que tienen patentados las sustancias aglutinantes y la materia prima en polvo, así como los diseños de sus impresoras y la tecnología con la que estas funcionan. Esta técnica utiliza un material aglutinante que se imprime sobre el material en polvo formando la imagen de la capa a fundir, el cual endurece cada capa de dicho material, esto es parecido a lo que las impresoras de inyección de tinta, que utilizamos en nuestros hogares u oficinas hacen sobre el papel. La impresora se encarga de agregar una nueva capa de material de polvo en el que luego se imprime la nueva imagen con aglutinante, haciéndolo repetidas veces hasta generar el objeto Derechos reservados COPIMERA 2015

La comunidad REPRAP Para comenzar un proyecto de este tipo existe la comunidad REPRAP, (véase www.reprap.org ). “El proyecto RepRap es una iniciativa creada con el propósito de crear una máquina de prototipado rápido, libre que sea capaz de replicarse a sí misma. Una máquina de este tipo puede fabricar objetos físicos a partir de modelos generados por ordenador: de la misma manera que la impresora de un 65


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

ordenador permite imprimir imágenes en dos dimensiones en papel, RepRap imprime objetos en 3D a base de plástico, permitiendo la fabricación de objetos. Incluso RepRap puede generar las partes necesarias para construir otra máquina igual a ella. El proyecto reprap fue iniciado en febrero del 2004 por Andrian Bowyer en Inglaterra, pero actualmente hay personas colaborando en otras partes del mundo” ( http://reprap.org/wiki/RepRap/es , segundo párrafo).

Las más utilizadas son placas electrónicas basadas en tecnología Arduino de las cuales hay muchas variantes y se adquieren en forma de kits, los cuales incluyen, la placa controladora principal, servo controles, motores, pantallas, calefactores, extrusores, cables, sensores, etc. entre estos se encuentran: a)! Arduino Mega, Shield RAMPS b)! Kits RAMBO c)! Kits ULTIMAKER

La información que esta Página proporciona para los ingenieros, hobistas, entusiastas y amantes del concepto “MAKERS” es de mucha ayuda, ya que con muy poco conocimiento pueden llevar a cabo un proyecto de este tipo. En la fig. 4 se puede observar el porcentaje de impresoras 3D que se están utilizando en todo el mundo, en el cual se ve que las impresoras basadas en el proyecto REPRAP tiene una buena porción y esta continúa creciendo cada día más.

Fig. 5. Ejemplo de kits de electrónica para construcción de impresora 3d de bajo costo.

3-+ Armado del sistema mecánico, ensamblaje de la sección electrónica, programación y calibración de la impresora 3D. Gracias a la comunidad OPEN SOURCE y la comunidad REPRAP es relativamente fácil seguir los pasos para llegar hasta el final de la construcción de una impresora 3D, ya que estas cuentan con software libre, programas gratuitos así como video tutoriales que pueden obtenerse de las páginas de sus creadores, quienes le guían pasa a paso, sin embargo se requiere de mucha paciencia y destreza manual para ello.

Fig. 4. Primera encuesta sobre fabricantes de impresoras 3D de la comunidad mundial.

Pasos para construir una impresora de Bajo costo 1-! Decidir el modelo mecánico a seguir Básicamente existen dos: Tipo Cartesiano de 3 ejes Y tipo Delta ver fig. 5.

Proyecto 3diMaker (primera impresora diseñada en Honduras). Como se mencionó, la construcción de una impreso 3D es totalmente factible, sin embargo cuando queremos cubrir ciertas necesidades en cuando el tipo de aplicaciones, resolución, tamaño, velocidad de impresión, tipo de material con se quieren fabricar piezas o modelos 3D, las impresoras de bajo costo pueden no ajustarse a esas necesidades, por lo que se debe acudir a comprar o adquirir impresoras profesionales como son los casos de impresoras fabricadas en USA y EUROPA, los cuales tienen precios que no están al alcance de todos, precios que pueden oscilar de entre los US$3,200.00 hasta US$6,000.00.

+

Fig. 4. Tipos de sistemas mecánicos para movimientos de la impresa 3D.

El proyecto 3diMaker nacido de estas necesidades específicas para cubrir la demanda que pudiese existir en un futuro próximo en nuestra región de Centro América. El Diseño Mecánico:

2-+ La Selección Electrónica.

Derechos reservados COPIMERA 2015

66


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

El Diseño mecánico de esta impresora es del tipo cartesiano, ya que es uno de los modelos que más parte se pueden encontrar pre-fabricados y que sus costos son relativamente bajos cuando se adquieren en grandes cantidades, en la siguiente figura puede observarse el concepto 3D de la misma, la cual fue desarrollado en una herramienta de Software llamada SPACECLAIM ENGINEER, el cual es de más bajo costo que cualquiera de los software de diseño existentes en el mercado, esta herramienta también cuenta con una versión gratis (Mechanical Design Spark) en la que se pueden generar diseños 3D completos.

Las aplicaciones en las que podemos utilizar las impresoras 3D son casi infinitas, actualmente se están utilizando en: -! -! -! -! -! -! -! -!

+

Arquitectura (Fabricación de Maquetas). Diseño mecánico (engranajes, ensambles, simuladores de motores, partes automotrices). Diseño de producto (prototipos). Biomédica (Creación de órganos artificiales). Alimentos (Dulces con formas especiales, chocolates, pastelería). Arte (arte abstracta, objetos que no se pueden construir con ninguna máquina de fabricación por sustracción). Moda (ropa, calzado, prendas). Construcción (fabricación de viviendas de bajo costo).

En la figura siguiente podemos ver algunos de los objetos creados en impresión 3D.

+ + + +

+ Fig. 6. Modelo 3D de la Primera generación de la impresora 3DiMaker.

+

La electrónica:

+

El Sección electrónica de esta impresora es un diseño propio de la marca, el cual es totalmente compatible con tecnología Arduino, con algunas variantes es su Firmware, el mismo está basado en una versión llamada MARLIN con algunas modificaciones importantes para personalizarla y adaptarle funciones especiales que son un poco difíciles de obtener en las versiones de bajo costo, entre ellas están posicionamiento automático de la mesa o base de construcción, control de enfriamiento del extrusor, nivelación (calibración) fácil de la mesa de trabajo, detección de atascamiento de plástico en el extrusor, mejoramiento en la velocidad de impresión hasta 150mm/s de movimiento lineal, compatibilidad con diferentes materiales como PLA, ABS, NYLON y Filamento tipo goma , gabinete para el control ambiental de la temperatura de impresión en plástico fundido, etc.

Fig. 7. Ejemplos de objetos 3D impresos en las distintas disciplinas que utilizan esta tecnología.

Proceso para crear un objeto con impresora 3D. Para poder crear un objeto por impresión 3d, básicamente se requiere de tres pasos: 1-+ Obtener el modelo 3D (CAD) Este se puede crear en software especializado, en donde se diseña el modelo 3D y se guarda en archivos con formatos estándares como: DXF, IGES, MCX, SOLDWORK, OBJ, STEP, etc. todos estos formatos los pueden contener los programas que existen en el mercado. Otra forma es obteniendo el modelo 3D de páginas de internet, una de las comunidades de diseños libres, en donde puede obtener, compartir o modificar modelos 3D es la comunidad thingiverse, en la que puede encontrar modelos 3D listos para llevar a la impresora 3D (véase www.thingiverse.com ).

El software de control: La impresora 3Dimaker está controlada por un software libre el cual es utilizado por muchas impresoras de bajo costo, pero será manejada por una versión personalizada para esta, ya que el objetivo es crear una forma fácil y sencilla para el usuario final.

Que podemos hacer con estas impresoras 3D? Derechos reservados COPIMERA 2015

2-+ Modificar el modelo 3D al formato estándar STL. 67


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras+

programa secuencial, quien controla los movimientos en los ejes X, Y (2D) el Z que es que da la altura de cada capa del modelo (3D) seccionado, esto lo hace sucesivamente agregando capa a capa hasta generar el objeto 3D.

Las siglas stl, significan STereoLithography, es un formato estándar, el cual interpreta las superficies del modelo 3D en base a triángulos y este es el formato más utilizado por los programas de control CNC de las impresoras 3D, dicho formato lo pueden convertir casi todos las herramientas o paquetes de software existentes.

Agradecimientos+ •! •! •!

Fig. 8. Ejemplo de objeto 3D convertido a formato STL

A Dios primeramente por permitir la oportunidad de mostrar un poco de los conocimientos adquiridos en este proyecto que ha tomado un poco más de 1 año. Al comité organizador de COPIMERA 2015, por brindarme la oportunidad de ser parte de los conferencistas y haber tomado en cuenta este trabajo. Al Colegio de Ingenieros Mecánicos, Electricistas y Químicos de Honduras y ramas afines CIMEHQ, por la invitación a tan Magno evento.

+ 3-+ Generar el código g que es interpretado por la impresora 3D.

Referencia+ [1] Conceptos de cómo funcionan las impresoras 3D http://www.makeuseof.com/tag/what-is-3d-printing-andhow-exactly-does-it-work/.

Luego que el modelo se ha convertido a formato STL, este debe ser interpretado por un software llamado “SLICER” que secciona “corta” el objeto en varias capas transversales a las que se les llama capas del objeto, también se les llama “SLICE”, este software calcula todas las rutas, que están conformadas por paredes del objeto y relleno interior de cada capa, dicho software se encarga de convertir cada una de estas en cogido G.

[2] Impresión 3D, disponible en: https://es.wikipedia.org/wiki/Impresi%C3%B3n_3D

La impresora interpreta todos los movimientos del código de G, el cual se van ejecutando como un

Derechos reservados COPIMERA 2015

68


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

69


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ +

+

PROPUESTA+DE+MODELO+MATEMÁTICO+PARA+LA+EVALUACIÓN+DEL+CUMPLIMIENTO+DE+ LA+REGULACIÓN+PRIMARIA+DE+FRECUENCIA+EN+EL+MERCADO+ELÉCTRICO+PERUANO+ Enrique+Moldauer+Luque+ Email:'emoldauer_pe@hotmail.com' Lima,+Perú'

' RESUMEN+ En julio de 2014 entró en vigencia, por Resolución OSINERGMIN, el Procedimiento Técnico COES PR-21, el cual obliga a la mayoría de las unidades de generación eléctrica integrantes del COES a realizar el servicio de Regulación Primaria de Frecuencia (RPF) sin recibir por ello compensación alguna. Por el contrario, aquellas que incumplan este servicio son penalizadas económicamente. Varias empresas generadoras de energía han cuestionado el modo en que el actual procedimiento evalúa el cumplimiento del servicio, el cual consiste de una inspección visual por parte del COES del comportamiento frecuencia/potencia de cada unidad de generación y, de encontrarse incoherencias, se somete a una prueba estadística, la cual es inadecuada porque no considera el comportamiento electromecánico del transitorio. El presente trabajo evidencia el descalce que existe entre el modo de evaluación del cumplimiento del RPF bajo el esquema actual con el comportamiento lógico esperado de los reguladores de velocidad, lo cual podría devenir en futuras disputas legales si no se resuelve a la brevedad. En tal sentido, la alternativa propuesta es la de verificar que el valor del parámetro de estatismo “R” de cada unidad de generación se encuentre dentro de un rango aceptable. Para ello, se plantea un modelo matemático iterativo capaz de “aprender” del comportamiento en el tiempo de la frecuencia y potencia y “revelar” el valor de “R”. Este indicador servirá para evaluar el cumplimiento del servicio de forma cuantitativa y no cualitativa como se viene haciendo a la fecha, asegurando un control objetivo y justo.

# $ % & ' ( )*+, -*+, )+,/ )0,/ -/ 1 2 3/ 4/

Número de registros para la evaluación. Constante de inercia del generador síncrono (s). Dos veces la constante de inercia $ (s). Estatismo del regulador (pu). Constante de tiempo sistema gobernador – turbina (s). Ganancia derivativa (s). Potencia de referencia o setpoint del regulador (pu). Banda muerta de referencia modelo ideal (pu). Potencia eléctrica en instante ! (pu). Potencia mecánica en instante ! (pu). Consumo de banda muerta en instante ! (pu). Reserva asignada para RPF (pu). Tiempo de respuesta transitoria aceptable (s). Frecuencia del sistema en instante ! (pu). Frecuencia angular en instante ! que en pu es igual a f t. 4*+, Frecuencia síncrona que en pu es igual a 1. ∆4/ Frecuencia angular menos frecuencia síncrona (pu). 67 Desviación estándar medidas de frecuencia (pu). 68 Desviación estándar medidas de potencia eléctrica (pu). ∆9 Vector de frecuencia ∆4: ∆4; ⋯ ∆4= . >? Vector potencia eléctrica )+,: )+,; ⋯ )+,= . >@ Vector potencia mecánica )0,: )0,; ⋯ )0,= . A Vector banda muerta -: -; ⋯ -= . ∆9 Medidas de frecuencia ∆4: ∆4; ⋯ ∆4= . >? B MedidasBdeBpotenciaB )+,: )+,; ⋯ )+,= .B SEIN Sistema Eléctrico Interconectado Nacional. COES Comité de Operación Económica del Sistema.

Palabras+ clave: Estatismo, Modelo Matemático Iterativo, Regulador de Velocidad, Transitorio Electromecánico.

I.+INTRODUCCIÓN+ El Procedimiento Técnico COES PR-21 “Reserva Rotante para Regulación Primaria de Frecuencia” entra en vigencia a partir del 01 de julio de 2014 (Ref. 1-2) y tiene como objetivo establecer los criterios y metodologías para la determinación, asignación, programación y control de desempeño de la reserva rotante del SEIN asociada a la

NOMENCLATURA+ ! Instante de tiempo. ℎ Tiempo entre dos registros de datos consecutivos (s).

Derechos reservados COPIMERA 2015

70


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

A.+Análisis+en+Estado+Normal+ Según el procedimiento, en estos casos se evaluará la “coherencia” del comportamiento potencia/frecuencia. Debe entenderse por respuesta coherente de la unidad de generación cuando i) ante una disminución de la frecuencia, la unidad generadora muestra una tendencia de aumento de generación o viceversa y ii) al menos el 85% de los registros medidos en un período aleatorio de 5 minutos, donde la frecuencia estuvo en una banda de operación de 60 ± 0,15 Hz (y eliminados algunos registros) deben ubicarse en el espacio que delimitan las rectas punteadas de la Fig. 1, correspondiente a una pendiente de 5% de estatismo y una banda muerta de ± 18 mHz.

Regulación Primaria de Frecuencia (RPF). Este procedimiento obliga a todas las unidades de generación eléctrica integrantes del Comité de Operación Económica del Sistema (COES) con potencias mayores a 10 MW a realizar dicho servicio sin estar sujetos a compensación alguna. Por el contrario, aquellas unidades generadoras que incumplen este mandato son penalizadas con un monto de dinero destinado a reducir el pago del servicio de Reserva Secundaria de Frecuencia (RSF) del mes siguiente. Varias empresas generadoras de energía han manifestado su preocupación en torno a la aplicabilidad de este procedimiento, unas afirman que sus unidades de generación técnicamente no pueden realizar el servicio de RPF debido a inflexibilidades tecnológicas y de diseño, otras cuestionan el modo en que el actual procedimiento evalúa el cumplimiento del servicio al considerarlo inadecuado como se demostrará más adelante. El presente trabajo se centrará en evidenciar el descalce que existe entre el modo de evaluación del cumplimiento del RPF bajo el esquema actual con el comportamiento lógico que deberían seguir las unidades de generación que, por procedimiento, están en la obligación de operar con el regulador de velocidad en modalidad estatismo (droop). Este error conceptual en el modo de evaluación del desempeño de los reguladores, unido al hecho de que existen penalidades por incumplimiento del servicio, podrían originar serios problemas en el corto y mediano plazo si no se resuelven oportunamente. En tal sentido, la alternativa propuesta para la evaluación del cumplimiento del RPF de los reguladores de velocidad es principalmente la de verificar que el valor del parámetro de estatismo “R” de cada unidad de generación se encuentre en el rango requerido por el procedimiento. Este parámetro es el principal indicador de que el regulador está realizando su labor. Para ello, se plantea una metodología de evaluación del cumplimiento de la RPF en base a un modelo matemático que es capaz de “aprender” del comportamiento en el tiempo de la frecuencia y potencia y “revelar” el valor de “R” y otros parámetros que finalmente nos podrán indicar el nivel de cumplimiento a una escala porcentual.

Figura'1.'MODO'EN'QUE'EL'PROCEDIMIENTO'VERIFICA' EL'CUMPLIMIENTO'DE'RPF'

Desde que entró en vigencia el procedimiento, se evidencia que prácticamente ninguna unidad de generación del SEIN pasa esta prueba estadística a la fecha, por lo que nos podríamos preguntar: ¿Realmente ninguna unidad de generación del SEIN realiza correctamente la RPF? o quizá sería mejor preguntar: ¿Es correcto el criterio adoptado para la evaluación del cumplimiento de RPF? Desde el punto de vista de la dinámica del fenómeno oscilatorio que se da en el generador, los tiempos de respuesta internos del sistema de control de válvulas y la propia inercia del sistema rotor – turbina, hacen que naturalmente el generador se desplace fuera de los límites de la banda muerta hasta llegar a otro punto de operación estable, lo que hace el criterio inapropiado para la evaluación. Además, este criterio utiliza para la evaluación un estatismo de 5% cuando se consideran aceptables estatismos en la banda del 4% al 5%. Debido a los reclamos justificados de las empresas de generación, al verse perjudicadas económicamente por ser evaluadas mediante un método que no refleja la realidad física del fenómeno electromecánico, el COES se ha visto en la imperiosa necesidad de “reinterpretar” el procedimiento y ejercer la evaluación del siguiente modo i) verificar la “coherencia” del comportamiento potencia/frecuencia, que se interpreta como la de verificar que ante una disminución de la frecuencia, la unidad generadora muestra una tendencia de

II.+PROBLEMÁTICA+ACTUAL+Y+FUTURA+DE+ MANTENER+EL+PROCEDIMIENTO+VIGENTE++ A continuación revisaremos los problemas que se presentan desde la vigencia del procedimiento relacionados a la evaluación del cumplimiento de la Reserva Primaria de Frecuencia por parte de las empresas generadoras del SEIN. El procedimiento obliga al COES a realizar diariamente un análisis del cumplimiento de la RPF de todos los generadores obligados a prestar este servicio. Normalmente la actuación de los reguladores de velocidad se evidencia notoriamente al presentarse una falla en la red pero dado que estos eventos no ocurren todos los días, el procedimiento plantea dos tipos de evaluación: en estado normal y ante fallas de unidades de generación. A continuación se analizan ambos métodos de análisis y sus falencias.

Derechos reservados COPIMERA 2015

71


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

aumento de generación o viceversa y ii) de no encontrarse coherencia en la respuesta, aplicar recién el procedimiento de la Fig. 1. Como se puede inferir, la evaluación de RPF para los casos de estado normal se basa completamente en la inspección visual del comportamiento potencia/frecuencia en la cual depende mucho del observador que analiza dicha información. Si bien este método puede evidenciar un aporte de potencia ante una caída en la frecuencia, no da indicios de su magnitud. Cabe indicar que las que no pasan la inspección visual del COES prácticamente incumplen porque no aprueban y probablemente nunca aprobarán la evaluación estadística siguiente.

finalmente, las Tipo 3 agrupan las centrales que no tienen reguladores de velocidad o éstos no operan adecuadamente. Supóngase además que el porcentaje de reserva asignado a cada generador del SEIN sea 2,5% y que en un instante dado, en el que la generación total es de 5 130 MW y la frecuencia es 60 Hz, ocurre una falla en un generador de 130 MW y sale de servicio. Suponiendo como condiciones pre-falla las presentadas en la Tab. 1, se esperaría que la falla ocasione una caída de frecuencia dada por la ecuación:

B.+Análisis+ante+Fallas+de+Unidades+de+Generación Según el procedimiento, se eligen instantes de tiempo en los cuales se presentaron desconexiones de unidades de generación iguales o mayores al 100% de la reserva para RPF asignada para dicho período y, utilizando los registros de las mediciones de potencia y frecuencia de las unidades de generación se verifica que el incremento de potencia correspondiente a la reserva asignada a la unidad de generación fue efectivamente entregada dentro del área señalada en la Fig. 2.

∆3 = −

60's'

Central Tipo 1 2 3 Total

10'min'

Figura'2.'MODO'EN'QUE'EL'PROCEDIMIENTO'VERIFICA' EL'CUMPLIMIENTO'DE'RPF'

100): ∆3 100×200× −0,13 =− 3&: 60×1 = 43,33%]

(3)

R (%) 1 5 ∞ -

Despacho (MW) 200 2 000 2 800 5 000

Máximo (MW) 250 4 000 3 750 8 000

Adicional (MW) 43,33 86,67 130,00

Adicional (%) 21,67 4,33 2,60

Cumple Si Si No -

Tabla'1.'CONDICIÓN'ACTUAL'DEL'SERVICIO'DE'RPF'

Con respecto a este modo de evaluación, vemos que al parecer resulta un buen método para verificar el cumplimiento de la RPF, pero que a mediano plazo podría degenerar el servicio ya que este modelo funciona bien cuando hay garantía de que todas las unidades de generación del sistema tienen el mismo valor de estatismo, lo que en la práctica resulta complicado. Cuando se origina una desconexión de una unidad de generación, la respuesta de los reguladores del resto de centrales aportarán una potencia adicional que es proporcional a la inversa de sus respectivos estatismos, por lo que finalmente al pasar el sistema a un nuevo punto de equilibrio, la distribución de potencias entre generadores podría originar incumplimientos y no por mala operación del regulador de velocidad sino por un problema en el modo de evaluación. Para entender mejor el caso, se ilustrará con un ejemplo no muy alejado a nuestra realidad. Por simplicidad, Consideremos un sistema eléctrico con tres tipos de centrales: las Tipo 1 agrupan a las centrales que realizan regulación secundaria de frecuencia y/o tienen capacidad de embalse horario, las Tipo 2 agrupan las centrales en las que se puede evidenciar y demostrar la correcta operación de sus reguladores de velocidad y

Derechos reservados COPIMERA 2015

(2)

Con cálculos similares al anterior pueden obtenerse los aportes adicionales de potencia de las centrales Tipo 2 y 3, los cuales se muestran en la Tab. 1.

Zona' de' respuesta' no' aceptable' 30's'

60×130 = −0,13$T 200 2000 2800 100 + + 1 ∞ 5

∆): = −

Zona' de' respuesta' aceptable'

0's' 5's'

(1)

Luego, la potencia adicional aportada por las centrales Tipo 1 será:

MW' Reserva' Asignada'

3∆) $T ): ); )S 100 + + &: &; &S

∆3 = −

Como se observa, las centrales Tipo 1 y 2 cumplirán con el análisis del COES ya que ambas generan una potencia adicional por encima del porcentaje asignado de 2,5%. Este caso refleja la situación actual en la que nos encontramos, existen centrales como las Tipo 1 que operan con estatismos muy bajos que asumen gran parte de la generación ante una falla y como están en la zona de respuesta aceptable de la Fig. 2 cumplen con la evaluación. Asimismo, las centrales que están operando con 5% de estatismo también cumplen pero como se observa su aporte en porcentaje es menor. A medida que pase el tiempo se espera que aquellas centrales Tipo 3 realicen mejoras a sus procesos para cumplir el procedimiento (y evitar penalidades) hasta llegar a una condición como la mostrada en la Tab. 2. Central Tipo 1 2 3 Total

R (%) 1 5 5 -

Despacho (MW) 200 2 000 2 800 5 000

Máximo (MW) 250 4 000 3 750 8 000

Adicional (MW) 22,41 44,83 62,76 130,00

Adicional (%) 11,21 2,24 2,24 2,60

Cumple Si No No -

Tabla'2.'CONDICIÓN'ESPERADA'A'MEDIANO'PLAZO'DEL' SERVICIO'DE'RPF'

72


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

única frente a cualquier tipo de perturbación, sea ésta de pequeña o de mediana magnitud. Para esto se plantea utilizar como referencia un modelo de regulador de velocidad ideal, el cual debe cumplir las siguientes características: simple, fácil de interpretar, poseer un comportamiento tipo estatismo (droop) y que represente adecuadamente el comportamiento de una amplia gama de reguladores del sistema eléctrico y de los generadores que éstos controlan, según sus características tecnológicas. Para esto, se plantea el modelo de la Fig. 3, el cual representa adecuadamente un regulador de velocidad básico que incluye una banda muerta, estatismo “&”, tiempo de respuesta del regulador “'”, constante de inercia del generador, representado por el parámetro “%” (Ref. 3). El parámetro derivativo “(” se incluye para mejorar el comportamiento del regulador ideal para centrales hidroeléctricas que tienen una característica particular relacionada a la dinámica generada por la columna de agua en la tubería forzada (Ref. 4), en caso de centrales térmicas no resulta tan relevante pero igual el modelo se encargará de asignarle un valor apropiado.

En este caso se observa algo interesante, cuando las centrales Tipo 3 tiendan a operar de forma similar a las Tipo 2, ninguna de las dos cumplirían la evaluación del COES ya que no alcanzarían el 2,5% adicional de potencia, esto generaría un reclamo de las Tipo 2 al COES ya que no están pasando la evaluación sabiendo con seguridad que sus reguladores operan correctamente. En este punto podría ocurrir que muchas empresas con centrales Tipo 2 empiecen a realizar estudios, adecuaciones o en el extremo cambio completo del sistema de regulación debido a que no están cumpliendo con la evaluación sin saber que el problema no es el equipo sino el modo de evaluación. Todo esto conllevaría a sobrecostos no reconocidos e innecesarios irrecuperables que podrían implicar disputas legales. Otras empresas del Tipo 2 podrían optar por bajar el estatismo a 4% de sus reguladores, y empezarían a cumplir nuevamente la evaluación tal como se observa en la Tab. 3, iniciándose un proceso degenerativo del servicio de RPF. Central Tipo 1 2 3 Total

R (%) 1 4 5 -

Despacho (MW) 200 2 000 2 800 5 000

Máximo (MW) 250 4 000 3 750 8 000

Adicional (MW) 20,63 51,59 57,78 130,00

Adicional (%) 10,32 2,58 2,06 2,60

Cumple Si Si No -

>?

)*+,

Tabla'3.'PROCESO'DEGENERATIVO'DEL'SERVICIO'DE' RPF'

R (%) 1 2 2 -

Despacho (MW) 200 2 000 2 800 5 000

Máximo (MW) 250 4 000 3 750 8 000

Adicional (MW) 10,00 50,00 70,00 130,00

Adicional (%) 5,00 2,50 2,50 2,60

>@ +

1 %^

∆9

Banda' Muerta'

Figura'3.'MODELO'IDEALIZADO'DE'REGULADOR'DE' VELOCIDAD'

En base al modelo propuesto, se deben encontrar los parámetros %, &, ', (, )*+, y la banda muerta que hagan que este modelo se ajuste satisfactoriamente a los registros de frecuencia y potencia eléctrica obtenidos con cierta periodicidad de mediciones en bornes de generación. Este ajuste de consigue al minimizar la suma de los cuadrados de los errores de los vectores de estado 9 y >? y sus respectivos vectores de medidas 9 y >? . A pesar de la simplicidad del modelo propuesto, éste resulta complicado de resolver debido a que presenta un bloque no lineal que corresponde al de la banda muerta cuyo comportamiento entrada – salida se muestra en la Fig. 4.

Cumple Si Si Si -

Tabla'4.'CONDICIÓN'DEGENERADA'DONDE'TODOS' CUMPLEN'EL'SERVICIO'DE'RPF'

III.+TRANSITORIOS+ELECTROMECÁNICOS+ RESOLVIENDO+ECUACIONES+SIMULTÁNEAS+ AJUSTADAS+(MODELO+TERESA)+ La metodología propuesta consiste en utilizar un único modelo de evaluación para cualquier caso de estudio, sea casos en estado normal o ante fallas de unidades de generación. Esto basado en la hipótesis de que el fenómeno transitorio en un regulador de velocidad tiene una dinámica

Derechos reservados COPIMERA 2015

1 1 + '^

1 + (^ &

En efecto, el hecho que las centrales Tipo 2 bajen su estatismo a 4% hace que las Tipo 3 mantengan su incumplimiento, lo que originaría que éstas bajen su estatismo también a valores más bajos, pudiéndose llegar al caso extremo de la Tab. 4 en la que se observa que ahora sí, las centrales Tipo 2 y 3 cumplen el procedimiento dando los 2,5% asignados de reserva pero han tenido que llegar a un estatismo de 2% el cual genera mayor desgaste, menor expectativa de vida de los componentes mecánicos de los equipos, mayores costos de mantenimiento, entre otros. Central Tipo 1 2 3 Total

+

73


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ ×-%

3

A.+Función+Objetivo+ Como en todo análisis de sistemas de control, es muy útil realizar los estudios considerando las variables de entrada y de salida del proceso en por unidad (pu), ya que de esta manera se simplifica mucho el análisis ya que estas cifras en pu, en manos de un analista con experiencia, le brindan mucha información del comportamiento del sistema que le permitirían brindar un diagnóstico rápido tan solo viendo dichos valores. Por tal motivo, para transformar todas las potencias en pu, se dividirán entre la potencia máxima alcanzable de cada unidad de generación y para la frecuencia, se dividirá el valor entre la frecuencia nominal del sistema. Se va a asumir que el vector de estado >? sigue una distribución normal de media >? y desviación estándar 68 , denotado por >? ~e >? , σ8 y que el vector de estado ∆9 sigue también una distribución normal de media ∆9 y desviación estándar 6∆7 , denotado por ∆9~e ∆9, σ∆7 . Por tanto, al transformar estas distribuciones a normales estándar de media 0 y desviación estándar 1 se tiene:

2

_(∆4/ ) 1

∆4/

0 U3

U2

U1

0

1

2

3

U1

U2

U3

×-%

Figura'4.'MODELO'DE'LA'FUNCION'BANDA'MUERTA'

Por tanto, las de respuesta de la banda muerta a una señal de frecuencia ∆4/ puede representarse del siguiente modo: _ ∆4/ =

∆4/ − -%, 0, ∆4/ + -%,

∆4/ > -% −-% ≤ ∆4/ ≤ -% ∆4/ < −-%

g∆9 =

(4)

1 + (^ &

1 %^

B.+Método+de+Heun+ Para la resolución del sistema de ecuaciones diferenciales que caracteriza al regulador de velocidad se propone utilizar el Método de Heun (conocido también como Método de Euler Modificado) el cual se utiliza para resolver el siguiente sistema de ecuaciones:

∆9

v

npo = np ! = q !, no ,

+

n !r = nh

(11)

Donde el apóstrofe representa la derivada respecto al tiempo. El método consiste en “predecir” un valor preliminar s/ mediante el Método de Euler (método explícito) y luego

A

Figura'5.'MODELO'LINEALIZADO'DE'REGULADOR'DE' VELOCIDAD'

Derechos reservados COPIMERA 2015

(10)

Donde gm significa la transpuesta de g. Para resolver este problema se requiere i) encontrar la relación funcional entre el vector g y los parámetros del modelo propuesto y ii) resolver el problema de minimización de la función objetivo. Para este fin se propone la utilización del Método de Heun para el punto i) y el Método de Gauss – Newton para el punto ii).

(6)

>?

(9)

ijk = min ggm

Es decir, los valores de -/ son conocidos a priori y por tanto A = -: -; ⋯ -= es un vector constante. Con lo antes mencionado, la Fig. 5 representa el modelo linealizado final que se utilizará para la resolución del problema.

>@ +

g∆9

La función objetivo a determinar sería:

∆4/ > -*+, −-*+, ≤ ∆4/ ≤ -*+, ∆4/ < −-*+,

1 1 + '^

(8)

(5)

Asumiendo -% = -*+, y ∆4/ ≈ ∆4/ , tenemos que:

+

1 ∆9 − ∆9 ~e h, 1 6∆7

g = g>

-/ = ∆4/ − _ ∆4/

)*+,

(7)

Sea el vector aumentado de error:

Definiendo la variable auxiliar -/ como:

-*+, , -/ = ∆4/ , −-*+, ,

1 > − >? ~e h, 1 68 ?

g> =

74


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

“corregir” tal valor mediante la Regla del Trapecio (método implícito) de la siguiente manera: no = nowx + ℎq ! − 1, nowx no = nowx +

ℎ q ! − 1, nowx + q !, no 2

∆4 )0

(12)

p /

(13)

Como punto de partida, debemos pasar el diagrama de bloques de la Fig. 5 a su expresión matemática en el dominio del tiempo: %^∆4/ = )0,/ − )+,/ )*+, −

1 + (^ &

Haciendo ^ =

∆4/ − -/ = 1 + '^ )0,/ y y/

)*+, −

no =

(15)

z∆4/ z!

1 z∆4/ 1 z-/ ∆4/ − ( + -/ + ( & z! & z! z)0,/ = )0,/ + ' z!

z-/ ≈0 z!

=−

q !, no

(16) (17)

1 1 − % % = no + )+,/ 1 ( 1 ( − − + &' %' ' %' 0 0 + 1 -/ + 1 )*+, &' '

1 1 ∆4/ − )0,/ + -/ & &

q ! − 1, nowx =

p

= /

0 1 ∆4 −1 1 + ) − −1 )0 / 0 +,/ & 0 0 + 1 -/ + ) 1 *+, &

1 − &'

1 % ( 1 − + %' '

nowx

(24)

1 0 % + )+,/w: + 1 -/ ( &' %' 0 + 1 )*+, '

(18)

(19)

De la Ec. (12) y la Ec. (24) se tiene:

no =

(20)

Realizando operaciones matriciales a la Ec. (20) se tiene:

Derechos reservados COPIMERA 2015

0

De la Ec. (16) y la Ec. (19), para el instante !, se obtiene la siguiente expresión matricial: 0 ∆4 ' )0

(23)

Para el instante ! − 1 se tiene:

+ )*+,

% (

(22)

/

0

Quedando finalmente la Ec. (17) de la siguiente manera: z∆4/ z)0,/ +' z! z!

∆4 )0

Se deduce de la Ec. (11) y la Ec. (21) que:

De la Ec. (6), se observa que -/ ≤ -*+, . Considerando que normalmente las bandas muertas de los reguladores de velocidad son muy estrechas, las variaciones en A deben ser muy pequeñas por lo que se puede asumir sin grave error que:

(

(21)

Haciendo:

(14)

tenemos:

)0,/ − )+,/ = %

1 ∆4 % = 1 ( 1 )0 / − − + &' %' ' 1 0 − % + )+,/ + 1 -/ ( &' %' 0 + 1 )*+, ' 0

1 1 − ℎ &'

1 ℎ % nowx ( 1 1− + ℎ %' ' 1 0 − ℎ % + )+,/w: + 1 ( ℎ /w: &' ℎ %' 0 1 + ) ℎ *+, '

(25)

Para determinar no de la Ec. (13) debemos calcular previamente q !, no . Para ello, de la Ec. (23):

75


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

q !, no

1 1 − % % = no + )+,/ 1 ( 1 ( − − + &' %' ' %' 0 0 + 1 -/ + 1 )*+, &' ' 0

no

(26)

=

+

Reemplazando no de la Ec. (26) por su equivalente de la Ec. (25) y simplificando se obtiene: q !, no =

+

+

+

1 + Ω8| ℎ % nowx 1 ( 1 − + Π∆7 ℎ − + + Πℎ &' %' ' ( 1 ℎ − %;' % )+,/w: + )+,/ 1 (; ( ( − ; ;− ℎ ; %&' % ' %' %' 1 0 ℎ %&' -/w: + 1 -/ ( 1 &' − + ℎ %&' ; &' ; 1 ℎ %' )*+, 1 ( 1 − + ℎ ' %' ; ' ; Ωℎ

+

(27)

+

+

Π=

(29)

( 1 + %&' ; &' ;

(30)

(; 2( 1 1 + + − % ; ' ; %' ; ' ; %&'

(32)

C.+Método+de+Gauss+–+Newton+ De los diferentes algoritmos para resolver el problema de la minimización de la función objetivo de la Ec. (10) se eligió el Método de Gauss – Newton por su fácil implementación y porque resulta ideal para resolver problemas no lineales de mínimos cuadrados, multivariable y sin restricciones (Ref. 5). Este método se caracteriza por ser un procedimiento iterativo que debe repetirse hasta llegar a una condición de convergencia preestablecida. Una característica interesante de este algoritmo es que puede estimar de manera consistente las desviaciones estándar de cada una de sus variables, lo cual resulta importante para la evaluación del comportamiento del regulador de velocidad como veremos más adelante. El método consiste en que dadas ~ funciones : , ; , … , Å de Ç parámetros É: , É; , … , ÉÑ , donde ~ > Ç, se desea minimizar la suma:

(28)

( 1 + % ; ' %'

Ω8| = − Π∆7 =

1 %&'

ℎ; 2

De este modo tenemos la relación funcional de ∆4/ con los parámetros que caracterizan el modelo.

Donde: Ω=−

1 ℎ; ℎ + Ω8| % 2 n 1 ℎ; ( 1 ℎ; owx − ℎ + Π∆7 1− + ℎ+Π &' 2 %' ' 2 1 ( ℎ; − ℎ+ ; 2% % ' 2 ) ( 1 (; ( ℎ; +,/w: ℎ+ − ; ;− ; 2%' %&' % ' %' 2 1 − ℎ 2% ) +,/ ( ℎ 2%' 1 ℎ; 0 %&' 2 1 ; -/w: + ℎ / 1 ( 1 ℎ 2&' ℎ− + ; ; 2&' %&' &' 2 1 ℎ; %' 2 ) 1 ( 1 ℎ; *+, ℎ− + ' %' ; ' ; 2 1+Ω

(31)

Finalmente, reemplazando la Ec. (24) y la Ec. (27) en la Ec. (13):

Å

Ö Ü = g Ü gm Ü =

á; Ü

(33)

Å

(34)

áà:

Donde: g Ü = : Ü = É:

; É;

⋯ ⋯

ÉÑ

(35)

Para ello se debe de escoger una estimación inicial del parámetro vector denominado Üh . Estimaciones posteriores Üâ para el vector parámetro se obtienen de la siguiente relación:

Derechos reservados COPIMERA 2015

76


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Üâäx = Üâ − ãåç Üâ ãå Üâ

w: ç ãå

Üâ g Üâ

(36)

Las ecuaciones que deben complementar a las que se desprenden de la Ec. (7) y la Ec. (8) son las siguientes:

Donde k representa el número de iteración y ãå Ü es la matriz Jacobiana de g en Ü, la cual se calcula de la siguiente manera: é : éÉ: é ; ãå Ü = éÉ: é Å éÉ:

é : éÉ; é ; éÉ;

é Å éÉ;

é : éÉÑ é ; éÉÑ ⋮ é Å éÉÑ

(37)

î

Nótese que no es necesario que la matriz Jacobiana sea cuadrada. En la práctica se utiliza la siguiente expresión:

w: ç ãå

(38)

Üâ g Üâ

Üâäx = Üâ + í ì ëâ

Se verá más adelante la utilidad de esta variable al plantear la metodología de la evaluación del funcionamiento del regulador de velocidad. Una vez que se alcanza la convergencia, los estimadores conseguidos tienen una distribución aproximadamente normal y la matriz de varianzas y covarianzas puede ser estimada consistentemente con la siguiente fórmula: w:

(41)

Como se verá más adelante, esta matriz nos servirá para estimar los intervalos de confianza de los parámetros & y )*+, con un cierto nivel de confianza. Para el caso estudiado, la función g Ü representa el vector de errores de la Ec. (9), y el vector Ü corresponde al siguiente vector aumentado: Ü = >?

∆4 r

)0r

)*+,

%

&

'

(

(42)

Donde se han agregado dos parámetros auxiliares ∆4 r y )0r que corresponden a las condiciones iniciales de frecuencia y potencia mecánica que ayudarán a resolver el problema.

Derechos reservados COPIMERA 2015

∆9m = ï>m? + ñAm + óm >m@

(45)

D.+Proceso+de+Determinación+de+Parámetros+ Uno de los inconvenientes del algoritmo de Gauss – Newton es que debe de inicializarse el vector Ü con un vector Üh cuyos valores sean cercanos a los de la solución final, caso contrario el algoritmo puede que no converja. Otro problema es que en ciertos casos, utilizar una longitud de paso í ì muy grande ocasiona inestabilidad numérica y muy pequeña origina una convergencia muy lenta por lo que hay que buscar un equilibrio. Es tal motivo que se plantea la resolución del problema dividiéndolo en dos fases y creando nuevos parámetros de control del proceso, los cuales deberán fijarse con la experiencia. La primera fase la llamaremos “Fase de Exploración”, el objetivo es la de utilizar un valor de í: generalmente bajo, que prepare y sitúe al vector inicial de partida Üh en un punto más estable para que ingrese la segunda fase del proceso. La segunda fase la llamaremos “Fase de Búsqueda”, es decir a partir de este momento, se utilizará un valor de í; normalmente alto a fin de que el algoritmo encuentre con mayor rapidez la situación de convergencia, como parte de esta fase debe de indicarse en qué iteración se realizará esta búsqueda (kôöõú ). Debe aclararse que no es regla general el hecho de que í: sea un valor bajo y í; sea alto. En ciertos casos puede adecuarse mejor lo contrario, estos parámetros deberán ajustarse según el caso específico y/o la experiencia. A fin de evitar otros problemas de convergencia, se han añadido otros parámetros de control del proceso como el máximo número de iteraciones permitidas (k0ùû ) y que aborte el proceso de búsqueda si es que se encuentra que el estatismo está por encima de un valor crítico (&ü*á/ ). El diagrama de flujo planteado se muestra en la Fig. 6. El método propuesto en dos fases no es infalible a causa de su sencilla implementación. Por ello, dejamos para futuras

(40)

Ö Üâ ç â ã Ü ãå Üâ ~−Ç å

(44)

(39)

Para una mejor implementación del algoritmo de Gauss – Newton se introducirá una variable escalar denominada “longitud de paso” í ì (0 < í ì < 1) que se utilizará para disminuir la probabilidad de que el cambio de ëâ sea demasiado grande y por ello se pase por alto el mínimo buscado o se llegue a un punto de inestabilidad numérica, quedando la Ec. (38) del siguiente modo:

6 ; Üâ =

)0,r = )0r

Donde î es una matriz cuadrada de tamaño 2#; ï y ñ son matrices cuadradas de tamaño # y ó es un vector de tamaño #. Para el presente modelo, dado que se está considerando # registros de las mediciones de potencia eléctrica y frecuencia, Ç = # + 7.

Donde: ëâ = − ãåç Üâ ãå Üâ

(43)

Con éstas variables, el modelo cuenta finalmente con siete (07) parámetros escalares y los vectores ∆9 y >@ que deben ser calculados. Se recomienda utilizar para la resolución del problema el siguiente planteamiento matricial:

Å×Ñ

Üâäx = Üâ + ëâ

∆4r = ∆4 r

77


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

investigaciones la propuesta de un método más elaborado que permita encontrar la solución deseada de forma más confiable y segura.

A continuación definiremos los modos de calcular estas probabilidades. A.+ Cumplir+ con+ Operar+ en+ un+ Rango+ Aceptable+ de+ Estatismo+ Este requisito asegura que la unidad de generación entregará la reserva asignada requerida por el sistema, para ello usaremos el resultado de & y la varianza 6§; asociada a este parámetro obtenidas del Modelo. Entonces con los datos anteriores podemos obtener un rango & ∈ & 0áÅ , & 0ùû con cierto nivel de confianza (se recomienda un ¶ = 90%). Por tanto, se definirá la probabilidad condicional:

k = 0! Ü = Üh !

Calcula:' ër ' Ö(Üh )!

Fase+I:' Asignar'a'í+valor'de' exploración'

0áÅ 0ùû ): = Prob & ∈ &/©™ ; &/©™ |& ∈ & 0áÅ ; & 0ùû Fase+II:' Asignar'a'í+valor'de' búsqueda'

Si'

k = kôöõú

Aplicando el Teorema de Bayes, se reescribe del siguiente modo:

No' k = k + 1!

): =

0áÅ 0ùû Prob & ∈ &/©™ ; &/©™ ∩ & 0áÅ ; & 0ùû 0áÅ Prob & ∈ & ; & 0ùû

∆Ö = ±ÖØÜâ ∞ − ÖØÜâwx ∞±! No'

∆Ö < 'i≤

k = k0ùû

No'

(49)

0áÅ 0ùû Donde &/©™ y &/©™ son las tolerancias mínimas y máximas de estatismo fijadas por el COES, se recomienda los valores de 4% y 6% respectivamente. Por ejemplo, si del resultado del modelo se obtiene como resultado que & ∈ 4,3%; 6,8% y los valores de tolerancia antes indicados se obtiene:

Calcula:' ëâ + Ü = Üâwx + íëâwx ' ÖØÜâ ∞! â

No'

(48)

): =

ì

& > &ü*á/

6% − 4,3% = 0,68 = 68% 6,8% − 4,3%

(50)

Por tanto el cumplimiento de este indicador sería 68%. Si'

Si'

Si'

Fin+

B.+Cumplir+con+la+Reserva+Asignada+de+Potencia+ Este requisito asegura que la unidad de generación cuente con la suficiente reserva de potencia para aportar en caso de necesidad, para ello usaremos el resultado de )*+, y ; la varianza 68*+, asociada a este parámetro obtenidas del Modelo. Entonces con los datos anteriores podemos obtener un 0áÅ 0ùû rango )*+, ∈ )*+, ; )*+, con cierto nivel de confianza (se recomienda un ¶ = 90%). Por tanto, se definirá la probabilidad condicional:

Figura'6.'DIAGRAMA'DEL'FLUJO'DEL'PROCESO'DE' DETERMINACIÓN'DE'PARÁMETROS'

IV.+CRITERIO+PARA+LA+EVALUACIÓN+DEL+ CUMPLIMIENTO+DE+RPF+ El cumplimiento del servicio de regulación primaria lo asociaremos al cumplimiento de los siguientes requisitos i) Cumplir con Operar en un Rango Aceptable de Estatismo (): ), ii) Cumplir con la Reserva Asignada de Potencia (); ) y iii) Cumplir con el Tiempo de Estabilización Transitoria ()S ). La evaluación del desempeño de los reguladores consiste en calcular la probabilidad de cumplir los tres requisitos es: ) = Prob ): ⋀); ⋀)S

0áÅ 0ùû ); = Prob )*+, ∈ −∞; Γ |)*+, ∈ )*+, ; )*+,

Aplicando nuevamente el Teorema de Bayes:

(46) ); =

Suponiendo que estos requisitos son independientes entre sí se tiene: ) = Prob ): × Prob ); × Prob )S Derechos reservados COPIMERA 2015

(51)

(47)

78

0áÅ 0ùû Prob )*+, ∈ −∞; Γ ∩ )*+, ; )*+, 0áÅ 0ùû Prob )*+, ∈ )*+, ; )*+,

(52)


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Donde Γ es la potencia máxima (en pu) en la que debería ajustarse el setpoint de potencia de la unidad de generación y cumplir el procedimiento, y está dado por: 1 Γ= 1+1

¥ = µ wª

Si consideramos ∫ como la variable para calificar el cumplimiento del Tiempo de Estabilización Transitoria. Entonces se definirá a )S como el complemento de 1 de ¥, es decir:

(53)

Por ejemplo, si del resultado del modelo se obtiene como resultado que )*+, ∈ 0,92; 0,96 y asumiendo que la reserva asignada 1 sea de 3% se obtiene: 1 Γ= = 0,97 1 + 0,03

(54)

0,96 − 0,92 = 1 = 100% 0,96 − 0,92

(55)

); =

)S ∫ = 1 − ¥ = 1 − µ wª

1

C.+ Cumplir+ con+ el+ Tiempo+ de+ Estabilización+ Transitoria+ Este requisito asegura que la unidad de generación responda rápidamente. No existe parámetro directo que el modelo brinde para evaluar la rapidez del regulador de velocidad pero lo podemos obtener indirectamente de la ecuación característica correspondiente del diagrama de bloques de la Fig. 5. Se puede demostrar que la ecuación característica de dicho sistema cerrado de control es:

100%

0.9

90%

0.8

80%

0.7

70%

0.6

60%

0.5

50%

0.4

40%

0.3

30%

0.2

20%

0.1

10%

0

0% 0

1

2

% + ( ; & ; − 4%&' 2%&'

/

(59)

Haciendo: ∫ = −ℛℯ ^: 2

(60)

Se tiene: Derechos reservados COPIMERA 2015

7

P3

Alternativo

V.+RECOMENDACIONES+ -' Utilizar como período de evaluación una muestra de 91 registros continuos a intervalos de un (01) segundo en el que el primer registro corresponda al tiempo ! = 0. -' Considerar para los análisis en estado normal un período de evaluación que inicie entre 20 y 30 segundos antes del mayor gradiente negativo de frecuencia registrado en el día. Para análisis ante fallas de unidades de generación entre 10 y 20 segundos antes del instante de falla. -' Como parámetros iniciales del modelo se sugieren los siguientes: )+r = )+ ; ∆4 r = ∆4r ; )0r = )+,r ; )*+, = )+,r ; % = 5; & = 0,05; ' = 50 y ( = 95. -' Como parámetros de control de proceso iterativo se sugiere los siguientes: &ü*á/ = 0,8; í: = 0,1; í; = 0,6;

(58)

π

6

Pueden escogerse otros criterios para la evaluación del cumplimiento transitorio buscando otra función de probabilidad en función de la variable ∫ como el caso alternativo de la misma figura.

(57)

Para ! = 2: ¥ = ¥ 2 = µ ℛℯ õ∏

5

Figura'7.'PROBABILIDAD'DE'CUMPLIR'EL'TIEMPO'DE' ESTABILIZACIÓN'TRANSITORIA'

Lo que deberíamos esperar es que las componentes reales de dichas soluciones sean negativas ya que de lo contrario el sistema sería inestable. Si ^: es la solución cuyo componente real es el menos negativo, entonces se puede demostrar que en el dominio del tiempo, éste equivale al transitorio más lento en extinguirse y sigue una envolvente de la forma: ¥ ! = µ ℛℯ õ∏

4

(56) Z

− %+( &±

3 µ

Los valores de ^ que cumplen la condición ï ^ = 0, calculados con la Ec. (57) brindan información del comportamiento transitorio del sistema de control. ^=

(62)

Como se puede apreciar en la Fig. 7, en cierto modo )S refleja la probabilidad que en un tiempo 2 el transitorio se haya extinguido, se aprecia que para valores de ∫ mayores o iguales a 3, la probabilidad )S > 95%.

Por tanto el cumplimiento de este indicador sería 100%.

ï ^ = %&'^ ; + % + ( &^ + 1

(61)

79


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

kôöõú = 10; k0ùû = 50 y 'i≤ = 0,0001, pero que deben ajustarse con la experiencia. -' Considerar -*+, igual al valor referencial de la banda muerta con la que el COES realizará su evaluación.

AGRADECIMIENTOS+ Quisiera agradecer el soporte técnico y moral de mis compañeros de Statkraft Perú S.A., el de mi esposa por su paciencia y por cederme valiosas horas los fines de semana para el desarrollo de este trabajo, a mi papá por sus sabios consejos pero sobre todo, la gran motivación para realizar este trabajo fue para dedicárselo a la persona que desde muy niño tuvo siempre las mayores expectativas en mí, mi querida mamá Teresa.

VI.+CONCLUSIONES+ -' Los resultados obtenidos resultan fáciles de interpretar. -' Puede llevarse un registro diario de los parámetros y chequear en el tiempo tendencias que ayuden a los operadores de centrales a verificar problemas incipientes. -' Todas las unidades de generación se comparan con un único patrón, por lo que no hay sesgo en los resultados. -' Brinda una calificación al cumplimiento en una escala porcentual, la que puede utilizarse para calcular las penalizaciones posteriormente. -' El modelo puede ser implementado en una hoja Excel, no se requiere la utilización de software especializado. -' Brinda las bases para un posible mercado de RPF en el que se pueda ofrecer garantías para ciertos parámetros como el estatismo “&”. -' Tiempos de convergencia relativamente cortos (de 10 a 15 segundos aprox.), número de iteraciones que oscila entre 20 y 30, dependiendo de los ajustes considerados. -' El modelo generado del regulador puede ser utilizado para pronosticar el comportamiento 10 minutos hacia adelante utilizando para ello la frecuencia registrada. -' Uno de los inconvenientes del modelo es el tema de la convergencia, pero que en muchos casos pueden corregirse modificando ciertos parámetros. -' La Tab. 5 muestra un cuadro comparativo de las ventajas del método propuesto respecto al método actual de evaluación vigente. Verificaciones y ventajas del método Porcentaje de veces al año que se utiliza este método Coherencia de la respuesta (droop) Banda muerta de 18 mHz dado un estatismo de 5% Estatismo menor a 5% como especifica el procedimiento Estatismo mayor a 4% como especifica el procedimiento Unidades de generación cuentan con reserva de potencia Cumplimiento del tiempo de restablecimiento Puede comprobar el comportamiento del regulador 10 minutos posteriores a un evento. Calificación al desempeño del regulador de velocidad

Análisis en Estado Normal Inspección Método Visual Estadístico

Modelo Ante Fallas de Unidades de Generación

Método Propuesto

95%

5%

100%

!

!

!

!

!

!

REFERENCIA+ [1] Resolución OSINERGMIN N° 194-2013-OS/CD, Aprobar el Procedimiento COES PR-21 “Reserva Rotante para Regulación Primaria de Frecuencia”, Diario El Peruano, 2013. [2] Resolución OSINERGMIN N° 058-2014-OS/CD, Aprobar el Procedimiento COES PR-22 “Reserva Rotante para Regulación Secundaria de Frecuencia”, Diario El Peruano, 2014. [3] E. del Águila, Protocolos para la Medición del Estatismo y Banda Muerta en Unidades de Generación Síncrona, en la web: www.unac.edu.pe. [4] P. Kundur, Power System Stability and Control, Mc Graw Hill, New York, 1994. [5] J. Oviedo, Modelos No Lineales: Gauss – Newton y Newton Raphson. Implementaciones en Maple, Mathematica, Gauss, Matlab y Excel, en la web: http://blogs.eco.unc.edu.ar/jorgeoviedo/. Anexo+ A:+ Resultados+ del+ modelo+ TERESA+ para+ diferentes+escenarios+simulados+ Para verificar el modelo realizaremos una serie de escenarios y observaremos los resultados obtenidos, para ello realizaremos algunas simulaciones considerando el regulador ideal de la Fig. 3 y los datos de la Tab. 6. La simulación consiste en aplicar un escalón de potencia ∆)+ (que se alcanza en forma de rampa en un segundo) desde un punto de operación estable y considerando diversos valores de parámetros de banda muerta, )*+, , %, & y '. Tratando de representar diferentes tipos de perturbaciones y distintas clases de reguladores de velocidad. Al ingresar las entradas y salidas obtenidas de las simulaciones de los casos anteriores al Modelo, los resultados son los obtenidos en la Tab. 7.

!

! !

Caso 1 2 3 4 5 6 7 8 9 10 11 12

! ! !

Tabla'5.'CUADRO'COMPARATIVO'DEL'MÉTODO' PROPUESTO'RESPECTO'AL'METODO'ACTUAL'VIGENTE'

Derechos reservados COPIMERA 2015

80

B (mHz) 0 0 18 18 24 24 0 0 18 18 24 24

Pref (pu) 0,97 0,97 0,95 0,95 0,95 0,95 0,97 0,97 0,95 0,95 0,95 0,95

M (s) 10 10 10 10 10 10 5 5 5 5 5 5

R (%) 5 5 5 5 2 2 5 5 5 5 2 2

T (s) 2 2 2 2 2 2 32 32 32 32 32 32

K (s) 0 0 0 0 0 0 0 0 0 0 0 0

ΔPe (%) 1,5 3,0 1,5 3,0 1,5 3,0 1,5 3,0 1,5 3,0 1,5 3,0


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ Tabla'6.'PARAMETROS'DEL'MODELO'SIMULADOS'PARA' VERIFICACIÓN'DE'RESULTADOS' ' Caso 1 2 3 4 5 6 7 8 9 10 11 12

Bref (mHz) 18 18 18 18 18 18 18 18 18 18 18 18

R (%) 2,99 3,98 4,98 4,98 2,64 2,31 4,87 4,91 4,92 4,96 2,07 1,97

Pref (pu) 0,97 0,97 0,95 0,95 0,95 0,95 0,97 0,97 0,95 0,95 0,95 0,95

µ 7,90 7,91 8,07 8,01 11,77 11,52 0,54 0,52 0,48 0,49 0,63 0,66

P1 0 18,2 100 100 0 0 100 100 100 100 0 0

Probabilidad (%) P2 P3 100 100 100 100 100 100 100 100 100 100 100 100 100 41,8 100 40,7 100 38,4 100 38,5 100 46,9 100 48,4

Enrique Moldauer Luque nació en Lima, Perú, en 1975. Recibió el grado de ingeniero en la especialidad de ingeniería eléctrica, Universidad Nacional de Ingeniería, Lima, Perú, en 2006. Estudios de maestría en Ingeniería Industrial en la Pontificia Universidad Católica del Perú, Lima, Perú, en 2007.

P 0 18,2 100 100 0 0 41,8 40,7 38,4 38,5 0 0

Desde el año 2000 viene desempeñándose en diversas empresas relacionadas a la industria eléctrica, enfocado en análisis, estudios eléctricos de potencia, eficiencia energética, calidad de energía, etc. Realizó sus primeras prácticas en la Empresa de Generación Eléctrica Duke Energy Egenor S. en C. por A. en la cual estuvo alrededor de dos años en operaciones y posteriormente ingresó como ingeniero en la Empresa de Generación y Transmisión Eléctrica Statkraft Perú S.A., Lima – Perú en el año 2007, empresa en la que viene desempeñándose como Jefe de Evaluación hasta la fecha, sumando alrededor de 10 años de experiencia en el área de operaciones de sistemas eléctricos de potencia. Dentro de los trabajos de investigación realizados figuran estudios de determinación de pérdidas por efecto corona en línea de transmisión de 138 kV utilizando modelos de estimación de estados, modelos de evaluación total de pérdidas no eléctricas en sistemas de transmisión de energía eléctrica considerando para ello teoría de colas y árboles de fallas, entre otros. Actualmente se encuentra investigando temas relacionados a la optimización de mantenimientos utilizando modelos basados en RCM y condición de activos.

Tabla'7.'RESULTADOS'“VISTOS”'POR'EL'MODELO'DE'LOS' CASOS'SIMULADOS

Se observa que los casos 3 y 4 poseen los más altos índices de cumplimiento y se debe principalmente a que los parámetros de los reguladores “vistos” por el modelo están “sintonizados” al requerimiento del COES, es decir, banda muerta de 18 mHz y estatismo alrededor del 5% y alta velocidad de respuesta del regulador. El caso 2 tiene un cumplimiento de 18,2% debido a que el valor “visto” de estatismo es de 3,98% y está por debajo de lo requerido. Si bien los casos del 7 al 10 cuentan con valores de estatismo adecuados que los califica con 100% en el indicador “): ” lo que los descalifica en su evaluación final es el indicador “)S ” relacionado a la velocidad de respuesta del regulador. De haberse considerado la curva alternativa de la Fig. 7, se tendría que )S = 0 ya que los ∫ < 1 en estos casos, obteniéndose una evaluación final más rigurosa. Es de notar la importancia del parámetro “&” en el grado de cumplimiento de la evaluación este parámetro de por sí ya representa una condición casi suficiente para el cumplimiento del servicio de RPF. Anexo+ B:+ Resultados+ del+ modelo+ TERESA+ para+ casos+reales+del+SEIN' Estos casos corresponden a la aplicación de la metodología propuesta a la unidad G1 de la central hidroeléctrica Cahua y a la unidad G1 de la central hidroeléctrica Huinco y se presentan los reportes propuestos del cumplimiento del servicio de RPM al final del presente trabajo. Como se puede apreciar, el grupo G1 de Cahua alcanza un nivel de cumplimiento de 74,53%, detectando el modelo un estatismo de 4,23% como valor más probable. Sin embargo, en la evaluación del G1 de Huinco se aprecia un nivel de cumplimiento de 0% debido principalmente a que el modelo detecta un estatismo de la unidad de 1,27% y cuenta con la suficiente reserva para entregar al sistema ya que es una unidad destinada a realizar RSF. Como se observa, no estamos muy alejados del escenario planteado en la Tab. 1.

Derechos reservados COPIMERA 2015

81


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+

+

PRINCIPO+DE+FUNCIONAMIENTO+DEL+REACTOR+MAGNETICAMENTE+CONTROLADO+Y+SU+ APLICACIÓN+EN+EL+SISTEMA+ELÉCTRICO+INTERCONECTADO+NACIONAL+DEL+PERÚ+ Carlos Morales1, Juan C. Quispe2, Roberto Ramirez3 1

REP-ISA, cmorales@rep.com.pe; 2COES-SINAC, jquispe@coes.org.pe; 3COES-SINAC, rramiez@coes.org.pe

RESUMEN En el sistema eléctrico interconectado (SEIN) del Perú, la capacidad límite de transmisión del sistema de transmisión AC de alta tensión, caracterizado por líneas de gran longitud, está determinada por criterios de estabilidad. Por esta razón, las líneas deben utilizar capacitores en serie y una adecuada combinación de reactores shunt para operarlos cerca de su potencia natural. En ese sentido, no sólo se requiere compensar dinámicamente la potencia reactiva capacitiva de las líneas de transmisión y permitir las mayores transferencias posibles de potencia entre las zonas que conforman el SEIN, sino también controlar las sobretensiones en condiciones de mínima carga o luego de determinados eventos.

características como la capacidad de un gran rango continuo de regulación, alta fiabilidad, bajo costo de instalación, etc. En virtud a que ha venido funcionando de manera adecuada en los antiguos estados soviéticos, cuyas líneas de transmision son de gran longitud con las cargas muy alejadas de los centros de generación, tiene una amplia perspectiva de la aplicación en el SEIN.

+ Introducción+ En 1999 la empresa PermEnergo en Rusia, luego de instalar en paralelo con la barra de 110 kV de la SE Kudymkar un RMC de 25 MVAr, mejoró notablemente la estabilidad de su sistema [1]. En esta barra de 110 kV se operaba un banco shunt de capacitores de 32 MVAr, que frecuentemente era conmutado de manera manual de acuerdo al diagrama de carga de la subestación.

Para resolver los problemas del control dinámico de la tensión se utiliza solamente los SVC, basados en un Reactor Controlado por Tiristores con sus filtros capacitivos, en paralelo con ramas del tipo Capacitor Conmutado por Tiristores. En este contexto, el reactor magnéticamente controlado (RMC) ni las fuentes de potencia reactiva magnéticamente controlables (SRP) que se implementen utilizando un RMC aún no se toman en cuenta como una alternativa para el control dinámico de las tensiones. El RMC es un tipo de reactor shunt de núcleo de hierro de reactancia controlable mediante el cambio de la permeabilidad del núcleo ferromagnético, que además de las ventajas que tiene como reactor de núcleo de hierro, tiene otras Derechos reservados COPIMERA 2015

Cuando se instaló el RMC de 25 MVAr en paralelo con el el banco de capacitores shunt de 32 MVAr, el sistema eléctrico regional, que previamente había sufrido de severas inestabilidades de tensión, quedó inmediatamente estabilizado y los eventos de conmutación manual de los bancos de capacitores se redujeron de 800 a solo 12 veces por año [1]. Asimismo, la operación del control automático bajo carga del transformador disminuyó notablemente, ya que quedó operando 82


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

en una sola toma. Como consecuencia, el sistema ahorró 7,3 GW-hora durante el primer año; asimismo, la construcción de una nueva línea de transmisión fue postergada por lo menos en 10 años más, haciendo que la empresa ahorre la inversión en este nuevo componente. Asimismo, el costo de este nuevo equipo de compensación reactiva denominado RMC se recuperó en dos años.

plazo en este campo de investigación y se ha aplicado en la industria ferroviaria en niveles de tensión de 110 kV [5]. !

Nomenclatura+ RMC SVC SEIN SEP SRP

Es necesario remarcar que por lo particular de las cargas asociadas a la S.E. Kudymkar se requería un control dinámico de la tensión; en ese sentido, al instalar el RMC indicado en paralelo con el banco de capacitores existente en la S.E. Kudymkar, se logró obtener un efecto de control dinámico de la potencia reactiva, similar a la función que cumple el conocido SVC.

ACU FACTS

Reactor Magnéticamente Controlado. Static Var Compensator Sistema Eléctrico Interconectado Nacional Sistema Eléctrico de Potencia Fuente de Potencia reactiva magnéticamente controlable, en base a un RMC Automatic Unit Control Flexible Alternating Current Transmission System

+

Al respecto es necesario señalar que el SVC, al igual que todos los FACTS proporcionan beneficios estratégicos que mejoran la gestión y la operación del sistema de transmisión, debido a que:

Principio+de+funcionamiento+ A.++Representación+Esquemática+

•! Mejora la utilización de las instalaciones de transmisión existentes, •! Incremento de la fiabilidad y disponibilidad del sistema de transmisión, •! Incrementa la estabilidad del sistema, así como una mayor calidad del suministro.

De manera simplificada el RMC puede ser representado por el circuito magnético mostrado en la Figura 1. En el núcleo de hierro están dispuestos el devanado principal, que se conecta al sistema eléctrico de potencia de corriente alterna, y un devanado auxiliar alimentado por una fuente DC controlada.

Los FACTS aparecieron asociados al gran desarrollo de la electrónica de potencia, dejándose de lado los esfuerzos para lograr el control flexible de los sistemas de transmisión mediante dispositivos ferromagnéticos, aprovechando al máximo sus características inherentes. En [2] y [3] A. M. Bryantsev planteó el control de la inductancia de un reactor mediante el ajuste de la permeabilidad del núcleo ferromagnético. Asimismo, exploró a profundidad las características ferromagnéticas, desarrollando soluciones innovadoras, tecnología y métodos de producción para reactores controlados magnéticamente. Figura 1 Representación simplificada de un RMC monofásico

En [4] se muestra el impacto positivo del RMC sobre la estabilidad de pequeña señal y la estabilidad transitoria de sistemas de potencia de muy alta tensión con líneas de gran longitud. Además de lo mencionado, es necesario enfatizar que el estudio de este equipo se inició en los antiguos estados soviéticos, como Rusia y Bielorrusia. En los sistemas de potencia de estos países, con características y cargas muy peculiares, existen numerosos RMC operando y realizando un papel muy importante, como lo es el control de la tensión. En base a ello, el análisis y estudio de esta aplicación se ha divulgado en países como Estados Unidos [1] y China, en este último ya se ha realizado un estudio de seguimiento de largo

Entonces el RMC es un transformador en vacío con su devanado principal conectado a la red de alterna y que consume una corriente Ipw. El devanado auxiliar denominado devanado de control es recorrido por una corriente continua Icw controlada con una determinada lógica. B.+Principio+de+funcionamiento+ Un reactor shunt convencional de núcleo de hierro se conecta directamente a una barra del SEP. Las características Tensión-Corriente del SEP y del reactor son: ! = #$% − '($% )

Derechos reservados COPIMERA 2015

83

(1)


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

(2)

! = '(* )

Figura 2 Punto de operación del reactor convencional Por lo tanto, el punto de operación queda definido en la Figura 2 por la intersección de ambas características. La potencia reactiva que absorbe el reactor de la red de alterna es: !, (3) += -. Y la inductancia es igual a: , . = /01 (

345 ) 67

Entonces la potencia reactiva será: 67 ×! , 1 +=( )× , ×4 2;60×/01 3 5

Figura 3 Curva de saturación y curva de la permeabilidad Para modificar la permeabilidad se inyecta en el devanado auxiliar una corriente continua )@1 para mover el punto de operación “1” (cuando la corriente continua es cero) hasta el punto “2”, que muestra mayor saturación porque el flujo en el núcleo ahora es Ψ01 + Ψ@1 , este último flujo ha sido producido por la corriente continua. La Figura 3 muestra el desplazamiento de los puntos de operación debido a la variación del flujo magnético provocado por la corriente continua, se aprecia que disminuye la permeabilidad y la inductancia del reactor, produciéndose un incremento de corriente en el bobinado principal, y por lo tanto en la potencia reactiva absorbida de la red de alterna. Entonces, si la corriente continua es controlada con cierta lógica, la reactancia será controlada. En la Figura Figura 4 se esquematiza la característica Tensión – Corriente de este RMC, mostrando diferentes puntos de operación.

(4)

(5)

Según esta ecuación, se puede controlar la potencia reactiva absorbida por el reactor, modificando la permeabilidad, es decir saturando el circuito magnético del reactor. La saturación implica incrementar el flujo en el núcleo, lo cual se puede lograr superponiendo al flujo alterno establecido por la corriente alterna, un flujo controlado, producido por una corriente continua en un devanado auxiliar dispuesto en el núcleo del reactor. Entonces el devanado principal conectado a la red de alterna, que consume una corriente )01 produce el flujo magnético alterno ?01 y se define el punto de operación “1”, mostrado en la Figura 3, en el cual la permeabilidad del núcleo magnético asume un valor µ1.

Figura 4 Puntos de operación del RMC Por lo tanto, para mantener constante la tensión de la barra cuando se modifican las condiciones de operación del S.E.P., el reactor debe modificar su reactancia (pendiente de la recta que parte del origen), lo que se logra controlando la permeabilidad con una determinada corriente continua

Derechos reservados COPIMERA 2015

84


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

ESTRUCTURA+DEL+RMC+

BARRA/DE/MEDIA/TENSIÓN

BARRA/DE/ALTA TENSIÓN/DE/CONEXIÓN/AL/SISTEMA/DE/POTENCIA

El reactor magnéticamente controlado consta, en general, de tres partes: Sistema Electromagnético, Sistema de Magnetización y una Unidad de Control Automático.

SISTEMA ELECTROMAGNÉTICO

(1)

DEVANADO'PRINCIPAL

(2)

DEVANADO'DE'COMPENSACIÓN

(7)

(4)

DEVANADO'DE'CONTROL

La Figura 5 presenta la secuencia de funcionamiento del RMC a través de varios módulos. El sistema electromagnético es el elemento principal del RMC y está conformado por el devanado principal de alta tensión, el devanado de compensación y el devanado de control. El devanado principal, en estrella con el neutro aterrado, se conecta directamente a la barra de alta tensión, sin necesidad de un transformador de conexión. El devanado de compensación está conectado en delta y tiene como funciones “atrapar” los armónicos de tercer orden y desde el punto de vista del equipo, alimentar al sistema de magnetización. El devanado de control es el responsable de la polarización magnética del núcleo en base a una fuente de corriente continua (DC). Posee dos Sistemas de Magnetización (SM), formados por un transformador y un convertidor AC/DC, uno de ellos esta alimentado por el devanado de compensación. El otro sistema es la unidad de redundancia y esta alimentado desde servicios auxiliares en caso que el devanado de compensación no esté en servicio. Los SM regulan la magnitud de la corriente directa en el devanado de control y en promedio tienen una capacidad que no excede el 2% de la capacidad nominal del RMC. La Unidad de Control Automático recibe la señal de medición de los transformadores de tensión y la compara internamente con la tensión definida como referencia o “set point”, para luego generar la señal de control sobre el ángulo de funcionamiento de los tiristores del convertidor AC/DC que modificará la potencia reactiva del RMC. La Unidad de Control Automático es un equipo electrónico que recibe una señal de entrada menor a 1 kW.

(8) (3)

(5)

(6) SISTEMA MAGNETIZANTE/PRINCIPAL

SISTEMA MAGNETIZANTE/DE/RESPALDO

TRANSFORMADOR'DE'ALIMENTACIÓN

TRANSFORMADOR'DE ALIMENTACIÓN

CONVERTIDOR AC/DC

CONVERTIDOR'AC/DC

(9)

(5)

(9)

COMPARACIÓN DEL'SET$POINT Y'ENVÍO' DE'SEÑALES'DE'CONTROL UNIDAD/DE/CONTROL/AUTOMÁTICO

Circuito principal

Circuito magnético

Circuito de/control/y/monitoreo

Figura 5 Estructura de Funcionamiento del RMC

(1)'Circuito de'conexión'directa'entre'el'reactor'y'la'barra'de'alta'tensión (2)'Acoplamiento'electromagnético'entre'el'devanado'principal'y'el'devanado'de'compensación (3)'Circuito'de'conexión'al'transformador'de'alimentación (4)'Circuito'de'alimentación'del'sistema'magnetizante'de'respaldo'desde'la'subestación'de'media'tensión (5)'Circuito'de'alimentación'del'convertidor'AC/DC' (6)'Circuito'de'alimentación'del'devanado'de'control'para'modificar'la'magnetización'del'núcleo (7)'Circuito'de'magnetización'del'núcleo'del'reactor (8)'Circuito'de'control'del'nivel'de'tensión'en'la'barra'de'alta'tensión'para'comparar'con'un'valor'específico (9)'Circuito'de'control'del'ángulo'de'actuación'de'los'tiristores

(1) Conexión directa entre el reactor y la barra de alta tensión. (2) Acoplamiento electromagnético entre el devanado principal y el devanado de compensación. (3) Circuito de conexión al transformador de alimentación. (4) Circuito de alimentación del sistema magnetizante de respaldo de la subestación de media tensión. (5) Circuito de alimentación del convertidor AC/DC. (6) Circuito de alimentación del devanado de control para modificar la magnetización del núcleo. (7) Circuito de magnetización del núcleo del reactor. (8) Circuito de control del nivel de tensión en la barra de alta tensión para comparar con un valor especifico. (9) Circuito de control del ángulo de actuación de los tiristores.

.

FUENTE+ DE+ POTENCIA+ REACTIVA+ MAGNETICAMENTE+CONTROLABLE+(SRP)+ Un compensador de potencia reactiva magnéticamente controlado, similar a un compensador estático de potencia reactiva (SVC), consiste de un reactor magnéticamente controlado RMC y bancos de capacitores o filtros capacitivos conectados en paralelo. Funcionalmente, es equivalente a un SVC, ya que el RMC emula al TCR del SVC. La unidad de control automático (ACU) asegura la corriente continua requerida para el cambio de la permeabilidad del reactor y puede enviar señales de disparo a los interruptores de los bancos de capacitores, como se muestra en la Figura 6. A este conjunto entonces se le denomina Fuente de Potencia Reactiva Magnéticamente Controlable (SRP).

Derechos reservados COPIMERA 2015

85


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

A.+ Diseño+de+un+Modelo+a+Escala+del+RMC+

BARRA+DE+ALTA+TENSION

VT

El modelo a escala del RMC (ME-RMC) tiene un devanado principal y un devanado de control, semejante al que se muestra en la Figura 1. Se ha diseñado con la finalidad de controlar la tensión en el terminal de recepción de un sistema de potencia elemental.

TA

BC1

RMC

ACU

El sistema de potencia elemental se ha simulado con una fuente de alimentación (autotransformador) y un modelo a escala de una línea de transmisión de gran longitud, la cual se representa con una configuración tipo ;, con dos (02) capacitores de 20 µF y una bobina de 0.032 H. Con este circuito ; se logra una tensión de 1.1 p.u. en el terminal de recepción, siendo 1.0 p.u. la tensión aplicada en el terminal de envío (Figura 8).

BC2

± 250%V ∼ 220%V

!

Figura 6 Fuente de potencia reactiva magnéticamente controlable

Sistema0de0Alimentación0

Línea0de0Transmisión0

Bobina0

En la Figura 7 se muestra la característica Tensión Corriente en p.u. de una SRP que tiene un rango capacitivo e inductivo del mismo valor. Cuando opera en el rango inductivo puede tolerar una sobrecarga de 30 % durante tiempo del orden de los 15 minutos. Esta característica es muy útil al energizar líneas de transmisión de gran longitud. Se entiende que en condiciones de operación normal no se utiliza esta capacidad, ya que en estas condiciones opera cerca de los valores nominales.

Auto% transformador!

Capacitor0 10

Capacitor0 20

Tensión0de0 Recepción0 VR0

Figura 8 Sistema de Potencia Elemental Para el diseño del ME-RMC, se debe resolver el circuito de la Figura 9.

Figura 9 Circuito del SEP elemental con el ME-RMC conectado en el terminal de recepción

Figura 7 Característica tensión – Corriente de una Fuente de Potencia Reactiva Magnéticamente Controlable

Para que la tensión de recepción sea igual a la que se aplica en envío, el valor de la inductancia de la bobina del ME-RMC debe asumir un cierto valor. Entonces la fuente DC controlada debe inyectar una corriente continua de tal valor que modifique la permeabilidad del núcleo hasta lograr disminuir la inductancia del ME-RMC al valor requerido, a fin de reducir la tensión en el terminal de recepción.

MODELO+A+ESCALA+DEL+RMC+ En el Laboratorio de Electricidad de la Facultad de Ingeniería Eléctrica y Electrónica de la Universidad Nacional de Ingeniería, que en adelante se denominará Laboratorio, se construyó y se realizaron las pruebas de verificación de un modelo a escala de un RMC. Derechos reservados COPIMERA 2015

Tensión0 de0Envío0 VS0

86


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

B.+ Pruebas+en+Laboratorio+

(6)

1.+ Prueba N°1: Determinación de las características del material ferromagnético utilizado en el núcleo del MERMC.

μr

Bmax [T] 2.5

8000 7000

2.0 6000

La primera parte de la prueba consiste en alimentar el devanado principal con una fuente de tensión alterna tal como se muestra en la Figura 10, para obtener valores tensióncorriente. A partir de estos valores se construye la característica natural de magnetización y permeabilidad del núcleo ferromagnético (con una corriente continua nula). En la Figura 11 se aprecia esta característica.

5000

1.5

4000 1.0

3000 2000

0.5 1000 0.0

0

200

400

600

S

2

A

AC

Auto+ transformador 0+260 V

1200

0 1600

1400

Curva&B(H&(con&DC) Curva&de&Permeabilidad&(con&DC)

Figura 12 Características de magnetización y permeabilidad extendidas con la corriente continúa

ME+RMC

AC

220 V

1000

Curva&de&Permeabilidad&(sin&DC)

S

1

800

Hmax [T.m/A.v]

Curva&B(H&(sin&DC)

V

2.+ Prueba N°2: Control de la Tensión con el ME-RMC.

A

AC

DC

R =350Ω V

Esta prueba consiste en demostrar que el ME-RMC puede controlar la tensión en el terminal de recepción del sistema de potencia elemental.

S

3

14 V +*********************+ DC

Figura 10 Esquema de conexión del circuito para la prueba N°1

V

L

S

S

1

3

A

1

μr

Bmax [T] 1.4

8000

1.2

7000

220 V

AC

S

2

Auto+ transformador 0+260 V

V

S

A

A

ME+RMC

3

2

V

R

A

AC

4

R =350Ω V

6000

1.0

S

4

5000 0.8

14 V +777777777777777777777+ DC

4000

Figura 13 Esquema de conexión del circuito para la prueba N°2

0.6 3000 0.4

La Figura 13 muestra el circuito utilizado para simular la energización de una línea de transmisión de gran longitud con el terminal de recepción en vacío, aplicando una determinada tensión en el lado de envío.

2000

0.2

1000

0.0

0 0

50

100

150

200

250

300

350

Hmax [T.m/A.v] Curva&B(H

Curva&de&Permeabilidad

Figura 11 Características de magnetización y permeabilidad La segunda parte de la prueba consiste en alimentar el devanado de control con una fuente de tensión continua, para modificar la permeabilidad del núcleo en el punto de operación, demostrando de esa manera el principio de operación del RMC. En la Figura 11 se aprecia la modificación en la permeabilidad del núcleo ferromagnético en función de la corriente continua del devanado de control. En (6) se muestra una relación empírica entre la permeabilidad relativa del núcleo del ME-RMC y el valor de la corriente continua que se inyecta en el devanado de control. 3CDEFGDH = I JKH = 5735.3 − 16032 ∗ )QR + 19386 ∗ )QR , − 7967 ∗ )QR U

Derechos reservados COPIMERA 2015

87


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Figura 14 Tensiones envío/recepción en función de la corriente continua

Las SRP requeridas están conformadas por un RMC de 70 MVAr en paralelo con un Banco de Capacitores de 50 MVAr.

En la segunda parte de la prueba se conecta el ME-RMC los terminales de recepción; luego se inyecta una corriente continua en el devanado de control para controlar la tensión en el terminal de recepción al valor consigna.

Tabla 1 Tensión en las Barras para Diferentes Casos

En la Figura 14 se muestra la relación Tensión de Envío/Tensión de Recepción en función de la corriente continua. Se aprecia que al incrementar la corriente continua disminuye la reactancia y se incrementa la corriente alterna consumida por el reactor, lo que indica mayor consumo de reactivos, controlando el efecto Ferranti.

BARRA MOYOB220 p.u.

BARRA INT-220 p.u.

BARRA IQUIT220 p.u.

BARRA SEIN p.u.

Energización Línea 1 y 2

1.00

1.079

1.00

1.00

Operación Normal

1.00

1.020

1.00

1.00

1.00

1.020

1.00

1.00

0.80

1.042

1.00

1.00

1.00

1.012

1.00

1.00

CASOS

COMPORTAMIENTO+ EN+ ESTADO+ ESTACIONARIO+DEL+RMC+EN+EL+SEIN+

Sin reactores Shunt (Cáclic y Moyobamba) Sin SRP 1 en Barra 2

La

Pérdida de carga MOYOB

Figura 15 muestra los resultados de la operación en estado estacionario de un proyecto de transmisión de gran longitud de aproximadamente 600 km que se conectará a una subestación existente (Punto de Conexión) en el SEIN, para alimentar una carga del orden de los 150 MW con factor de potencia de 0.95. Utilizando el software DIgSILENT Power Factory se ha modelado el sistema reemplazando el Punto de Conexión en el SEIN mediante un equivalente Thevenin. La SRP fue modelada con un RMC en paralelo con un banco de capacitores.

Lne Caclic-Moyobamba220

-225.02 76.20 109.82

Tabla 2 Potencia Reactiva de los SRP 1 y SRP2

IQUIT220

INT-220

220.00 1.00 -118.44

223.33 1.02 -144.38

Lne Moyobamba - IquitosT1_220

SRP$1

220.00 1.00 -157.00

Lne Moyobamba - IquitosT2_220

150.00 18.80

CASOS

Lod iquitos

MOYOB220 23.10 7.59 Add MOYOB220

Energización Línea 1 y 2

SRP$2

SCSR busbar Mayo -0.00 -50.00

CB Mayo

0.00 19.01 1.90

220.00 1.00 -118.44

EMP of SCSR Mayo

220.00 1.00 -157.00

SCSR busbar Iqu 0.00 -50.00

CB Iqu

Operación Normal Sin reactores Shunt (Cáclic y Moyobamba) Sin SRP 1 en Barra 2

-0.00 -29.83 2.98

EMP of SCSR Iqu

Figura 15 Propuesta para red futura en el sistema eléctrico peruano

Pérdida de carga MOYOB

Los resultados de las simulaciones de diferentes casos se muestran en las Tablas 1 y 2 indican la necesidad de instalar dos SRP, ubicadas en las barras de 220 kV MOYOBAMBA e IQUITOS.

Derechos reservados COPIMERA 2015

RMC 1 MVAr

BC B1 MVAr

SRP 1 MVAr

RMC 2 MVAr

BC B2 MVAr

SRP 2 MVAr

101.6

-50.0

51.6

121.3

-50.0

71.3

19.0

-50.0

-31.0

30.0

-50.0

-20.0

10.9

-50.0

-40.0

29.4

-50.0

-20.6

0.0

0.0

0.0

0.0

-50.0

-50.0

12.1

-50.0

-37.9

9.8

-50.0

-40.2

COMPORTAMIENTO+ TRANSITORIO+ EN+ UNA+ SUBESTACION+DEL+SEIN+

88


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ 17.0 2 1.06 631.89

123 .78 67.17 63.5 6

60.00 39.2 9 41.0 4

Un problema de la operación en tiempo real del Sistema Eléctrico Peruano es el control de tensión en determinadas subestaciones como por ejemplo las registradas en las barras del sistema radial Tingo María-Aguaytía (220 kV) de aproximadamente 73 km y Aguaytía-Pucallpa (138 kV) de 131 km. Una solución es despachar una unidad de la central térmica de Aguaytía a mínima carga, a pesar de ello, las tensiones se mantienen en el límite de la tolerancia permitida por la norma técnica de calidad (0.95 p.u.). La Figura 16 muestra el sistema en mención modelado en el software DIgSILENT Power Factory, con un SRP aun desconectado en la barra de Pucallpa 138 kV. SVCVIZ

0

SRP

0.12 637.51 41.0 4

224 .40 1.02 661.83

-0.00 29.48 0.00

BB&SCSR

VIZ6SVC

1

VIZ6TMAR

VIZ6PANU

224 .40 1.02 661.83

224 .40 1.02 661.83

CB SCSR EMP of SCSR 3.1

49.6 6 611.07 26.5 5

~ G

~ G

40.0 0 10.0 4 34.6 0

0.00 0.00 0.00

40.0 0 10.0 4 40.8 3

60.00 0.00 0.33

AGUA13B

AGUA13A 13.9 4 1.01 694.91

SEIN

73&km

0

1

13.7 6 1.00 697.62

138 .00 1.00 680.21 652.87 61.37 70.4 3

&1

& & &

138 .73 1.01 678.02

636.59 3.98 83.6 5

60.00 60.00 38.45

10.3 8 1.04 697.93

En la Figura 17 se muestra que con el SRP conectado es posible mantener la tensión en la subestación de Pucallpa en 1.0 p.u. 61.30 60.60 72.6 5

TOCA23

7.44 39.5 4 3.49 67.16 84.4 2 87.4 5

TOCA10

+

615.63 611.50 40.3 6

0.13 0.30 0.33

63

AGUA220 24.9 9 1.85 44.4 8

33.2 6 5.27 55.5 4

64

TMAR10B 10.2 1 1.02 699.22

22.7 7 11.5 7 46.4 3

30.1 0 19.2 7 64.9 9

PUCALL10 66

10.0 2 1.00 123 .93

630.04 622.73 610.44 617.59 Tr3&Parqu.. 64.9 46.4 9 3

13.1 6 6.87 34.9 8

PINDU60

131&km

64

62.1 6 1.04 682.49

10.8 3 6.41 91.7 4

15.6 3 7.88 32.5 8

Tr3&Aguay.. 63

3.06 0.06 44.4 8

616.67 26.3 8 78.3 6

66.06 61.56 55.5 4

627.93 60.28 44.4 8

627.09 61.76 55.5 4

63.38 61.69 91.7 4

55.0 2 2.04 70.4 3

23.9 8 1.05 140 .30

0.00 0.00 &

144 .45 1.05 670.26

3.00 1.50 &

67.45 63.58 91.7 4

PINDU23 23.6 2 1.03 686.15

AGUA23

639.04 6.14 87.4 5

AGUA138

3.38 1.69 &

PINDU10 10.1 8 1.02 122 .36

7.45 3.58 &

+

140 .47 1.02 671.78

AUCA138

1.40 0.71 19.9 3

Figura 17 Sistema Eléctrico Radial Tingo María-AguaytíaPucallpa con SRP

8 60.00 60.00 19.9 3

SRP

639.77 67.74 40.8 3

222 .36 1.01 667.61

141 .10 1.02 669.06

37.6 4 66.85 83.6 5

123 .94 57.29 63.6 5

614.68 611.21 38.4 5

TMAR138

9.85 0.99 128 .64

1.30 0.60 &

TMAR220

15.7 4 12.8 7 40.3 6

TMAR10

4

62.20 60.50 72.6 5

618.62 0.32 11.5 5

66

60.00 60.00 40.36

14.7 8 12.5 3 38.4 5

63

22.7 5 0.99 680.46

18.6 5 611.98 11.5 5

TOCA138

3.52 1.32 72.6 5

2.20 0.50 &

649.17 613.42 26.5 5

60.00 0.00 46.43

221 .69 1.01 666.78

0.00 0.00 &

PUCAL138 0

61.40 60.70 19.9 3 17.6 0 629.28 78.3 6

0.00 0.00 0.00

BB&SCSR

Para mostrar el comportamiento transitorio de la zona, se han analizado dos casos:

1

CB SCSR EMP of SCSR 3.1 ~ G

~ G

40.0 0 18.5 3 36.9 8

0.00 0.00 0.00

AGUA13B

13.9 4 1.01 594.97

SEIN

40.0 0 18.5 3 43.6 5

73&km

50.00 0.00 0.33 0

1

13.6 2 0.99 597.68

220 .22 1.00 566.84

19.0 3 57.19 10.6 7

519.00 54.29 10.6 7

539.75 515.94 43.6 5

552.89 511.60 77.0 0

0.13 0.29 0.33

22.8 2 3.47 44.8 2

10.3 2 1.03 598.00 514.60 510.59 37.7 5

515.53 510.85 39.6 2

50.00 0.00 39.62

53

TMAR10 50.00 50.00 37.75

AGUA220 25.1 4 7.45 46.9 3

33.4 8 12.4 8 59.5 3

54

TMAR10B 10.1 6 1.02 599.30

50.00 50.00 44.82

TMAR220

15.6 4 12.1 9 39.6 2

53

220 .10 1.00 567.68

PUCALL10 56

530.01 522.79 52.42 56.67

59.0 0 0.98 583.38

513.07 56.79 36.9 5

10.8 3 6.55 97.1 0

15.6 4 7.98 34.4 2

50.00 519.34 &

53.38 51.69 97.1 0

56.08 52.35 59.5 3

528.11 56.55 46.9 3

527.28 57.98 59.5 3

55.3 9 14.5 3 77.0 0

23.5 5 1.03 140 .17

0.00 0.00 &

3.00 1.50 &

141 .47 1.03 570.42

PINDU23 22.3 1 0.97 587.46

AGUA23 AGUA138

57.45 53.58 97.1 0

3.38 1.69 &

PINDU10

La Figura 18 y la Figura 19 muestran el control de tensión del SRP en las barras de Pucallpa. Se aprecia una acción de regulación similar a la de un SVC, con tiempos de respuesta del orden entre los 150 y 200 ms. 515.55 57.76 34.4 2

2 53

3.08 0.85 46.9 3

7

13.1 7 6.95 36.9 5

Tr3&Parqu.. 60.4 44.8 7 2

PINDU60

131&km

54

6

516.88 25.3 3 76.8 7

9.72 0.97 122 .75

Tr3&Aguay..

3

39.5 7 57.41 5 88.0 8

(b) La desconexión del reactor shunt de 8 MVAr en la barra Pucallpa 138 kV, el cual se asume conectado antes del evento, solamente en este caso.

30.0 7 8.13 60.4 7

56

14.6 9 11.8 8 37.7 5

38

549.36 516.87 27.3 5

4

129 .23 0.94 580.78

&1 & & &

0.00 0.00 &

PUCAL138 0

(a) La respuesta ante una disminución aproximada del 50% la potencia reactiva de la central térmica Aguaytía en servicio,

67.40 62.42 84.4 2

60.00 60.00 84.42

AGUA13A

Rp&Pucallpa

9.60 0.96 120 .87

7.45 3.58 &

Figura 16 Sistema Eléctrico Radial Tingo María-AguaytíaPucallpa sin SRP

4

7 51.40 50.70 19.8 4

+

1.05

DIgSILENT

8

33.50 SRP5Inyecta531.05MVAr Comportamiento5Capacitivo 51.4215s 51.0065p.u.

1.03

31.00

17.7 8 528.28 76.8 7

1.01

28.50

0.99 57.40 52.45 85.0 5

26.00 50.9555s 51.0005p.u.

SRP5Inyecta522.35MVAr Comportamiento5Capacitivo

50.00 50.00 85.05

51.2395s 51.0005p.u. 0.97 23.50 51.0035s 50.9695p.u.

0.95 0.557

55

Derechos reservados COPIMERA 2015

89

0.736 0.916 1.095 PUCAL138:5Voltage,5Magnitude5in5p.u. AGUA220:5Voltage,5Magnitude5in5p.u.

1.275

[s]

1.454

21.00 0.557

0.736 0.916 1.095 SRP:5Reactive5Power/Terminal5i5in5Mvar

Estabilidad5Permanente5 Es15max5

1.275

[s]

Plot5Tension 55Date:5555 Caso5Base5T5con5Controladores5

55Annex:555/1

1.454

+

615.55 67.71 32.5 8


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

1.04

Sistemas de Potencia con perfiles de tensión que provocan que los generadores operen subexcitados o en los límites de los rangos permitidos de potencia reactiva; DIgSILENT

Figura 18 Comportamiento de Q y V en la barra de Pucallpa 138 kV en el caso (a).+ 40.50 51.0035s 51.0345p.u.

Agradecimientos+

SRP5Inyecta536.65MVAr Comportamiento5Capacitivo5

1.03

Los autores agradecen al Comité de Operación Económica del Sistema Interconectado Nacional y a la Universidad Nacional de Ingeniería, por las facilidades otorgadas durante el desarrollo del presente trabajo

38.00

51.0035s 51.0205p.u. Desconexion5Reactor58MVAr SE.5Pucallpa5138kV

1.02

35.50

Referencia+

1.01

[1] US, Pilot Installation of RMC-based SVC “Perfectly reliable SVCs are finally available”, Transmission, Substation Assets Utilization, EPRI, February 2003. [2] A. M. Bryantsev, “Magnetic-Rectifier Controlled Reactors with Extreme Saturation of the Magnetic Circuit”, Russian: Doctoral Thesis (In), 1992. [3] A. M. Bryantsev, “Magnetically Controlled Electrical Reactors”, Collection of Articles, 2nd. Enlarged Edition, 2011. [4] A. M. Bryantsev, V. Dorofeev, M. Zilberman, A. Smirnov, S. Smolovik, “Magnetically Controlled Shunt Reactor Application for AC HV and EHV Transmission Lines“, in CIGRE, 2006. [5] Yao Yao, Baichao Chen, Cuihua Tian, "Modeling and Characteristics Research on EHV Magnetically Controlled Reactor", 2007. [6] ZTR, " Magnetically Controlled Shunt Reactor", Catalogue, 2011

33.00 SRP5Inyecta528.65MVAr Comportamiento5Capacitivo5

1.00

30.50

50.7115s 51.0005p.u. 0.99 0.538

51.3015s 51.0015p.u.

0.730 0.921 1.113 PUCAL138:5Voltage,5Magnitude5in5p.u. AGUA220:5Voltage,5Magnitude5in5p.u.

1.304

[s]

1.496

28.00 0.538

0.730 0.921 1.113 SRP:5Reactive5Power/Terminal5i5in5Mvar

Estabilidad5Permanente5

1.304

[s]

1.496

Plot5Tension 55Date:5555

55 Figura 19 Comportamiento de Q y V en la barra de Pucallpa 138 kV en el caso (b). + Es15max5

Caso5Base5V5con5Controladores5

+

55Annex:555/1

Conclusiones+ El RMC y la SRP (conformado por un RMC con un banco de capacitores en paralelo) configuran importantes opciones de compensación reactiva a ser tomadas en cuenta en sistemas eléctricos de potencia como el peruano, donde existen redes radiales, con cargas alejadas de los centros de generación y con líneas de transmisión de gran longitud. •! Se construyó un RMC a escala reducida. Las pruebas de laboratorio han demostrado de manera práctica el principio de funcionamiento de un RMC, mostrando el cambio de la permeabilidad en el núcleo del reactor mediante la inyección en el devanado de control de una corriente continua. •! Asimismo, se mostró de manera práctica cómo el RMC puede controlar la tensión de una barra de un SEP elemental, con lo cual se da a conocer la funcionabilidad del RMC en los SEP Entonces, el RMC y/o la SRP pueden ser aplicados en: •! Sistemas de potencia con líneas de gran longitud que presentan fluctuaciones significativas (diaria y/o estacional) en el flujo de potencia, por la naturaleza de las cargas que alimenta; •! Líneas de transmisión troncales propensas a los cambios frecuentes en el valor y dirección del flujo de potencia; •! Sistemas de Potencia o Distribución que utilizan transformadores con regulación automática bajo carga y equipos de conmutación de bancos de capacitores, que se utilizan regularmente para la estabilización de la tensión; •! Sistemas de Potencia con altas pérdidas joule por el alto componente reactivo de la corriente;

Derechos reservados COPIMERA 2015

90


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

91


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.! !

!

MEJORAMIENTO!METODOLOGICO!DE!LAS!PROYECCIONES!DE!LA!DEMANDA! ELECTRICA!DEL!PERU!MEDIANTE!MODELOS!ECONOMETRICOS! COINTEGRADOS!Y!ANALISIS!PREDICTIVO!ESTOCASTICO!DEL!PBI! !

Dr. Ing. Salome Gonzáles Chávez Comité'de'Operación'Económica'del'Sistema'Interconectado'Nacional'–'COES'SINAC' Lima,'Perú' ! ! !

Resumen!

formula diversos modelos de transformación y estructura funcional en base al cumplimiento tanto de los condicionantes econométricos como estadísticos de consistencia y representatividad (estacionariedad, colinealidad, especificación funcional, estabilidad de parámetros, causalidad unidireccional).

' Este trabajo tiene como objetivo el mejoramiento metodológico para la estimación de las proyecciones de la Demanda Eléctrica Interconectada del Perú a un determinado horizonte predictivo, mediante adecuada formulación econométrica dinámica cointegrada, así como la estimación de las proyecciones del Producto Bruto Interno utilizando formulación estocástica ARIMA.

Los resultados obtenidos demuestran mayor eficiencia predictiva tanto de la Demanda Eléctrica nacional como del PBI. La calidad predictiva se evalúa mediante estimadores estadísticos de error (Error Absoluto Medio PorcentualMAPE), costos, rapidez y robustez predictiva, comparativos a otros métodos transversales como Investigación de Mercados. '

La Demanda Eléctrica del Perú guarda relación con el Producto Bruto Interno nacional, volumen poblacional y las ventas de electricidad al cliente final; variables explicativas que poseen comportamientos evolutivos no estables y con tamaño muestral limitados, situación que genera alta propensión a arreglos regresivos de naturaleza espuria. El PBI constituye la variable de mayor influencia en la explicación de la Demanda Eléctrica, por lo que requiere un profundo análisis en su comportamiento evolutivo y predictivo, proponiendo para ello su análisis mediante enfoque estocástico ARIMA (modelo Integrado Autoregresivo-Medias Móviles).

Introducción! ' La importancia del presente estudio se enmarca en el mejoramiento de metodología y nivel de aproximación de las proyecciones de la Demanda del Sistema Eléctrico Interconectado Nacional Peruano- SEIN; es decir: •' Se obtiene la mejora en la formulación y estimación de las proyecciones de la Demanda Eléctrica Interconectada del Perú para un horizonte predictivo de mediano a largo plazo, mediante una apropiada formulación econométrica dinámica cointegrada, utilizando como información histórica la lectura de medidores de generación. •' Se formula y calcula las proyecciones en resolución mensual del Producto Bruto Interno Nacional, mediante Modelos Estocásticos Estacionarios con exploración de Sucesos Externos, enfoque alternativo al análisis de mercado de corte cualitativo (método más caro y de alta robustez en el pronóstico de mediano y largo plazo).

Actualmente las proyecciones de la Demanda Eléctrica Interconectada del Perú, se estiman desagregando en una parte vegetativa y otra parte conformada por cargas especiales-incorporadas y ampliaciones-nuevos proyectos. A la primera se proyecta mediante modelos econométricos, mientras que a la segunda se suman por fuera las proyecciones declaradas por grandes clientes libres encuestados anualmente. Una desventaja de este procedimiento es la extrema sobredimensión de las proyecciones declaradas por ampliaciones-nuevos proyectos, lo cual genera sobredimensión e incertidumbre especialmente en los primeros años del horizonte predictivo.

El pronóstico mensual del PBI nacional utilizando modelos estocásticos ARIMA, constituye una alternativa altamente eficaz, puesto que se explora los patrones de tendencia, estacionalidad, ciclaje y aleatoriedades típicas de esta

Para la determinación del modelo econométrico biecuacional cointegrado, tal que mejore las proyecciones de la Demanda Eléctrica a un horizonte predictivo prefijado, se Derechos reservados COPIMERA 2015

92


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

variable, mediante transformaciones apropiadas para la estabilización de varianzas, estabilidad de medias regulares y estacionales, así como el filtrado de sucesos externos, hasta alcanzar la estacionariedad lineal; con ello se logra un eficiente grado de ajuste predictivo comparativo a otras alternativas de proyección del tipo transversal causal y dependiente de muchas variables explicativas. La información histórica del PBI cuantificada en paso mensual, constituye la forma oficial de manejo en las Cuentas Nacionales, por ende constituye una serie histórica natural.

econométrico y de aproximación, como es la modelización ARIMA con Sucesos Externos, (Ref. 1). La data histórica de la Demanda a nivel de generación, utilizada para el presente estudio, es obtenida desde medidores de generación del SEIN, procesada en resolución mensual y es caracterizada como información de mayor confianza frente a la información estadística proveniente de lecturas SCADA. En cambio la Demanda Vegetativa SEIN (Ventas Vegetativas), posee incertidumbre en los primeros años históricos y es obtenida indirectamente de descontar a las ventas totales de energía regulada y libre, las ventas libres sin historia correspondientes a grandes usuarios libres. En el siguiente diagrama de flujo se muestra la distribución de la Demanda Eléctrica SEIN para el año 2014

Al ser el Producto Bruto Interno una variable exógena fundamental para la elaboración del modelo econométrico de proyección de la Demanda del SEIN, es imprescindible que la metodología a utilizar para las proyecciones del PBI en el rango predictivo de análisis, posea un alto rigor estadístico, ' Demanda'a'nivel'de'Generación'SEIN 42020 Demanda'a'nivel'de'Generación'COES 41796

******(210) Autoproductores'+'Disminuc.'Pérdidas'REP 600 Consumo'Propio'Centrales 10253 Nuevos'Proyectos'y'Ampliaciones'+ Cargas'Incorporadas'+'Cargas'Especiales

31377 Demanda*al*nivel*de*Transmisión

Ventas'Generador MAT,'AT,'MT 4331

Pérdidas'en'Transmisión 2366

24680 Entrada'al'nivel'de'Distribución'

Ventas'Vegetativas 26573

Pérdidas'en'Transf.'Transm.'Distribuidor 572

Ventas'Distribuidor MAT'y'AT 486

23622 Entrada'al'nivel'de'Distribución'(MT'y'BT)

Pérdidas'MT'y'BT 1866 Ventas'Distribuidor MT'y'BT 21756

'

' Figura 1. Diagrama de flujo de la Demanda Eléctrica del SEIN-Perú del año 2014, en GWh

'

Derechos reservados COPIMERA 2015

93


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

Entre las características evolutivas intrínsecas de la Demanda Total del SEIN, que condicionan a las proyecciones metodológicas de largo plazo, se tienen:

cumplimiento de econométricos:

condicionantes

estadísticos

[DEMANDA] = C0 + α [PBI ] + β [TAR ]+ γ [POB]

•' Información histórica limitada tanto en resolución anual como en mensual, de las variables necesarias para la determinación de las proyecciones a un amplio horizonte predictivo. El periodo histórico muestral en resolución mensual se tiene solamente desde julio 1997. •' El comportamiento evolutivo no estable de la Demanda Total, influenciado por la no uniformidad de las demandas históricas y futuras de grandes industrias extractivas y manufactureras.

y (1)

DEMANDA: Variable objetivo que representa la Demanda Eléctrica del SEIN, cuya data histórica es obtenida desde medidores de generación. En el 2014 representó el 97% de la demanda nacional peruana. PBI: Producto Bruto Interno del Perú. El PBI del SEIN representa alrededor del 98 % del PBI Perú TAR: Tarifa media anual de electricidad. Es la tarifa anual promedio vendido por distribuidoras y generadoras a clientes finales. POB: Población del Perú. La Población SEIN representa alrededor del 97 % de la población peruana [ ] : Operador matemático C0: Constante

Bajo tales características, comúnmente se realiza el pronóstico de la Demanda total del SEIN, desagregándolo en: •' Demanda Vegetativa. Constituye el mayor volumen de la demanda total del SEIN, se caracteriza por presentar una tendencia estable de crecimiento. Su desventaja está en la calidad de data histórica anual y limitación de data en resolución mensual. •' Demanda de Grandes proyectos futuros y ampliaciones. Corresponde a las demandas futuras de energía y potencia de grandes clientes libres (minera y manufacturera), tanto por nuevos proyectos como por ampliaciones Su desventaja es la extrema sobredimensión de sus proyecciones declaradas. •' Demanda de Cargas Especiales. Lo conforman algunas demandas mineras y manufactureras mayores de consumo no regulado. Dado que éstas se han ido interconectado en el tiempo al SEIN, no se dispone de información estadística histórica amplia. •' Demanda de Cargas Incorporadas. Corresponden a aquellos pequeños sistemas eléctricos aislados que a través del tiempo se fueron incorporando al SEIN. '

2.1 PROYECCION DEL PBI MEDIANTE MODELOS ESTOCASTICOS ARIMA CON INTERVENCION La proyección del PBI al horizonte predictivo objetivo, se ha realizado mediante una estructura estocástica ARIMA con Análisis de Intervención (Ref. 4). La muestra histórica del PBI lo constituye la serie mensual emitida por el Banco Central de Reserva del Perú, en millones de nuevos soles de 2007, desde enero de 2003 hasta junio del 2015. En la figura 2 se muestra el comportamiento evolutivo mensual del PBI, de donde se puede observar que esta serie posee las siguientes características a lo largo del horizonte histórico en estudio: tendencia con comportamiento no estable; estacionalidad con notoria variabilidad e irregularidades de nivel. 550000 500000

Metodología!y!Calculo!

450000

' La Demanda Eléctrica del SEIN, al caracterizarse como un bien de consumo necesario, se parte de la premisa que obedece a las leyes econométricas siempre que las variables explicativas tengan que cumplir estrictamente con los condicionantes estadísticos de una regresión representativa (Ref. 2). En general, para la especificación de un modelo econométrico, se propone un ordenamiento matemático multivariante, en el cual se relacione la variable objetivo con las variables explicativas y las perturbaciones aleatorias. Entonces; se debe definir el número de ecuaciones y variables participantes, así como la forma funcional que las relaciona (Ref. 3).

400000 350000 300000

200000

Ene03 Sep03 May04 Ene05 Sep05 May06 Ene07 Sep07 May08 Ene09 Sep09 May10 Ene11 Sep11 May12 Ene13 Sep13 May14 Ene15

250000

Fig. 2. Evolución mensual del PBI, en millones de nuevos soles de 2007

Una estructura del modelo econométrico que relaciona a la Demanda SEIN con variables explicativas socio-económicas, estará dada en principio por la siguiente expresión genérica, ecua. 1, donde el corchete indica el operador matemático que se le pudiera aplicar a cada variable considerada en base al

Derechos reservados COPIMERA 2015

los

Luego del proceso de identificación del modelo, estimación de parámetros y validación (Ref. 5, 6), se obtiene un modelo que representa estadísticamente la descripción más cercana del comportamiento evolutivo del PBI nacional a lo largo del 94


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

horizonte histórico objetivo. Así se obtiene las proyecciones del PBI en el escenario Base, cuya ecuación (ecua. 2) de proyección tiene la forma:

(1 − L)(1 − L12 ) (1 − 0.414L12 ) log PBI t = (1 − 0.615L + 0.252L2 )(1 − 0.908L12 )u t

Una vez calculado el modelo ARIMA con Análisis de Intervención, que lleva a la estimación proyectiva del escenario Base del PBI, también se pueden estimar los valores extremos. Del punto de vista estadístico, estas proyecciones extremas corresponden a los límites de confianza a lo largo del horizonte de predicción de la variable proyectada con modelos ARIMA. La banda de predicción en el horizonte predictivo, viene a ser una medida de la certidumbre en la dispersión de los valores individuales, en este caso del PBI proyectado, a un determinado nivel de confianza prefijado. En general se adopta una banda al 95% de confianza, LC, ecua.4, lo cual implica que un 95% de los datos sobre los que se ha realizado la proyección del PBI, están contenidos dentro de esta banda (Ref. 7).

(2)

L es el Operador retardo y el componente de error o residuo ut es: ∧ (3) ut = PBIt − PBI t En las figuras 3 y 4 se muestran las salidas gráficas del pronóstico ARIMA del PBI para el escenario Base, al horizonte diciembre 2019, en resolución mensual (ámbito de cálculo) y en resolución anual (agrupamiento de proyecciones).

aproximadamente al valor tabular para una distribución t, asociado a una probabilidad de 0.025 y 60 grados de libertad. SE es el error estándar del pronóstico. En el caso de una sola ecuación sin variables dependientes rezagadas o términos ARMA, los errores estándar de pronóstico se calculan como:

SE = S * 1 + X t ' ( X ' X ) −1 X t S:

(5)

Error estándar del modelo de regresión

X t ':

Transpuesta de variable en la muestra de predicción

o de validación

X ' : Transpuesta de variable en la muestra de estimación o de trabajo

Fig. 3 Proyecciones mensuales del PBI ARIMA esc. Base

En la figura 5 se ilustra las proyecciones medio y optimista extremo del PBI nacional peruano.

700000 600000

800000

500000

700000

400000

600000 500000

300000

400000

PBI6Histórico PBI6Proy6ARIMA6A Medio

300000 200000

0

100000 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019

100000

Fig. 4 Proyecciones anuales del PBI ARIMA esc. Base –millones de Nuevos Soles del 2007

Derechos reservados COPIMERA 2015

0

PBI6Histórico PBI6Proy6ARIMA6A Medio PBI6Proy6ARIMA6A Optimista6extremo 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019

200000

(4)

PBIt : PBI proyectado; el valor de 2 corresponde

2003M01 2003M11 2004M09 2005M07 2006M05 2007M03 2008M01 2008M11 2009M09 2010M07 2011M05 2012M03 2013M01 2013M11 2014M09 2015M07 2016M05 2017M03 2018M01 2018M11 2019M09

650000 600000 550000 500000 450000 400000 350000 300000 250000 200000

LC = PBIt ± 2 * SE

Fig. 5 Proyecciones anuales del PBI ARIMA- millones de Nuevos Soles del 2007

95


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

El proceso de cálculo del modelo econométrico con el que se pronostica el comportamiento futuro de la Demanda Eléctrica SEIN, a partir de las variables explicativas PBI, Población y Tarifa, obedeciendo a condicionantes estadísticos y econométricos, se resume en el siguiente diagrama de flujo de la figura 7.

En relación a la calidad predictiva del modelo propuesto del PBI, tal como se muestra en la Tabla 1, el error absoluto medio porcentual del rango histórico es del orden del 0.3%, lo cual es indicativo de un alto nivel de ajuste predictivo anual. Asimismo; cuando se compara frente a las proyecciones realizadas con otros métodos más caros y robustos como son Investigación de Mercado, Building Blocks con multiecuaciones de Balanza de Pagos y relaciones de Cuentas Nacionales, mostrado en la figura 6, el margen de desviación comparativa en el horizonte predictivo 2015-2019 es del orden de 0.9 %, valor también indicativo de eficiencia predictiva del modelo propuesto.

Dadas las características intrínsecas temporales de las variables en estudio y el proceso de identificación estadísticoeconométrico realizado, el modelo cointegrado estará constituido por dos ecuaciones que representan: un Modelo Estructural (relación de largo plazo, expresado a través de la ecuación de Cointegración) y, un Modelo de Corrección del Error cuya ecuación expresa la dinámica evolutiva de corto plazo (Ref. 8).

Tabla 1. Calidad de ajuste

Año

2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 ' ' 600000 ' '580000 ' '560000 '540000 ' '520000 ' 500000 ' '480000 ' '460000 '440000 ' '420000 '400000 ' 2015 '

PBI Histórico (mill Nuevos soles del 2007

PBI ARIMA Escenario Medio

Error Relativo Porcentual

273971 294598 319693 348923 352584 382380 407052 431273 456159 466879

274101 294571 317707 350554 353370 380975 407022 432659 454863 470683

0.05% 0.01% 0.62% 0.47% 0.22% 0.37% 0.01% 0.32% 0.28% 0.81%

MAPE

0.32 %

Tratamiento!de!la! Información!de!las! variables! temporales!

Selección!de!Modelo! Econométrico:! Relación!funcional! entre!variables!

Estimación! de! parámetros! o!

Inferencia! sobre!los! estimados!

TRANSFORMAE CIONES'EN' BASE'A:' • Criterio' sEstadísticos' • Criterios' Econométricos'

Proyecciones! 2015$2019!

Toma!de! decisiones!

PBI6Proy6ARIMA6A Medio PBI6Proy6Investigación6 de6MercadoA Medio

2016

2017

2018

Fig. 7 Diagrama de flujo del proceso de cálculo En la especificación funcional de este modelo, se determina que la Demanda Eléctrica SEIN se explica por el comportamiento evolutivo del Producto Bruto Interno, la población y la Tarifa anual promedio, ello identificado bajo un arreglo de regresión con transformación en logaritmos (primera ecuación de regresión). La aplicación de logaritmos proviene de que cada variable participante alcanza estabilidad en sus varianzas, y por lado proporciona explicación econométrica de los coeficientes (elasticidades) de la regresión formulada.

2019

Fig.'6''Comparación'predictiva'ARIMA'vs'Investigación'de' Mercado'

' 2.2! ESTRUCTURA! DEL! MODELO! ECONOMÉTRICO! PARA!LA!PROYECCION!DE!LA!DEMANDA! ' Derechos reservados COPIMERA 2015

96


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

•' Estacionariedad y orden de integracion de las variables participantes en cada modelo: prueba de raíz unitaria de Dickey-Fuller Aumentado, ADF •' Colinealidad entre las variables explicativas en cada modelo: prueba con matriz de correlaciones •' Especificación funcional: prueba de Ramsey •' Estabilidad de los parámetros. La prueba de residuos recursivos y la prueba de suma acumulada de los residuos normalizados al cuadrado •' Causalidad unidireccional: prueba de Granger

La segunda ecuación corresponde al modelo de corrección de error, que recoge la dinámica de corto plazo; se basa en una regresión teniendo como variable dependiente a la primera diferencia de la serie demanda transformada en logaritmos, y como variables explicativas a los retardos de la variable explicada, el retardo de los residuos generados por el modelo estructural (“error de largo plazo”) y el PBI en primeras diferencias de la serie transformada en logaritmos. ' Con la finalidad de filtrar los sucesos externos en la evolución histórica de la Demanda, se eligen variables ficticias de tipo pulso. '

3.2 ESTIMACION DE PARAMETROS Como propuesta de solución, a continuación se presentan los resultados de las proyecciones de la Demanda del SEIN a un horizonte predictivo 2015-2019. La estimación de los parámetros del modelo seleccionado se realizó con el programa computacional E-Views (Ref. 10), cuyas salidas son las expresiones ecua. 8 y ecua. 9.

PROYECCIONES! DE! LA! DEMANDA! SEIN! DEL!PERU! ' 3.1! IDENTIFICACION!DEL!MODELO!ECONOME! TRICO! ' La estructura matemática del modelo econométrico está conformada por las expresiones ecua. 6 y ecua. 7.

Ecuación de Cointegración: LOG(DEMG) = C(1)*LOG(PBIB) + C(2)*LOG(POB) + C(3)*LOG(TAR) + C(4)*INT569 + C(5)

Ecuación de largo plazo:

Ln(DEMANDA) = k 1 * Ln(POB) + k 2 * Ln(PBI) + k 3 * Ln(TAR) + k 4 * INT 569 + u + C

(6)

Ecuación de Corrección de Error: D(LOG(DEMG)) = C(1)*DLOG(PBIB) + C(2)*(LOG(DEMG(-1))-(0.538519*LOG(PBIB(1))+0.072812*LOG(TAR(-1))+ (9) 2.483975*LOG(POB(-1))-0.023509*INT569(-1)22.24024)) + C(3)*D(INT569) + C(4)

Ecuación de corto plazo: D(Ln(DEMANDA)) = c1 * D(Ln(PBI)) + c2 D(Int569 )

(7)

+ u (-1 ) + γ

Siendo:

Donde:

Ln(DEMANDA): Logaritmo natural de la Demanda SEIN de electricidad Ln(PBI): Logaritmo natural del Producto Bruto Interno del Perú. Ln(TAR): Logaritmo natural de la tarifa anual promedio a clientes finales Ln(POB): Logaritmo natural de la población Perú C: Constante D(Ln(PBI)): Primera diferencia del logaritmo de PBI D(Ln(DE)): Primera diferencia del logaritmo de la Demanda SEIN D(Int569): Primera diferencia de la variable ficticia pulso en 2005, 2006 y 2009 u: Estimación del error de largo plazo γ: Estimación del error de corto plazo

LOG(DEMG): LOG(PBIB):

Logaritmo natural de la Demanda Logaritmo natural del PBI Perú, escenario Base LOG(POB): Logaritmo de la población Perú LOG(TAR): Logaritmo de la tarifa promedio a clientes Finales D(LOG(DEMG)): Primera diferencia en logaritmos de la Demanda D(LOG(PBIB)): Primera diferencia en logaritmos del PBI Perú, escenario Base D(INT569): Primera diferencia de la variable ficticia pulso en 2005, 2006 y 2009 C(4): Constante de la ecuación de corto plazo C(5): Constante de la ecuación de largo plazo C(i): Coeficientes de ecuaciones de largo plazo y corto plazo

El proceso de cálculo y selección del mejor modelo de regresión biecuacional, se ha realizado tomando como premisas el cumplimiento simultáneo de los condicionantes tanto estadísticos como econométricos; para ello se realizaron las siguientes pruebas (Ref. 8, 9):

Derechos reservados COPIMERA 2015

(8)

La estimación de cada coeficiente de las ecuaciones de regresión de cointegración y correctiva de error, se realizan para los dos escenarios de la variable explicativa PBI, que

97


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

llevan a las proyecciones de la Demanda SEIN en dos escenarios: base o conservador y extremo.

3.3! PROYECCIONES! '

En las tablas 2 y 3 se muestra las estimaciones de los coeficientes mediante Mínimos Cuadrados Ordinarios, realizadas en el programa E-Views. ' ' ' Los' resultados' de' las' proyecciones' de' la' Demanda' Interconectada' del' Perú' para' el' horizonte' 2015' E' 2019,' se' muestran'en'la'Tabla'4'y'Figura'7.' ' ' ' Tabla'2'Estimación'de'Ecuación'de'Largo'Plazo'

'

' Dependent'Variable:'LOG(DEMG)' ' ' Method:'Least'Squares' ' ' Sample'(adjusted):'1998'2014' ' ' Included'observations:'17'after'adjustments' ' '' '' '' '' '' Variable' Coefficient' Std.'Error' tEStatistic' Prob.''' '' '' '' '' '' LOG(PBIB)' 0.538519' 0.044663' 12.05732' 0.0000' LOG(POB)' 2.483975' 0.153299' 16.20347' 0.0000' LOG(TAR)' 0.072812' 0.032502' 2.240239' 0.0448' INT569' E0.023509' 0.003902' E6.025316' 0.0001' C' E22.24024' 1.077899' E20.63296' 0.0000' '' '' '' '' '' REsquared' 0.999770'''''Mean'dependent'var' 10.14181' Adjusted'REsquared' 0.999693'''''S.D.'dependent'var' 0.313492' S.E.'of'regression' 0.005491'''''Akaike'info'criterion' E7.331393' Sum'squared'resid' 0.000362'''''Schwarz'criterion' E7.086330' Log'likelihood' 67.31684'''''HannanEQuinn'criter.' E7.307033' FEstatistic' 13033.78'''''DurbinEWatson'stat' 2.036459' Prob(FEstatistic)' 0.000000' ' ' ' '' '' '' '' '' Tabla'3''Estimación'de'Ecuación'de'Corrección,'proyecciones'

' Dependent'Variable:'D(LOG(DEMG))' ' Method:'Least'Squares' ' ' Sample'(adjusted):'1999'2014' ' ' Included'observations:'16'after'adjustments' ' ' ' ' ' ' ' ' ' ' ' Variable' Coefficient' Std.'Error' tEStatistic' Prob.''' ' ' ' ' ' ' ' ' ' ' DLOG(PBIB)' 0.494060' 0.061638' 8.015544' 0.0000' LOG(DEMG(E1))E(0.538519*LOG(PBIB(E 1))+0.072812*LOG(TAR(E 1))+2.483975*LOG(POB(E1))E 0.023509*INT569(E1)E22.24024)' E1.126889' 0.321102' E3.509442' 0.0043' D(INT569)' E0.020583' 0.003156' E6.521665' 0.0000' C' 0.034984' 0.003321' 10.53421' 0.0000' ' ' ' ' ' ' ' ' ' ' REsquared' 0.943865'''''Mean'dependent'var' 0.059684'

Derechos reservados COPIMERA 2015

98


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

Adjusted'REsquared' S.E.'of'regression' Sum'squared'resid' Log'likelihood' FEstatistic' Prob(FEstatistic)'

0.929831'''''S.D.'dependent'var' 0.005583'''''Akaike'info'criterion' 0.000374'''''Schwarz'criterion' 62.60653'''''HannanEQuinn'criter.' 67.25657'''''DurbinEWatson'stat' 0.000000' ' ' ' ' '

0.021077' E7.325816' E7.132669' E7.315925' 1.986275' ' '

' ' ' Tabla'4''Evolución'y'resultados'proyectados'de'la'Demanda'SEIN'del'Perú'2015E2019' ' Demanda' Población' PBI'ARIMA' Tarifa' Interconectada' Var' Var' Perú' Perú' Año' PBI' Demanda' %' %' Millones'PEN' Ctvs' Miles'Hab.' GWh' de'2007' US$/kWh' 1998' 25182.3' 213189.91' 7.040' 16084.5' '' '' 1999' 25588.5' 216376.81' 6.850' 16728.0' 1.5%' 4.0%' 2000' 25983.6' 222206.67' 7.160' 17633.7' 2.7%' 5.4%' 2001' 26366.5' 223579.53' 7.025' 18462.7' 0.6%' 4.7%' 2002' 26739.4' 235773.04' 6.600' 19657.8' 5.5%' 6.5%' 2003' 27103.5' 245592.63' 6.640' 20688.4' 4.2%' 5.2%' 2004' 27460.1' 257769.80' 7.040' 21902.7' 5.0%' 5.9%' 2005' 27810.5' 273971.07' 7.614' 23001.5' 6.3%' 5.0%' 2006' 28151.4' 294597.85' 7.581' 24762.8' 7.5%' 7.7%' 2007' 28481.9' 319693.00' 7.410' 27254.3' 8.5%' 10.1%' 2008' 28807.0' 348923.00' 8.080' 29558.7' 9.1%' 8.5%' 2009' 29132.0' 352584.02' 8.232' 29807.2' 1.0%' 0.8%' 2010' 29461.9' 382380.00' 8.202' 32426.8' 8.5%' 8.8%' 2011' 29797.7' 407051.98' 8.906' 35221.7' 6.5%' 8.6%' 2012' 30135.9' 431272.99' 9.870' 37281.4' 6.0%' 5.8%' 2013' 30475.1' 456172.23' 9.770' 39667.2' 5.8%' 6.4%' 2014' 30814.2' 466895.50' 10.360' 41795.8' 2.4%' 5.4%' 2015' 31151.6' 477720.31' 10.360' 43427' 2.3%' 3.9%' 2016' 31488.6' 496053.44' 10.360' 45509' 3.8%' 4.8%' 2017' 31826.0' 519350.28' 10.360' 47895' 4.7%' 5.2%' 2018' 32162.2' 545595.68' 10.360' 50496' 5.1%' 5.4%' 2019' 32495.5' 573975.58' 10.360' 53261' 5.2%' 5.5%' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' Derechos reservados COPIMERA 2015

99


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

70000 60000 50000 40000 30000 Demanda6Histórica6SEINAGWh

20000

Proyeccion6Demanda,6Esc.Medio6A GWh

2019

2018

2017

2016

2015

2014

2013

2012

2011

2010

2008

2007

2006

2005

2004

2003

2002

2001

2000

1999

0

2009

Proyeccion6Demanda,6Esc.Extremo6A GWh

10000

1998

' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' '

Fig.'7''Resultados'proyectados'de'la'Demanda'Eléctrica'Interconectada'del'Perú'2015E2019E'GWh' ' '

Derechos reservados COPIMERA 2015

100


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

Conclusiones!

9)' Maddala, G.S. Econometrics, McGraw-Hill, Nueva York, 1977 10)'Quantitative Micro Software, E-VIEWS. Estimation, Forecasting, Advanced Statistical. CA USA, 2012.'

' •' Se ha obtenido un modelo alternativo explicativo y predictivo del PBI mediante formulación estocástica ARIMA con análisis de intervención, que captura las variaciones de tendencia, estacionalidad e irregularidades atípicas a lo largo del horizonte mensual histórico y de predicción. Los resultados alcanzados permiten proyectar al PBI por escenarios base y extremo, con alta calidad predictiva que se demuestra con el indicador de error MAPE de 0.3% (valor muy por debajo de los márgenes referenciales). Asimismo el margen de desviación comparativa en el horizonte predictivo 2015-2019, frente a modelos convencionales de investigación de mercados (costoso y mayor tiempo de elaboración), se encuentra en el orden del 0.9%. •' El modelo econométrico cointegrado calculado para la proyección de la Demanda Eléctrica del Sistema Interconectado del Perú, basado en el análisis de cointegración, cumple con los condicionantes de estacionariedad del modelo biecuacional, colinealidad de las variables explicativas, especificación funcional, estabilidad de los parámetros y causalidad unidireccional; por ende se demuestra la representatividad del sistema de regresión bi-ecuacional calculado. •' De los resultados proyectados de la Demanda Eléctrica SEIN del Perú, en el horizonte 2015 al 2019, se observa una tasa de crecimiento anual de 3.9% al 5.5 %; mientras que el PBI en el mismo lapso evoluciona con una tasa de crecimiento del 2.3 % al 5.2 %.. Comparativamente a otras formas de proyección existentes, estos resultados van más acorde con las expectativas económicas y políticas coyunturales del país. Bibliografia 1)' Gonzales, S. Pronóstico de Largo Plazo del PBI nacional mediante modelos ARIMA con Análisis de Sucesos Externos. COES-SINAC, Lima, 2014. 2)' Gujarati, D. Econometría. MC Graw Hill, México, 2004 3)' Draper, N.R. Applied Regression Analysis, John Wiley and Sons, Nueva York, 1998 4)' Parzen, E., Procesos Estocásticos. Paraninfo, Madrid, 1972. 5)' Box, G.E.P.and Jenkins, G.M. Time Series Analysis: Forecasting and Control. Holden Day, San Francisco, 1976. 6)' Jenkins, G.M. Practical Experiences with Modelling and Forecasting time Series. Gwilym Jenkins and Partners, San Francisco, 1979. 7)' Pankratz, A. Forecasting with Univariate Box-Jenkins Model: Concepts and Cases. John Wiley, New York, 1983. 8)' Verbeek, M. A Guide to Modern Econometrics, John Wiley and Sons, Nueva York, 2000

Derechos reservados COPIMERA 2015

101


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.! !

!

MEJORAMIENTO!METODOLOGICO!DE!LAS!PROYECCIONES!DE!LA!DEMANDA! ELECTRICA!DEL!PERU!MEDIANTE!MODELOS!ECONOMETRICOS! COINTEGRADOS!Y!ANALISIS!PREDICTIVO!ESTOCASTICO!DEL!PBI! !

Dr. Ing. Salome Gonzáles Chávez Comité'de'Operación'Económica'del'Sistema'Interconectado'Nacional'–'COES'SINAC' Lima,'Perú' ! ! !

Resumen!

formula diversos modelos de transformación y estructura funcional en base al cumplimiento tanto de los condicionantes econométricos como estadísticos de consistencia y representatividad (estacionariedad, colinealidad, especificación funcional, estabilidad de parámetros, causalidad unidireccional).

' Este trabajo tiene como objetivo el mejoramiento metodológico para la estimación de las proyecciones de la Demanda Eléctrica Interconectada del Perú a un determinado horizonte predictivo, mediante adecuada formulación econométrica dinámica cointegrada, así como la estimación de las proyecciones del Producto Bruto Interno utilizando formulación estocástica ARIMA.

Los resultados obtenidos demuestran mayor eficiencia predictiva tanto de la Demanda Eléctrica nacional como del PBI. La calidad predictiva se evalúa mediante estimadores estadísticos de error (Error Absoluto Medio PorcentualMAPE), costos, rapidez y robustez predictiva, comparativos a otros métodos transversales como Investigación de Mercados. '

La Demanda Eléctrica del Perú guarda relación con el Producto Bruto Interno nacional, volumen poblacional y las ventas de electricidad al cliente final; variables explicativas que poseen comportamientos evolutivos no estables y con tamaño muestral limitados, situación que genera alta propensión a arreglos regresivos de naturaleza espuria. El PBI constituye la variable de mayor influencia en la explicación de la Demanda Eléctrica, por lo que requiere un profundo análisis en su comportamiento evolutivo y predictivo, proponiendo para ello su análisis mediante enfoque estocástico ARIMA (modelo Integrado Autoregresivo-Medias Móviles).

Introducción! ' La importancia del presente estudio se enmarca en el mejoramiento de metodología y nivel de aproximación de las proyecciones de la Demanda del Sistema Eléctrico Interconectado Nacional Peruano- SEIN; es decir: •' Se obtiene la mejora en la formulación y estimación de las proyecciones de la Demanda Eléctrica Interconectada del Perú para un horizonte predictivo de mediano a largo plazo, mediante una apropiada formulación econométrica dinámica cointegrada, utilizando como información histórica la lectura de medidores de generación. •' Se formula y calcula las proyecciones en resolución mensual del Producto Bruto Interno Nacional, mediante Modelos Estocásticos Estacionarios con exploración de Sucesos Externos, enfoque alternativo al análisis de mercado de corte cualitativo (método más caro y de alta robustez en el pronóstico de mediano y largo plazo).

Actualmente las proyecciones de la Demanda Eléctrica Interconectada del Perú, se estiman desagregando en una parte vegetativa y otra parte conformada por cargas especiales-incorporadas y ampliaciones-nuevos proyectos. A la primera se proyecta mediante modelos econométricos, mientras que a la segunda se suman por fuera las proyecciones declaradas por grandes clientes libres encuestados anualmente. Una desventaja de este procedimiento es la extrema sobredimensión de las proyecciones declaradas por ampliaciones-nuevos proyectos, lo cual genera sobredimensión e incertidumbre especialmente en los primeros años del horizonte predictivo.

El pronóstico mensual del PBI nacional utilizando modelos estocásticos ARIMA, constituye una alternativa altamente eficaz, puesto que se explora los patrones de tendencia, estacionalidad, ciclaje y aleatoriedades típicas de esta

Para la determinación del modelo econométrico biecuacional cointegrado, tal que mejore las proyecciones de la Demanda Eléctrica a un horizonte predictivo prefijado, se Derechos reservados COPIMERA 2015

92


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

variable, mediante transformaciones apropiadas para la estabilización de varianzas, estabilidad de medias regulares y estacionales, así como el filtrado de sucesos externos, hasta alcanzar la estacionariedad lineal; con ello se logra un eficiente grado de ajuste predictivo comparativo a otras alternativas de proyección del tipo transversal causal y dependiente de muchas variables explicativas. La información histórica del PBI cuantificada en paso mensual, constituye la forma oficial de manejo en las Cuentas Nacionales, por ende constituye una serie histórica natural.

econométrico y de aproximación, como es la modelización ARIMA con Sucesos Externos, (Ref. 1). La data histórica de la Demanda a nivel de generación, utilizada para el presente estudio, es obtenida desde medidores de generación del SEIN, procesada en resolución mensual y es caracterizada como información de mayor confianza frente a la información estadística proveniente de lecturas SCADA. En cambio la Demanda Vegetativa SEIN (Ventas Vegetativas), posee incertidumbre en los primeros años históricos y es obtenida indirectamente de descontar a las ventas totales de energía regulada y libre, las ventas libres sin historia correspondientes a grandes usuarios libres. En el siguiente diagrama de flujo se muestra la distribución de la Demanda Eléctrica SEIN para el año 2014

Al ser el Producto Bruto Interno una variable exógena fundamental para la elaboración del modelo econométrico de proyección de la Demanda del SEIN, es imprescindible que la metodología a utilizar para las proyecciones del PBI en el rango predictivo de análisis, posea un alto rigor estadístico, ' Demanda'a'nivel'de'Generación'SEIN 42020 Demanda'a'nivel'de'Generación'COES 41796

******(210) Autoproductores'+'Disminuc.'Pérdidas'REP 600 Consumo'Propio'Centrales 10253 Nuevos'Proyectos'y'Ampliaciones'+ Cargas'Incorporadas'+'Cargas'Especiales

31377 Demanda*al*nivel*de*Transmisión

Ventas'Generador MAT,'AT,'MT 4331

Pérdidas'en'Transmisión 2366

24680 Entrada'al'nivel'de'Distribución'

Ventas'Vegetativas 26573

Pérdidas'en'Transf.'Transm.'Distribuidor 572

Ventas'Distribuidor MAT'y'AT 486

23622 Entrada'al'nivel'de'Distribución'(MT'y'BT)

Pérdidas'MT'y'BT 1866 Ventas'Distribuidor MT'y'BT 21756

'

' Figura 1. Diagrama de flujo de la Demanda Eléctrica del SEIN-Perú del año 2014, en GWh

'

Derechos reservados COPIMERA 2015

93


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

Entre las características evolutivas intrínsecas de la Demanda Total del SEIN, que condicionan a las proyecciones metodológicas de largo plazo, se tienen:

cumplimiento de econométricos:

condicionantes

estadísticos

[DEMANDA] = C0 + α [PBI ] + β [TAR ]+ γ [POB]

•' Información histórica limitada tanto en resolución anual como en mensual, de las variables necesarias para la determinación de las proyecciones a un amplio horizonte predictivo. El periodo histórico muestral en resolución mensual se tiene solamente desde julio 1997. •' El comportamiento evolutivo no estable de la Demanda Total, influenciado por la no uniformidad de las demandas históricas y futuras de grandes industrias extractivas y manufactureras.

y (1)

DEMANDA: Variable objetivo que representa la Demanda Eléctrica del SEIN, cuya data histórica es obtenida desde medidores de generación. En el 2014 representó el 97% de la demanda nacional peruana. PBI: Producto Bruto Interno del Perú. El PBI del SEIN representa alrededor del 98 % del PBI Perú TAR: Tarifa media anual de electricidad. Es la tarifa anual promedio vendido por distribuidoras y generadoras a clientes finales. POB: Población del Perú. La Población SEIN representa alrededor del 97 % de la población peruana [ ] : Operador matemático C0: Constante

Bajo tales características, comúnmente se realiza el pronóstico de la Demanda total del SEIN, desagregándolo en: •' Demanda Vegetativa. Constituye el mayor volumen de la demanda total del SEIN, se caracteriza por presentar una tendencia estable de crecimiento. Su desventaja está en la calidad de data histórica anual y limitación de data en resolución mensual. •' Demanda de Grandes proyectos futuros y ampliaciones. Corresponde a las demandas futuras de energía y potencia de grandes clientes libres (minera y manufacturera), tanto por nuevos proyectos como por ampliaciones Su desventaja es la extrema sobredimensión de sus proyecciones declaradas. •' Demanda de Cargas Especiales. Lo conforman algunas demandas mineras y manufactureras mayores de consumo no regulado. Dado que éstas se han ido interconectado en el tiempo al SEIN, no se dispone de información estadística histórica amplia. •' Demanda de Cargas Incorporadas. Corresponden a aquellos pequeños sistemas eléctricos aislados que a través del tiempo se fueron incorporando al SEIN. '

2.1 PROYECCION DEL PBI MEDIANTE MODELOS ESTOCASTICOS ARIMA CON INTERVENCION La proyección del PBI al horizonte predictivo objetivo, se ha realizado mediante una estructura estocástica ARIMA con Análisis de Intervención (Ref. 4). La muestra histórica del PBI lo constituye la serie mensual emitida por el Banco Central de Reserva del Perú, en millones de nuevos soles de 2007, desde enero de 2003 hasta junio del 2015. En la figura 2 se muestra el comportamiento evolutivo mensual del PBI, de donde se puede observar que esta serie posee las siguientes características a lo largo del horizonte histórico en estudio: tendencia con comportamiento no estable; estacionalidad con notoria variabilidad e irregularidades de nivel. 550000 500000

Metodología!y!Calculo!

450000

' La Demanda Eléctrica del SEIN, al caracterizarse como un bien de consumo necesario, se parte de la premisa que obedece a las leyes econométricas siempre que las variables explicativas tengan que cumplir estrictamente con los condicionantes estadísticos de una regresión representativa (Ref. 2). En general, para la especificación de un modelo econométrico, se propone un ordenamiento matemático multivariante, en el cual se relacione la variable objetivo con las variables explicativas y las perturbaciones aleatorias. Entonces; se debe definir el número de ecuaciones y variables participantes, así como la forma funcional que las relaciona (Ref. 3).

400000 350000 300000

200000

Ene03 Sep03 May04 Ene05 Sep05 May06 Ene07 Sep07 May08 Ene09 Sep09 May10 Ene11 Sep11 May12 Ene13 Sep13 May14 Ene15

250000

Fig. 2. Evolución mensual del PBI, en millones de nuevos soles de 2007

Una estructura del modelo econométrico que relaciona a la Demanda SEIN con variables explicativas socio-económicas, estará dada en principio por la siguiente expresión genérica, ecua. 1, donde el corchete indica el operador matemático que se le pudiera aplicar a cada variable considerada en base al Derechos reservados COPIMERA 2015

los

Luego del proceso de identificación del modelo, estimación de parámetros y validación (Ref. 5, 6), se obtiene un modelo que representa estadísticamente la descripción más cercana del comportamiento evolutivo del PBI nacional a lo largo del 94


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

horizonte histórico objetivo. Así se obtiene las proyecciones del PBI en el escenario Base, cuya ecuación (ecua. 2) de proyección tiene la forma:

(1 − L)(1 − L12 ) (1 − 0.414L12 ) log PBI t = (1 − 0.615L + 0.252L2 )(1 − 0.908L12 )u t

Una vez calculado el modelo ARIMA con Análisis de Intervención, que lleva a la estimación proyectiva del escenario Base del PBI, también se pueden estimar los valores extremos. Del punto de vista estadístico, estas proyecciones extremas corresponden a los límites de confianza a lo largo del horizonte de predicción de la variable proyectada con modelos ARIMA. La banda de predicción en el horizonte predictivo, viene a ser una medida de la certidumbre en la dispersión de los valores individuales, en este caso del PBI proyectado, a un determinado nivel de confianza prefijado. En general se adopta una banda al 95% de confianza, LC, ecua.4, lo cual implica que un 95% de los datos sobre los que se ha realizado la proyección del PBI, están contenidos dentro de esta banda (Ref. 7).

(2)

L es el Operador retardo y el componente de error o residuo ut es: ∧ (3) ut = PBIt − PBI t En las figuras 3 y 4 se muestran las salidas gráficas del pronóstico ARIMA del PBI para el escenario Base, al horizonte diciembre 2019, en resolución mensual (ámbito de cálculo) y en resolución anual (agrupamiento de proyecciones).

aproximadamente al valor tabular para una distribución t, asociado a una probabilidad de 0.025 y 60 grados de libertad. SE es el error estándar del pronóstico. En el caso de una sola ecuación sin variables dependientes rezagadas o términos ARMA, los errores estándar de pronóstico se calculan como:

SE = S * 1 + X t ' ( X ' X ) −1 X t S:

(5)

Error estándar del modelo de regresión

X t ':

Transpuesta de variable en la muestra de predicción

o de validación

X ' : Transpuesta de variable en la muestra de estimación o de trabajo

Fig. 3 Proyecciones mensuales del PBI ARIMA esc. Base

En la figura 5 se ilustra las proyecciones medio y optimista extremo del PBI nacional peruano.

700000 600000

800000

500000

700000

400000

600000 500000

300000

400000

PBI6Histórico PBI6Proy6ARIMA6A Medio

300000 200000

0

100000 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019

100000

Fig. 4 Proyecciones anuales del PBI ARIMA esc. Base –millones de Nuevos Soles del 2007

Derechos reservados COPIMERA 2015

0

PBI6Histórico PBI6Proy6ARIMA6A Medio PBI6Proy6ARIMA6A Optimista6extremo 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019

200000

(4)

PBIt : PBI proyectado; el valor de 2 corresponde

2003M01 2003M11 2004M09 2005M07 2006M05 2007M03 2008M01 2008M11 2009M09 2010M07 2011M05 2012M03 2013M01 2013M11 2014M09 2015M07 2016M05 2017M03 2018M01 2018M11 2019M09

650000 600000 550000 500000 450000 400000 350000 300000 250000 200000

LC = PBIt ± 2 * SE

Fig. 5 Proyecciones anuales del PBI ARIMA- millones de Nuevos Soles del 2007

95


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

El proceso de cálculo del modelo econométrico con el que se pronostica el comportamiento futuro de la Demanda Eléctrica SEIN, a partir de las variables explicativas PBI, Población y Tarifa, obedeciendo a condicionantes estadísticos y econométricos, se resume en el siguiente diagrama de flujo de la figura 7.

En relación a la calidad predictiva del modelo propuesto del PBI, tal como se muestra en la Tabla 1, el error absoluto medio porcentual del rango histórico es del orden del 0.3%, lo cual es indicativo de un alto nivel de ajuste predictivo anual. Asimismo; cuando se compara frente a las proyecciones realizadas con otros métodos más caros y robustos como son Investigación de Mercado, Building Blocks con multiecuaciones de Balanza de Pagos y relaciones de Cuentas Nacionales, mostrado en la figura 6, el margen de desviación comparativa en el horizonte predictivo 2015-2019 es del orden de 0.9 %, valor también indicativo de eficiencia predictiva del modelo propuesto.

Dadas las características intrínsecas temporales de las variables en estudio y el proceso de identificación estadísticoeconométrico realizado, el modelo cointegrado estará constituido por dos ecuaciones que representan: un Modelo Estructural (relación de largo plazo, expresado a través de la ecuación de Cointegración) y, un Modelo de Corrección del Error cuya ecuación expresa la dinámica evolutiva de corto plazo (Ref. 8).

Tabla 1. Calidad de ajuste

Año

2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 ' ' 600000 ' '580000 ' '560000 '540000 ' '520000 ' 500000 ' '480000 ' '460000 '440000 ' '420000 '400000 ' 2015 '

PBI Histórico (mill Nuevos soles del 2007

PBI ARIMA Escenario Medio

Error Relativo Porcentual

273971 294598 319693 348923 352584 382380 407052 431273 456159 466879

274101 294571 317707 350554 353370 380975 407022 432659 454863 470683

0.05% 0.01% 0.62% 0.47% 0.22% 0.37% 0.01% 0.32% 0.28% 0.81%

MAPE

0.32 %

Tratamiento!de!la! Información!de!las! variables! temporales!

Selección!de!Modelo! Econométrico:! Relación!funcional! entre!variables!

Estimación! de! parámetros! o!

Inferencia! sobre!los! estimados!

TRANSFORMAE CIONES'EN' BASE'A:' • Criterio' sEstadísticos' • Criterios' Econométricos'

Proyecciones! 2015$2019!

Toma!de! decisiones!

PBI6Proy6ARIMA6A Medio PBI6Proy6Investigación6 de6MercadoA Medio

2016

2017

2018

Fig. 7 Diagrama de flujo del proceso de cálculo En la especificación funcional de este modelo, se determina que la Demanda Eléctrica SEIN se explica por el comportamiento evolutivo del Producto Bruto Interno, la población y la Tarifa anual promedio, ello identificado bajo un arreglo de regresión con transformación en logaritmos (primera ecuación de regresión). La aplicación de logaritmos proviene de que cada variable participante alcanza estabilidad en sus varianzas, y por lado proporciona explicación econométrica de los coeficientes (elasticidades) de la regresión formulada.

2019

Fig.'6''Comparación'predictiva'ARIMA'vs'Investigación'de' Mercado'

' 2.2! ESTRUCTURA! DEL! MODELO! ECONOMÉTRICO! PARA!LA!PROYECCION!DE!LA!DEMANDA! ' Derechos reservados COPIMERA 2015

96


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

•' Estacionariedad y orden de integracion de las variables participantes en cada modelo: prueba de raíz unitaria de Dickey-Fuller Aumentado, ADF •' Colinealidad entre las variables explicativas en cada modelo: prueba con matriz de correlaciones •' Especificación funcional: prueba de Ramsey •' Estabilidad de los parámetros. La prueba de residuos recursivos y la prueba de suma acumulada de los residuos normalizados al cuadrado •' Causalidad unidireccional: prueba de Granger

La segunda ecuación corresponde al modelo de corrección de error, que recoge la dinámica de corto plazo; se basa en una regresión teniendo como variable dependiente a la primera diferencia de la serie demanda transformada en logaritmos, y como variables explicativas a los retardos de la variable explicada, el retardo de los residuos generados por el modelo estructural (“error de largo plazo”) y el PBI en primeras diferencias de la serie transformada en logaritmos. ' Con la finalidad de filtrar los sucesos externos en la evolución histórica de la Demanda, se eligen variables ficticias de tipo pulso. '

3.2 ESTIMACION DE PARAMETROS Como propuesta de solución, a continuación se presentan los resultados de las proyecciones de la Demanda del SEIN a un horizonte predictivo 2015-2019. La estimación de los parámetros del modelo seleccionado se realizó con el programa computacional E-Views (Ref. 10), cuyas salidas son las expresiones ecua. 8 y ecua. 9.

PROYECCIONES! DE! LA! DEMANDA! SEIN! DEL!PERU! ' 3.1! IDENTIFICACION!DEL!MODELO!ECONOME! TRICO! ' La estructura matemática del modelo econométrico está conformada por las expresiones ecua. 6 y ecua. 7.

Ecuación de Cointegración: LOG(DEMG) = C(1)*LOG(PBIB) + C(2)*LOG(POB) + C(3)*LOG(TAR) + C(4)*INT569 + C(5)

Ecuación de largo plazo:

Ln(DEMANDA) = k 1 * Ln(POB) + k 2 * Ln(PBI) + k 3 * Ln(TAR) + k 4 * INT 569 + u + C

(6)

Ecuación de Corrección de Error: D(LOG(DEMG)) = C(1)*DLOG(PBIB) + C(2)*(LOG(DEMG(-1))-(0.538519*LOG(PBIB(1))+0.072812*LOG(TAR(-1))+ (9) 2.483975*LOG(POB(-1))-0.023509*INT569(-1)22.24024)) + C(3)*D(INT569) + C(4)

Ecuación de corto plazo: D(Ln(DEMANDA)) = c1 * D(Ln(PBI)) + c2 D(Int569 )

(7)

+ u (-1 ) + γ

Siendo:

Donde:

Ln(DEMANDA): Logaritmo natural de la Demanda SEIN de electricidad Ln(PBI): Logaritmo natural del Producto Bruto Interno del Perú. Ln(TAR): Logaritmo natural de la tarifa anual promedio a clientes finales Ln(POB): Logaritmo natural de la población Perú C: Constante D(Ln(PBI)): Primera diferencia del logaritmo de PBI D(Ln(DE)): Primera diferencia del logaritmo de la Demanda SEIN D(Int569): Primera diferencia de la variable ficticia pulso en 2005, 2006 y 2009 u: Estimación del error de largo plazo γ: Estimación del error de corto plazo

LOG(DEMG): LOG(PBIB):

Logaritmo natural de la Demanda Logaritmo natural del PBI Perú, escenario Base LOG(POB): Logaritmo de la población Perú LOG(TAR): Logaritmo de la tarifa promedio a clientes Finales D(LOG(DEMG)): Primera diferencia en logaritmos de la Demanda D(LOG(PBIB)): Primera diferencia en logaritmos del PBI Perú, escenario Base D(INT569): Primera diferencia de la variable ficticia pulso en 2005, 2006 y 2009 C(4): Constante de la ecuación de corto plazo C(5): Constante de la ecuación de largo plazo C(i): Coeficientes de ecuaciones de largo plazo y corto plazo

El proceso de cálculo y selección del mejor modelo de regresión biecuacional, se ha realizado tomando como premisas el cumplimiento simultáneo de los condicionantes tanto estadísticos como econométricos; para ello se realizaron las siguientes pruebas (Ref. 8, 9): Derechos reservados COPIMERA 2015

(8)

La estimación de cada coeficiente de las ecuaciones de regresión de cointegración y correctiva de error, se realizan para los dos escenarios de la variable explicativa PBI, que 97


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

llevan a las proyecciones de la Demanda SEIN en dos escenarios: base o conservador y extremo.

3.3! PROYECCIONES! '

En las tablas 2 y 3 se muestra las estimaciones de los coeficientes mediante Mínimos Cuadrados Ordinarios, realizadas en el programa E-Views. ' ' ' Los' resultados' de' las' proyecciones' de' la' Demanda' Interconectada' del' Perú' para' el' horizonte' 2015' E' 2019,' se' muestran'en'la'Tabla'4'y'Figura'7.' ' ' ' Tabla'2'Estimación'de'Ecuación'de'Largo'Plazo'

'

' Dependent'Variable:'LOG(DEMG)' ' ' Method:'Least'Squares' ' ' Sample'(adjusted):'1998'2014' ' ' Included'observations:'17'after'adjustments' ' '' '' '' '' '' Variable' Coefficient' Std.'Error' tEStatistic' Prob.''' '' '' '' '' '' LOG(PBIB)' 0.538519' 0.044663' 12.05732' 0.0000' LOG(POB)' 2.483975' 0.153299' 16.20347' 0.0000' LOG(TAR)' 0.072812' 0.032502' 2.240239' 0.0448' INT569' E0.023509' 0.003902' E6.025316' 0.0001' C' E22.24024' 1.077899' E20.63296' 0.0000' '' '' '' '' '' REsquared' 0.999770'''''Mean'dependent'var' 10.14181' Adjusted'REsquared' 0.999693'''''S.D.'dependent'var' 0.313492' S.E.'of'regression' 0.005491'''''Akaike'info'criterion' E7.331393' Sum'squared'resid' 0.000362'''''Schwarz'criterion' E7.086330' Log'likelihood' 67.31684'''''HannanEQuinn'criter.' E7.307033' FEstatistic' 13033.78'''''DurbinEWatson'stat' 2.036459' Prob(FEstatistic)' 0.000000' ' ' ' '' '' '' '' '' Tabla'3''Estimación'de'Ecuación'de'Corrección,'proyecciones'

' Dependent'Variable:'D(LOG(DEMG))' ' Method:'Least'Squares' ' ' Sample'(adjusted):'1999'2014' ' ' Included'observations:'16'after'adjustments' ' ' ' ' ' ' ' ' ' ' ' Variable' Coefficient' Std.'Error' tEStatistic' Prob.''' ' ' ' ' ' ' ' ' ' ' DLOG(PBIB)' 0.494060' 0.061638' 8.015544' 0.0000' LOG(DEMG(E1))E(0.538519*LOG(PBIB(E 1))+0.072812*LOG(TAR(E 1))+2.483975*LOG(POB(E1))E 0.023509*INT569(E1)E22.24024)' E1.126889' 0.321102' E3.509442' 0.0043' D(INT569)' E0.020583' 0.003156' E6.521665' 0.0000' C' 0.034984' 0.003321' 10.53421' 0.0000' ' ' ' ' ' ' ' ' ' ' REsquared' 0.943865'''''Mean'dependent'var' 0.059684' Derechos reservados COPIMERA 2015

98


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

Adjusted'REsquared' S.E.'of'regression' Sum'squared'resid' Log'likelihood' FEstatistic' Prob(FEstatistic)'

0.929831'''''S.D.'dependent'var' 0.005583'''''Akaike'info'criterion' 0.000374'''''Schwarz'criterion' 62.60653'''''HannanEQuinn'criter.' 67.25657'''''DurbinEWatson'stat' 0.000000' ' ' ' ' '

0.021077' E7.325816' E7.132669' E7.315925' 1.986275' ' '

' ' ' Tabla'4''Evolución'y'resultados'proyectados'de'la'Demanda'SEIN'del'Perú'2015E2019' ' Demanda' Población' PBI'ARIMA' Tarifa' Interconectada' Var' Var' Perú' Perú' Año' PBI' Demanda' %' %' Millones'PEN' Ctvs' Miles'Hab.' GWh' de'2007' US$/kWh' 1998' 25182.3' 213189.91' 7.040' 16084.5' '' '' 1999' 25588.5' 216376.81' 6.850' 16728.0' 1.5%' 4.0%' 2000' 25983.6' 222206.67' 7.160' 17633.7' 2.7%' 5.4%' 2001' 26366.5' 223579.53' 7.025' 18462.7' 0.6%' 4.7%' 2002' 26739.4' 235773.04' 6.600' 19657.8' 5.5%' 6.5%' 2003' 27103.5' 245592.63' 6.640' 20688.4' 4.2%' 5.2%' 2004' 27460.1' 257769.80' 7.040' 21902.7' 5.0%' 5.9%' 2005' 27810.5' 273971.07' 7.614' 23001.5' 6.3%' 5.0%' 2006' 28151.4' 294597.85' 7.581' 24762.8' 7.5%' 7.7%' 2007' 28481.9' 319693.00' 7.410' 27254.3' 8.5%' 10.1%' 2008' 28807.0' 348923.00' 8.080' 29558.7' 9.1%' 8.5%' 2009' 29132.0' 352584.02' 8.232' 29807.2' 1.0%' 0.8%' 2010' 29461.9' 382380.00' 8.202' 32426.8' 8.5%' 8.8%' 2011' 29797.7' 407051.98' 8.906' 35221.7' 6.5%' 8.6%' 2012' 30135.9' 431272.99' 9.870' 37281.4' 6.0%' 5.8%' 2013' 30475.1' 456172.23' 9.770' 39667.2' 5.8%' 6.4%' 2014' 30814.2' 466895.50' 10.360' 41795.8' 2.4%' 5.4%' 2015' 31151.6' 477720.31' 10.360' 43427' 2.3%' 3.9%' 2016' 31488.6' 496053.44' 10.360' 45509' 3.8%' 4.8%' 2017' 31826.0' 519350.28' 10.360' 47895' 4.7%' 5.2%' 2018' 32162.2' 545595.68' 10.360' 50496' 5.1%' 5.4%' 2019' 32495.5' 573975.58' 10.360' 53261' 5.2%' 5.5%' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' Derechos reservados COPIMERA 2015

99


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

70000 60000 50000 40000 30000 Demanda6Histórica6SEINAGWh

20000

Proyeccion6Demanda,6Esc.Medio6A GWh

2019

2018

2017

2016

2015

2014

2013

2012

2011

2010

2008

2007

2006

2005

2004

2003

2002

2001

2000

1999

0

2009

Proyeccion6Demanda,6Esc.Extremo6A GWh

10000

1998

' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' ' '

Fig.'7''Resultados'proyectados'de'la'Demanda'Eléctrica'Interconectada'del'Perú'2015E2019E'GWh' ' '

Derechos reservados COPIMERA 2015

100


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

Conclusiones!

9)' Maddala, G.S. Econometrics, McGraw-Hill, Nueva York, 1977 10)'Quantitative Micro Software, E-VIEWS. Estimation, Forecasting, Advanced Statistical. CA USA, 2012.'

' •' Se ha obtenido un modelo alternativo explicativo y predictivo del PBI mediante formulación estocástica ARIMA con análisis de intervención, que captura las variaciones de tendencia, estacionalidad e irregularidades atípicas a lo largo del horizonte mensual histórico y de predicción. Los resultados alcanzados permiten proyectar al PBI por escenarios base y extremo, con alta calidad predictiva que se demuestra con el indicador de error MAPE de 0.3% (valor muy por debajo de los márgenes referenciales). Asimismo el margen de desviación comparativa en el horizonte predictivo 2015-2019, frente a modelos convencionales de investigación de mercados (costoso y mayor tiempo de elaboración), se encuentra en el orden del 0.9%. •' El modelo econométrico cointegrado calculado para la proyección de la Demanda Eléctrica del Sistema Interconectado del Perú, basado en el análisis de cointegración, cumple con los condicionantes de estacionariedad del modelo biecuacional, colinealidad de las variables explicativas, especificación funcional, estabilidad de los parámetros y causalidad unidireccional; por ende se demuestra la representatividad del sistema de regresión bi-ecuacional calculado. •' De los resultados proyectados de la Demanda Eléctrica SEIN del Perú, en el horizonte 2015 al 2019, se observa una tasa de crecimiento anual de 3.9% al 5.5 %; mientras que el PBI en el mismo lapso evoluciona con una tasa de crecimiento del 2.3 % al 5.2 %.. Comparativamente a otras formas de proyección existentes, estos resultados van más acorde con las expectativas económicas y políticas coyunturales del país. Bibliografia 1)' Gonzales, S. Pronóstico de Largo Plazo del PBI nacional mediante modelos ARIMA con Análisis de Sucesos Externos. COES-SINAC, Lima, 2014. 2)' Gujarati, D. Econometría. MC Graw Hill, México, 2004 3)' Draper, N.R. Applied Regression Analysis, John Wiley and Sons, Nueva York, 1998 4)' Parzen, E., Procesos Estocásticos. Paraninfo, Madrid, 1972. 5)' Box, G.E.P.and Jenkins, G.M. Time Series Analysis: Forecasting and Control. Holden Day, San Francisco, 1976. 6)' Jenkins, G.M. Practical Experiences with Modelling and Forecasting time Series. Gwilym Jenkins and Partners, San Francisco, 1979. 7)' Pankratz, A. Forecasting with Univariate Box-Jenkins Model: Concepts and Cases. John Wiley, New York, 1983. 8)' Verbeek, M. A Guide to Modern Econometrics, John Wiley and Sons, Nueva York, 2000 Derechos reservados COPIMERA 2015

101


XXV#CONGRESO+PANAMERICANO+DE+INGENIERÍA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+

Octubre+8#10,+2015,+Tegucigalpa+Honduras+ + +

+

FABRICACIÓN+DE+UNA+PRÓTESIS+HUMANA+UTILIZANDO+UNA+IMPRESORA+3D+EN+ HONDURAS+ 1

Ricardo D. Borjas1, Wilfredo C. Flores1 Universidad Tecnológica Centroamericana, Tegucigalpa, Honuduras.

Resumen presentadas para las personas que requieren prótesis humanas son muy limitadas y de corto alcance, se vuelve necesario buscar soluciones alternativas al problema. En la actualidad existen cuatro centros de creación de prótesis en la ciudad capital de Tegucigalpa, uno de los cuales es público. Los centros de salud patrocinados por el gobierno típicamente no cuentan con las condiciones necesarias para solventar la demanda de prótesis, y el sector privado representa una opción inalcanzable para la gran mayoría de la población, debido principalmente a sus elevados precios. El material utilizado en el país para crear las prótesis es el polipropileno, que a pesar de su cómodo precio, es difícil de adquirir. El 100% de materiales utilizados son importados directamente desde Europa, lo que retrasa y en algunos casos detiene completamente la producción de cualquier artefacto prostético. Además de esto, las prótesis que proporciona el hospital público son exclusivamente de tipo sobre y bajo rodilla, dejando de un lado a muchas personas que tienen distintas necesidades, en cuanto a prótesis humanas se refiere. En vista de lo anterior, existe la posibilidad de utilizar prótesis elaboradas utilizando impresoras 3D, las cuales presentan ventajas de accesibilidad, la curva de aprendizaje para la impresión 3D es baja debido a que su operación es fácil, lo que reduce tanto el tiempo de producción de las prótesis como su costo. El material utilizado en la creación de estas prótesis en su forma más básica e inmediata es el plástico ABS, pero el procedimiento permite mejoras continuas tanto en el diseño de las prótesis como en el material utilizado. Partiendo de esta idea se creó una prótesis con la intención de probar su funcionalidad. Tanto el procedimiento como los resultados obtenidos están contemplados en este documento.

En vista de contar con un sistema de salud pública precario, la población hondureña se encuentra en la necesidad de buscar alternativas para suplir sus necesidades de salud, esto es particularmente importante para la población con discapacidades físicas. Para el Hospital San Felipe, el cual es el centro de prótesis más grande del país, es imposible cumplir con la demanda existente, ya que alrededor de 1,800 personas al año requieren un miembro prostético, sólo en este centro. Además de la alta demanda y escasez de materiales, el centro se dedica exclusivamente a la producción de prótesis sobre y bajo rodilla, dejando a un lado a pacientes cuyos requerimientos prostéticos son distintos. Es aquí donde se observa la posibilidad de implementar prótesis elaboradas utilizando impresoras 3D, que no sólo aliviarían la mora de prótesis, sino que también reducirían los precios y el tiempo de creación de las mismas. Utilizando este proceso, la creación de prótesis de manos se convierte en una posibilidad viable. Este artículo pretende explicar el funcionamiento de este proceso y exponer las ventajas del mismo, haciendo énfasis especial en la factibilidad y accesibilidad de las prótesis de manos en Honduras. +

Introducción+ Honduras es un país perteneciente al istmo centroamericano, su extensión territorial es 112,492 km2, el país cuenta con una población de 8.5 millones de habitantes aproximadamente, de la cual el 69% vive en condiciones de pobreza, con un PIB de $4800 per cápita (BCH, 2013). Considerando la situación anterior, no es sorpresa que el sector salud de Honduras, el cual también contempla la creación de artefactos prostéticos, esté dentro de los más afectados por la precaria situación del país. Debido a que las soluciones Derechos reservados COPIMERA 2015

108


XXV#CONGRESO+PANAMERICANO+DE+INGENIERÍA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+

Octubre+8#10,+2015,+Tegucigalpa+Honduras+ +

Investigación+sobre+la+necesidad+de+prótesis+ humanas+en+honduras+

de pacientes con ausencia de mano en el país.

Para determinar la necesidad de un nuevo método de creación de prótesis fue imperativo investigar la actual situación, incluyendo los métodos utilizados y el tamaño de la población que requiere de estos dispositivos. En Honduras, la mayor parte de la población que presenta algún tipo de discapacidad física, ya sea de amputación parcial o completa, o malformaciones genéticas, es en los pies o piernas. Según la información adquirida durante la investigación de campo realizada en los hospitales públicos del país, así como en algunas instituciones privadas, se producen un promedio de 15 órtesis mensuales. Cabe aclarar que una órtesis es un apoyo u otro dispositivo externo aplicado al cuerpo para modificar los aspectos funcionales o estructurales del sistema neuromusculoesquelético. Estos dispositivos son usados en ortopedia, fisioterapia y terapia ocupacional , en donde se busca corregir o facilitar la ejecución de una actividad o desplazamiento. Las órtesis sirven para sostener, alinear o corregir deformidades y para mejorar la función del aparato locomotor. La figura No. 1 muestra la producción de órtesis por mes en Honduras, para el 2014.

Figura 2. Ingreso de pacientes por departamento en Honduras, 2014

Figura 3. Incidencia de personas con ausencia de mano, por año. Es valioso mencionar que durante el 2013 la producción de prótesis fue completamente paralizada, al menos en el sector público, debido a que el material importado desde Europa tardó más de un año en llegar al país. Durante ese tiempo, la única opción que estaba disponible eran los centros privados de prótesis, cuyos precios son muy elevados para gran parte de la población. Tomando en cuenta el alto déficit de atención a la necesidad de prótesis distintas a sobre y bajo rodilla, se hizo una investigación para determinar el volumen total. La investigación se enfocó en dos áreas: a. Incidencia de deformidades o amputaciones (0-40 años) tratados en el Hospital Materno Infantil, en Tegucigalpa; y b. El historial de producción de prótesis de mano en centros públicos y privados. Los registros del Hospital Materno Infantil (ver figura No. 4) demuestran que las incidencias de estos casos son escasas; razón

Figura 1. Producción mensual de Órtesis en Honduras, 2014 La producción mensual de órtesis se queda corta debido a que, como se muestra en las figuras No. 2 y No. 3, se atienden alrededor de 143 personas cada mes, cuyas necesidades abarcan desde plantillas, hasta órtesis y prótesis parciales o completas sobre y bajo rodilla. La Fig. No. 2 muestra que por mucho, el Departamento de Francisco Morazán, la zona central y donde se encuentra la ciudad Capital, Tegucigalpa, es la zona en el país con mayor demanda de prótesis de distintas características. De la misma manera, la Fig. No. 3 muestra que existe una tendencia creciente Derechos reservados COPIMERA 2015

109


XXV#CONGRESO+PANAMERICANO+DE+INGENIERÍA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+

Octubre+8#10,+2015,+Tegucigalpa+Honduras+ + por la que las prótesis de manos no son una prioridad para la institución pública.

piezas también se simplifica, debido a que es cuestión de reimprimir la pieza a reemplazar. Debido a lo anterior, la impresión 3D es una opción a considerarse tanto para la investigación como para el desarrollo de otros tipos de prótesis, no exclusivamente de manos. Sus considerables ventajas la presentan como una atractiva opción o alternativa a los métodos actualmente utilizados en el país.

Desarrollo+ de+ la+ prótesis+ humana+ utilizando+ una+impresora+3D+ El concepto de mano prostética ha sido utilizado en al menos dos proyectos con características similares; ambos obteniendo resultados satisfactorios (Ni-LABS, 2013-OHP, 2014). La iniciativa de integrar este sistema en Honduras nace a partir de la cuidadosa consideración de la documentación de estos proyectos. De la misma manera, se analizaron otras fuentes bibliográficas (Anastasiou, A. et al, 2013, Ribeiro Cunha da Silva, J. et al, 2014). La impresora 3D utilizada en este proyecto es una AirWolf 3D hdl, esta utiliza un material llamado plástico ABS que es inyectado a través de una boquilla caliente sobre una superficie, creando los objetos capa por capa (ver fig. 5).

Figura 4. Producción de prótesis sobre y bajo rodilla en Honduras, 2014 A su vez, los resultados de las encuestas y el análisis de la información provista por el Hospital San Felipe y una clínica privada localizada en Tegucigalpa, demuestran que la demanda, aunque existente, es muy baja para considerarse una prioridad en el sistema. Además de lo anterior, el costo de las prótesis de mano en el país oscila entre Lps. 80,000-100,000, aproximadamente unos 4,000-5,000 USD al cambio actual. Debido a lo anterior, se demuestra la necesidad en el país de buscar opciones de bajo costo y accesibles a la población con necesidad de una prótesis de mano.

Propuesta+ de+ solución+ a+ la+ demanda+ de+ prótesis+humanas+en+honduras+ Considerando el problema de la dificultad de adquisición de materia prima para elaborar prótesis humanas, la implementación de impresoras 3D promete ser una solución viable, debido principalmente a que el material utilizado es de fácil acceso y bajo costo. El uso de impresiones 3D para crear prótesis es también un método que facilita las modificaciones y por ende, las mejoras al diseño en el software. Esto lo convierte en un modelo muy dinámico que puede adaptarse a las necesidades individuales de cada paciente. El tiempo de producción de prótesis de mano con impresoras 3D es muy corto, en promedio se invierten dos días en imprimir todas las piezas necesarias y alrededor de tres horas en el proceso de ensamblaje. Además, el proceso permite la fácil capacitación del personal respecto al equipo. Debido a que el diseño consta de muchas partes ensamblables, la reparación o reemplazo de las Derechos reservados COPIMERA 2015

Figura 5. Impresora Airwolf 3D El diseño de la Raptor hand fue creado en colaboración por varios voluntarios de la red global e-NABLE, que se dedica a utilizar la impresión en 3D para impulsar avances en la ciencia. El guantelete tiene un diseño simple en plástico con algunas piezas de metal y la movilidad parte de la flexión de la muñeca que permite el movimiento de agarre. Para facilitar aun más este proceso, se hicieron ciertos cambios en el diseño que permiten eliminar la necesidad de piezas de metal, imprimiendo todo en plástico ABS. La figura No. 6 muestra el diseño pieza por pieza del Raptor hand.

110


XXV#CONGRESO+PANAMERICANO+DE+INGENIERÍA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+

Octubre+8#10,+2015,+Tegucigalpa+Honduras+ + La fig. No. 8 muestra la mano prostética elaborada con la impresora 3D.

Figura 6. Diseño de Raptor Hand Además del plástico ABS, se utiliza velcro, hilo de nylon y cinta elástica para ensamblar el guantelete e imitar el movimiento de los tendones. Figura 8. Mano prostética elaborada utilizando una impresora 3D

La fig. No. 7 muestra el proceso de impresión de las piezas de la mano prostética utilizando la impresora Airwolf 3D.

Conclusiones+ La implementación de prótesis utilizando impresoras 3D es factible en Honduras, considerando las necesidades y la realidad socioeconómica en que viven los hondureños, las prótesis se adaptan perfectamente a dichas necesidades. Además de lo anterior, en la actualidad no existe ninguna otra opción respecto al desarrollo de manos prostéticas en el sector público. Es debido a esto que si llegasen a ser implementadas representarán por primera vez una opción real para todas aquellas personas que necesiten una. También, al ser una nueva tecnología hay mucho espacio para el avance y el crecimiento, no limitándose así a la creación exclusiva de manos, sino también a la implementación de otros tipos de prótesis con mayor demanda, como ser las órtesis y prótesis sobre/bajo rodilla.

Figura 7. Impresión de las piezas de la mano prostética En lo que concierne a la elaboración del Raptor Hand y debido a la falta de recursos, la pieza se imprimió con una densidad de 0.3, siendo 1.0 la mayor densidad. Dicho esto, la mano diseñada y fabricada sólo funciona como un prototipo y no se puede utilizar como una prótesis funcional, debido principalmente a que la densidad con la que se fabricó la hace frágil y quebradiza para su uso extensivo.

Referencias+ [1]! Anastasiou, A. et al, 2013. 3D printing: Basic concepts mathematics and technologies, Bioinformatics and Bioengineering (BIBE), 2013 IEEE 13th International Conference on, pages 1-4. [2]! BCH, 2013. Honduras en cifras, 2012-13, Banco Central de Honduras, BCH, 2013. Disponible en: http://www.bch.hn/download/honduras_en_cifras/hencifras 2011_2013.pdf [3]! Ni-LABS, 2013. “Not impossible’s project Daniel uses 3d printers to make prosthetic arms for children of war in south

El tiempo de impresión de todas las piezas fue de 48 horas, y el tiempo de ensamblaje de alrededor de 2 horas. Es así que, la fabricación de una mano completamente modificada puede lograrse en poco más de dos días, la mitad de lo que tarda una prótesis hecha de manera convencional. Derechos reservados COPIMERA 2015

111


XXV#CONGRESO+PANAMERICANO+DE+INGENIERÍA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+

Octubre+8#10,+2015,+Tegucigalpa+Honduras+ + sudan”. Disponible en: http://media.wix.com/ugd/9bcbad_b72353cd3bed48f49391 924d4a7448a9.pdf [4]! OHP, 2014, Open Hand Project. http://www.openhandproject.org/ [5]! Ribeiro Cunha da Silva, J. et al, 2014. Mechanical tests in thermoplastic elastomers used in 3D printers for the construction of hand prosthesis, IEEE Health Care Exchanges (PAHCE), 2014 Pan American, pages 1-6. Ricardo David Borjas Alemán, nacido en la ciudad de Tegucigalpa, Honduras. Cursó su educación primaria y secundaria en el colegio Elvel School, donde obtuvo su título de bachiller en Ciencias y Letras. En el año 2009 ingreso a la Universidad Tecnológica Centroamericana, UNITEC en Tegucigalpa, Honduras, donde actualmente cursa la carrera de Ingeniería Biomédica.

Wilfredo César Flores Castro, nacido en Tegucigalpa, Honduras. Recibió el grado de Ingeniero Electricista Industrial de la Universidad Nacional Autónoma de Honduras, UNAH, el grado de Master en Administración de Empresas del Tecnológico de Monterrey, México y el grado de Doctor en Ingeniería Eléctrica de la Universidad Nacional de San Juan, Argentina, en 2007. El Dr. Flores es Docente-Investigador y Coordinador de la Carrera de Ingeniería en Energía de la Universidad Tecnológica Centroamericana, UNITEC, en Tegucigalpa, Honduras. Asimismo, es miembro de la Academia Nacional de Ciencias de Honduras, siendo el punto focal en temas de Energía para Honduras ante la Red Inter-Americana de Academias de Ciencias, IANAS. El Dr. Flores es uno de los cuatro científicos hondureños más citados que trabajan en instituciones hondureñas, según el portal http://www.webometrics.info/en y de acuerdo a los perfiles públicos de Google Scholar Citations. Sus áreas de interés abarcan aplicaciones de inteligencia artificial, energía renovable, regulación de mercados eléctricos y política energética.

Derechos reservados COPIMERA 2015

112


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

113


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras#

2015 ASIGNACIÓN#DE#PÉRDIDAS#EN#SISTEMAS#DE#DISTRIBUCIÓN#BASADOS#EN# TEORÍA#DE#CIRCUITOS#Y#EL#MÉTODO#DE#AUMANN>SHAPLEY##

1

# Yuri Percy Molina Rodriguez1, Juan Laura Lazo2, Igor Henrique Pinheiro da Silva3

João Pessoa, Paraíba, Brasil, molina.rodriguez@cear.ufpb,br ; 2 Lima, Perú , jumala8898@gmail.com; 3João Pessoa, Paraíba, Brasil, igor.pinheiro@cear.ufpb.br

Resumen#

Nomenclatura#

Este trabajo propone una nueva metodología para la determinación de la responsabilidad de cada usuario en las perdidas eléctricas en redes de distribución radial. La principal dificultad que se enfrenta en la asignación de responsabilidad por las pérdidas eléctricas es la no linealidad entre las pérdidas y la potencia entregada, lo que hace complicado determinar el impacto de la carga de cada usuario en las pérdidas eléctricas en la red. Sin embargo, se sabe que la ubicación de las cargas en la red contribuye significativamente en el aumento o disminución de las pérdidas eléctricas del sistema; es decir, la influencia de las cargas en las pérdidas eléctricas varía en función de las potencias consumidas en cada tramo de la red. Asimismo, se debe tener en cuenta también el impacto del flujo de potencia reactiva en las pérdidas eléctricas, en lugar de solo considerar las pérdidas originadas por el flujo de potencia activa en la red. La metodología propuesta utiliza la teoría de juegos, específicamente, el método de Aumann-Shapley, desarrollando la relación entre las pérdidas complejas de la línea, el flujo en la línea según la ubicación de las cargas y el consumo de las cargas de una fuente cualquiera. Para determinar estas relaciones, este trabajo formula un método que permite un análisis separado de los efectos de las corrientes reales e imaginarias (también llamados “componentes de corrientes”) en las pérdidas del sistema mientras que fluyen hacia las cargas.

La notación utilizada a lo largo de este trabajo, se detalla a continuación para una referencia rápida. A.! Teoría de Juegos P(Ω) N C(Ω) Ci nN nΩ Δbi C(b) bi Uci

B.! Teoría de Juegos aplicada a la asignación de pérdidas eléctricas en redes de distribución radial !"# $"# %"# &"# '"# "*# $()

Palabras# clave: Asignación de pérdidas eléctricas, componentes de corriente, leyes de circuito, método de Aumann- Shapley, redes de distribución.

$()+ $()+ $(), "# -.()+

Derechos reservados COPIMERA 2015

: Probabilidad de ocurrencia de la Coalición Ω. : Grupo de agentes en el juego. : Costo de la coalición Ω. : Costo asignado al agente i. : Número de agentes del conjunto N. : Número de agentes en la coalición Ω. : Valor infinitesimal de bi. : Costo evaluado con b igual a b. : Participación correspondiente al agente i. : Costo unitario de Aumann-Shapley para el agente i.

114

: Flujo de potencia compleja a través del ramal k-m calculado en la barra k. : Corriente a través de la línea k-m. : Impedancia del ramal km. : Resistencia del ramal km. : Reactancia del ramal km : Corriente compleja que circula a través del ramal km debido a la corriente equivalente de la carga j. : Corriente compleja de la carga j. : Parte real de la corriente de carga en la barra j : Parte imaginaria de la corriente de carga en la barra j. : Participación unitaria de ILjr en la línea k-m.


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# "# -.(), : Participación unitaria de ILji en la línea k-m. "# /.()+ : Participación total del agente ILjr en las pérdidas complejas de la línea k-m. "# /.(), : Participación total del agente ILji en las pérdidas complejas de la línea k-m. "# /.() : Participación total del agente ILj en las pérdidas complejas de la línea k-m. N(k-m): Número de cargas aguas abajo conectadas al ramal k-m.

que se debe tener en cuenta para determinar las contribuciones de cada una de las cargas. Actualmente, las tendencias de los nuevos esquemas regulatorios se basa en incentivos en el que la no discriminación y el libre acceso a las redes de distribución son fundamentales para el proceso de reforma. Desafortunadamente, esta política de libre acceso debe ser aplicada sobre redes de distribución que producen pérdidas de energía. Por ello, estas pérdidas deben ser asignadas en forma transparente entre los consumidores, más aun si se tiene en cuenta que actualmente existe una creciente penetración de cargas de generación distribuida. Las pérdidas eléctricas tienen un comportamiento no lineal respecto a los flujos de potencia y resulta difícil determinar la responsabilidad de cada inyección de potencia en las pérdidas globales del sistema. Tradicionalmente, las pérdidas en la red de distribución se han asignado mediante el procedimiento de prorrateo, en el que las pérdidas se asignan a cada agente en proporción a los MW consumidos [1]. Este método es fácil de calcular; Sin embargo, los agentes de las redes de distribución no se representan solamente por sus consumos de potencia activa. Como resultado, este método proporciona señales económicas incorrectas a los usuarios del sistema [2]. Algunos métodos basados en el flujo se han presentado y revisado en [3] [4]. Estos métodos suelen combinar los resultados de flujos de potencia con el principio de reparto proporcional. Se identifica la distribución de los flujos en la red y se asume que cada MW que sale de un nodo contiene la misma proporción de los flujos que entran en este nodo. Presenta la desventaja de utilizar demasiados supuestos. Las pérdidas asignadas a un cliente, resultan de la suma de las pérdidas asignadas en cada ramal. En [5], se utilizó un algoritmo para asignar pérdidas activas y reactivas basadas en trazar el complejo flujo de potencia a través de la red, y la determinación de la proporción de cada fuente en el flujo y las pérdidas a través de cada rama. El acoplamiento entre la potencia activa y reactiva, así como el efecto transversal en pérdidas complejas, se enfatiza. Esto significa que un flujo de potencia activa (reactivo) no sólo puede causar pérdidas activas (reactivos). Por lo tanto, el flujo de potencia activa influye en las pérdidas reactivas, así como la influencia del flujo de potencia reactiva en las pérdidas activas, que no pueden ser ignorados en el proceso de asignación de las pérdidas eléctricas entre los usuarios de las redes de distribución radial.

Introducción# La transformación, durante los últimos años, de la industria eléctrica a nivel mundial ha estado orientada a fomentar la competencia y la reducción de los precios, a mejorar la eficiencia y la calidad, y a generar una mejora global de la industria. Estos cambios han tenido como objetivo principal acabar con la estructura integrada, monopolizadora, proteccionista y vertical de la industria eléctrica, proporcionando una oportunidad para la participación de agentes privados en las actividades que, hasta ese entonces, solo eran reservadas para el Estado. La actividad eléctrica fue dividida en tres segmentos: generación, transmisión y distribución. Asimismo, se estableció dos sistemas de precios: uno regulado para las actividades que por sus características no pudieran realizarse en condiciones de competencia y uno libre para aquellas actividades que pudieran realizarse en condiciones de competencia. A diferencia de la generación y la comercialización de energía eléctrica, las actividades de transmisión y distribución generalmente son consideradas como un monopolio natural. Los costos de tales actividades necesitan ser asignados a los usuarios de estas redes; la asignación puede realizarse aplicando tarifas por el uso de la red, con un enfoque en el verdadero impacto que estos tienen en dichos costos. Las pérdidas de energía son, entre otros, uno de los costos que deben ser asignados. Los sistemas de distribución se caracterizan por su topología radial, baja tensión y pérdidas eléctricas significativas. Estas pérdidas eléctricas deben distribuirse adecuadamente entre los barras. La mayoría de los métodos de asignación de la pérdida se han desarrollado para redes de transmisión. La principal dificultad que enfrentan en la asignación de las pérdidas es la no linealidad entre las pérdidas y la potencia suministrada que dificulta determinar el impacto de cada usuario en las pérdidas de la red. Diferentes métodos se presentan en la literatura técnica para la asignación de las pérdidas, la mayoría de ellos dedicado a las redes de transmisión. Otra dificultad está relacionada con la operación de las redes de distribución de baja tensión y altas proporciones de r / x. Como consecuencia, la asignación de la pérdida está fuertemente influenciada por el flujo de corrientes tanto activas como reactivas, por lo que, la influencia mutua entre los flujos de corriente activa y reactiva resulta ser un factor importante

Derechos reservados COPIMERA 2015

Asignación# de# costos# mediante# teoría# de# juegos# # La teoría de juegos es ampliamente reconocida como una herramienta importante en muchos campos, con aplicaciones prácticas a los problemas sociales, económicos, políticos, biológicos y otros. En el sector eléctrico, la teoría de juegos se ha aplicado ampliamente para varios problemas, especialmente 115


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# los problemas de asignación. A continuación, se revisan dos métodos de asignación de costos.

“dividir” los recursos de cada agente en varios segmentos infinitesimales y aplicar el método de Shapley a cada segmento, como si cada segmento representase un agente individual. La sensibilidad al orden de entrada de los agentes se mejora y se introducen características deseables en términos de coherencia económica e isonomía, lo cual lo convierte en un método más completo que el de Shapley. A primera vista, el esfuerzo computacional sería aún mayor que en el método de valor de Shapley debido al aumento significativo en el número de combinaciones. Sin embargo, se puede utilizar una solución analítica cuando los agentes se dividen en sub-agentes infinitesimales. Este método es el único que satisface los axiomas fundamentales para la asignación equitativa entre los agentes:

A.# MÉTODO DE VALOR DE SHAPLEY Es el valor promedio de la contribución incremental si todas las órdenes de entrada son asumidas igualmente. El método de Shapley puede ser visto como una extensión del método de costos incrementales, considerando todas las secuencias de entrada de los agentes de la coalición. El valor final asignado a cada agente se obtiene tomando el promedio de los costos asignados para cada una de las posibles secuencias de entrada. El método de Shapley realiza permutaciones en el orden de entrada de los jugadores, tratando de examinar todas las posibles combinaciones en el juego. El costo, la ganancia, el beneficio, la participación o la responsabilidad (de ahora en adelante, el costo) de cada jugador se calcula cuando es el primero en entrar en el juego, el segundo, el tercero, y así sucesivamente. El valor promedio de los costos incrementales en cada orden de permutación determina el costo de cada agente. De esta manera, la influencia del orden de entrada en el reparto del costo es eliminada. El valor de Shapley puede interpretarse como el valor promedio de los costos incrementales incluyendo al agente que considera todos los sub-coaliciones que no contienen este agente en particular, incluyendo la sub-coalición vacía. Suponiendo que las probabilidades de ocurrencia de subcoaliciones de varios tamaños son los mismos, la asignación se define formalmente a través de la expresión analítica siguiente:

Ci =

∑ P(Ω)(C (Ω + i) − C (Ω))

-

-

Para proporcionar una ilustración del método intuitivo Aumann-Shapley, se considera que una cierta cantidad de servicio b está siendo solicitado por todos los agentes. En este punto, el costo de este servicio será igual a C(b). Teniendo en cuenta que un agente dado i solicita un aumento en la cantidad de servicio igual a Δbi, como consecuencia, el costo del servicio sufrirá un incremento de C(b) a C(b+ Δbi). El costo adicional causado por este agente es C(b + Δbi) - C (b). Como se explica en el párrafo anterior, el orden de entrada afecta a la asignación de costos, por lo tanto, el orden en que los agentes solicitan cantidades adicionales de servicio debería influenciar en la asignación de costos. El problema puede ser resuelto dividiendo cada agente en partes infinitesimales (Δbi → 0). Por lo tanto, el efecto en el nuevo sub-agente Δbi en la función de costo es:

(1)

Ω⊆ N

Basado en conceptos probabilísticos:

Ci =

(nΩ )!(nN − nΩ − 1)! (C (Ω + i ) − C (Ω)) (nN )! Ω⊆ N

(2)

Con la aplicación del valor de Shapley, se obtienen resultados plausibles y la solución se considera intuitivamente "justa", ya que todos los agentes tienen la misma oportunidad de estar en las mejores y peores posiciones de orden. Sin embargo, debido a su naturaleza combinatoria, el problema crece exponencialmente con el número de agentes y el método se convierte en computacionalmente inviable. Por ejemplo, el número total de permutaciones para el caso de n agentes es igual a N! (hay aproximadamente 3.628 800 permutaciones posibles para diez agentes).

C (b* , Δi ) − C (b* ) ∂ C (b* ) ≅ Δi ∂bi b =b*

(3 )

Donde C(b*) es el costo evaluado con b igual b*, y Δbi es el valor infinitesimal de bi. Es decir, el costo adicional debido a Δbi es aproximadamente igual al costo marginal. Bajo algunas condiciones matemáticas [6], se puede ver que cuando el valor de bi aumenta desde cero a su valor máximo, todos los promedios de costos marginales tienden a un valor conocido

B.# MÉTODO DE AUMANN-SHAPLEY El método de Aumann-Shapley se presenta como una consecuencia lógica del método de Shapley, surgió de la idea de Derechos reservados COPIMERA 2015

Simetría: el costo asignado a cada jugador no depende del orden de entrada de los jugadores. Eficacia: la suma de los costos asignados a un jugador individual es igual a la ganancia total (costo total recuperado). Aditividad: la suma de los costos asignados a un jugador que participa en dos juegos separadamente es igual al costo asignado a dicho jugador cuando los dos juegos se realizan al mismo tiempo. Isonomía: la suma de los costos asignados para los dos jugadores que tienen la misma influencia en la función costo debe tener la misma participación unitaria.

116


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# "*# "*# "*# !"# = $(6 + ⋯ + $() + ⋯ + $(9

como el "costo unitario de Aumann-Shapley", que se expresa matemáticamente como: 1

UCi =

∂ C (tb) dt ∂bi t =0

(4 )

Los términos de la expresión (7) pueden ser reescritos como una función de las corrientes reales e imaginarias de las cargas.

La ecuación (4) debe ser analítica o aplicada de forma iterativa. Para algunos problemas es posible obtener soluciones analíticas como las que se presentan en este trabajo. Finalmente, el costo asignado a cada agente i es:

Ci = bi ⋅UCi

"*# "*# "*# ; !"# = ($(6+ + ⋯ + $()+ + ⋯ + $(9+ ) "*# "*# + ($(6, + ⋯ + $(), + ⋯ "*# ; + $(9, ) ×ʓ"# 5

(5 )

(8)

Descomponiendo la impedancia serie de la línea ʓ<= =

Teoría# de# juego# aplicado# a# la# asignación# de# pérdidas#en#redes#de#distribución#

r<= + jx<= , y desarrollando la ecuación (8), se tiene: "*# "*# "*# ; !"# = 5555 ($(6+ + ⋯ + $()+ + ⋯ + $(9+ ) "*# "*# + ($(6, + ⋯ + $(), + ⋯ "*# ; + $(9, ) ×&"# 55 +55 "*# "*# "*# ; 5555A ∗ ($(6+ + ⋯ + $()+ + ⋯ + $(9+ ) "*# "*# + ($(6, + ⋯ + $(), + ⋯ "*# ; + $(9, ) ×'"# 5

En la actualidad, las tendencias de los nuevos sistemas de reglamentación se basan en incentivos en el que la no discriminación y el libre acceso a las redes de distribución son esenciales para el proceso de reforma. Esta política cuando se aplica en los sistemas de distribución conduce a un aumento natural de las pérdidas. Estas pérdidas se deben asignar de forma transparente entre los agentes de la red. El problema de la asignación consiste en determinar la responsabilidad de los agentes para cada servicio ofrecido o demandado por ellos, pues todos son responsables, en alguna medida, de los costos generados. En el caso de la asignación de pérdidas eléctricas, consiste en determinar la responsabilidad de cada agente en dichas pérdidas. Para una mejor explicación, se considera el circuito de la figura 1 en el cual se desarrollará el método propuesto. Las pérdidas complejas en un ramal de distribución, tal como el de la figura 1, se pueden expresar como una función de la corriente de carga que fluye a través de la rama k-m,

!"# = ($"# )×($"# )×ʓ"# 5

(7)

"*# "*# "*# ×($(6 + ⋯ + $(: + ⋯ + $(9 ) × "# 5

(9)

Con el fin de asignar las pérdidas de distribución a cada una de las cargas, se considera la corriente de carga. Luego, se aplica el método de Aumann-Shapley en el juego "asignación de pérdidas" con n jugadores (ID6 , … , IDG , … , IDH ), que puede ser expandido en 2n jugadores, al considerar sus componentes real e imaginaria como partes independientes. Por lo tanto, el total de jugadores son (ID6I , ID6J … , IDGI , IDGJ + ⋯ + IDHI , IDHJ ). Para obtener la participación unitaria de cada jugador, se utiliza (4).

(6)

-! Participación unitaria de $()+ en la línea k-m. "# -.()+ =

6

K!"# (L$( ) PL K$()+ MNO

(10)

Calculando la derivada e integrando (10), se tiene: "# "*# "*# "*# -.()+ = ($(6+ + ⋯ + $()+ + ⋯ + $(9+ ) ×&"# 55 +55 "*# "*# "*# 5555A ∗ ($(6, + ⋯ + $(), + ⋯ + $(9, ) ×'"# 5

(11)

Figura 1: Corrientes de carga que fluyen a través de la línea k-m

Desarrollando (6) y sustituyendo $"# =

"*# "*# $() + ⋯ + $(6 , se tiene:

Derechos reservados COPIMERA 2015

"*# $(6

Finalmente, para determinar la participación total del jugador $()+ en las pérdidas de la línea, la participación unitaria es multiplicada por el número de jugadores:

+⋯+

117


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# "# "*# "*# "*# /.()+ = $()+ . ($(6+ + ⋯ + $()+ + ⋯ + $(9+ ) ×&"# +55 "*# "*# "*# 555555555A ∗ $()+ . ($(6+ + ⋯ + $()+ + ⋯ + $(9+ ) ×'"# 5

aplicará en un circuito de prueba y posteriormente en un alimentador de media tensión de una empresa de distribución eléctrica del sur del país.

(12)

A.# Aplicación#en#circuito#teórico#de#prueba#

-! Participación unitaria de IDGJ en la línea k-m. "# -.(,+ =

En esta parte se presenta un ejemplo numérico mediante el cual se podrá evaluar el desarrollo y la validez de los resultados obtenidos con el método propuesto. La metodología será aplicada en el sistema de distribución de 11 kV de 30 nodos (figura 2), analizado en el artículo "Energy Loss Allocation in Radial Distribution Systems: A Comparison of Practical Algorithms" presentado en [7], lo cual permitirá comparar y evaluar detalladamente los resultados obtenidos con la metodología propuesta respecto a los resultados obtenidos mediante tres algoritmos alternativos, que son el método de asignación de prorrateo basado en la demanda de cada consumidor y los métodos de asignación cuadrática y proporcional basados en la identificación de la parte real y reactiva de la corriente en cada ramal y en los que las pérdidas son asignadas a cada consumidor. Los datos de las líneas y las cargas para este sistema se muestran en la tabla 1, los resultados de los flujos a lo largo de la red se muestran en la tabla 2. Las cargas consideradas son todas del tipo industrial o comercial. Los datos del flujo de carga efectuado previamente y sus resultados son empleados como datos de entrada para la aplicación del método propuesto y de los métodos utilizados para las comparaciones respectivas.

6

K!"# (L$( ) PL K$(,+ MNO

(13)

Calculando la derivada e integrando (13), se tiene: "# "*# "*# "*# -.(), = ($(6, + ⋯ + $(), + ⋯ + $(9, ) ×&"# 55 +55 "*# "*# "*# 5555A ∗ ($(6, + ⋯ + $(), + ⋯ + $(9, ) ×'"# 5

(14)

Finalmente, para determinar la participación total del jugador $(), en las pérdidas de la línea, la participación unitaria es multiplicada por el número de jugadores: "# "*# "*# "*# "*# /.(), = $(), . ($(6, + ⋯ + $(), + ⋯ + $(9, ) ×&"# +55 "*# "*# "*# "*# 555555555A ∗ $(), . ($(6, + ⋯ + $(), + ⋯ + $(9, ) ×'"# 5

(15)

La participación total del jugador ILJ en las pérdidas de la línea, se obtiene de la suma de (12) y (15): "# "# "# /.() = /.()+ + 5 /.(),

(16)

Reordenando (16), se tiene: "# "*# "*# "*# "*# /.() = $()+ . $(6+ + ⋯ + $()+ + ⋯ + $(9+ "*# + $(), . ($(6, + ⋯ + $(), + ⋯ + $(9, ) ×&"# +55 "*# "*# "*# "*# 555555555A ∗ $()+ . $(6+ + ⋯ + $()+ + ⋯ + $(9+ "*# + $(), . ($(6, + ⋯ + $(), + ⋯ + $(9, ) ×'"# 5

(17)

La expresión (17), se obtiene aplicando la teoría de circuitos y el método de Aumann-Shapley, es la participación del jugador ILJ en las pérdidas complejas de la línea k-m. En esta expresión la participación de las corrientes real e imaginaria es explicita.

Figura 2: Sistema de distribución con 30 nodos.

Para el sistema de distribución radial de 30 nodos, el sentido del flujo de potencia es desde la subestación o barra hacia las cargas. Por ejemplo, para el ramal 12-13, la corriente depende únicamente de la carga 13. Por lo tanto, la corriente a través de esta rama es:

Aplicación#del#método#propuesto# A continuación se muestran los resultados obtenidos al aplicar la metodología propuesta, comparándolas con los resultados de otras tres metodologías existentes. Inicialmente se Derechos reservados COPIMERA 2015

$6;*6R = $(6R 5 118

(18)


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# Donde:

$(6R =

reactivas de la línea k-m. Estas participaciones pueden ser cuantificadas mediante las ecuaciones (12) y (15).

.(6R − A. T(6R ∗ U6R

(19)

Tabla 1 Datos de líneas y cargas de sistema de distribución radial de 30 nodos. Nro.%del% Nodo%de% Nodo%de% Ramal Envío Recepción jj IS%(jj) IR%(jj)

Del mismo modo, la corriente a través del ramal 3-4 es:

$6V*6W = $(6W + $(6X + $(6Y + $(6Z + $(6[

(20)

A partir de estas ecuaciones, es posible identificar los ramales y nodos aguas abajo de un ramal dado. De la solución de un flujo de potencia, es fácil de calcular las corrientes que circulan en los ramales. En [8] se propone una metodología para la determinación de los nodos aguas abajo de cada ramal. En este documento, se utiliza parte de este algoritmo para calcular la corriente de cada ramal en términos de la corriente de sus nodos o cargas aguas abajo. La expresión para la corriente que fluye en el ramal k-m está dada por: \("*#) "*# $()

$"# =

(21)

)N6

También definida como: "# $()

=

"# $()+

"# A5$(),

+

(22)

De las ecuaciones anteriores, se tiene: \("*#)

\("*#) "# $()+ + A.

$"# = )N6

"# $(),

(23)

)N6

Sustituyendo (23) en (17), la participación de la carga p en las pérdidas del ramal k-m es: \ "*# "# /.(]

X"(Ω)

PL%(IR%(jj)) QL%(IR%(jj)) (kW) (kVar)

1

1

2

1,632

1,1019

162

96

2

2

3

1,088

0,7346

150

138

3

3

4

0,544

0,3673

12

7,2

4

4

5

0,272

0,1836

30

18

5

5

6

0,544

0,3673

45,6

33,6

6

6

7

1,376

0,3896

12

6

7

7

8

2,752

0,7792

18

14,4

8

8

9

4,128

1,1688

156

120

9

4

10

3,6432

1,5188

48

36

10

10

11

0,9108

0,3797

64,8

36

11

11

12

0,4554

0,1898

36

18

12

12

13

0,4554

0,1898

12

6

13

11

28

1,376

0,3896

48

36

14

28

29

1,376

0,3896

36

24

15

29

30

4,128

1,1688

26,4

14,4

16

5

20

0,9108

0,3797

12

6

17

20

21

1,8216

0,7594

48

48

18

21

22

2,7324

1,1391

96

72

19

22

23

0,9108

0,3797

32,4

24

20

21

24

2,752

0,7792

96

84

21

24

25

3,0272

0,8571

54

46,8

22

25

26

2,752

0,7792

30

24

23

26

27

2,752

0,7792

24

12

24

6

14

0,9108

0,3797

30

24

25

14

15

1,8216

0,7594

48

36

26

15

16

1,8216

0,7594

48

36

27

16

17

0,9108

0,3797

120

108

28

16

18

1,376

0,3896

72

36

29

18

19

1,376

0,3896

36

36

\ "*# "# $()+

= $(]+ .

R"(Ω)

"# $(),

+ $(], .

)N6

1)! Resultados# Obtenidos. En la tabla 3 y figura 3 se muestran los resultados obtenidos utilizando el método propuesto, así como los resultados obtenidos con los métodos de prorrateo, método de asignación cuadrática y método de asignación proporcional. Se verifica que el método propuesto toma en consideración la ubicación de las cargas a lo largo de la red, lo cual se ve claramente en el caso analizado en el circuito de prueba, en el cual para la carga en el nodo 2, según el método de prorrateo, le corresponde 13,69 kW a pesar de estar bastante cerca a la barra de alimentación (fuente), mientras que con el método propuesto, solo se le asigna 6,32 kW. Asimismo, para el caso analizado en el circuito de prueba, cargas de la misma magnitud, con el método de prorrateo tienen asignadas las mismas pérdidas a pesar de estar ubicadas unas

)N6

×&"# + 555A

\ "*# "# $()+

∗ $(]+ .

(24)

)N6 \ "*# "# $(), ×'"# 5

+ $(], . )N6

Se puede observar que el componente real de la carga p participa tanto en las pérdidas activas como en las pérdidas

Derechos reservados COPIMERA 2015

119


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# más lejanas que otras de la barra de alimentación (fuente), tal es el caso de las cargas 10 y 28 (más lejana), que son de la misma magnitud, ambas con el método de prorrateo, tienen asignados 4,36 kW, mientras que con el método propuesto tienen asignados 4,39 kW y 4,63 kW respectivamente. En este caso, se puede observar con mayor claridad cómo varía la asignación de las pérdidas tomando en consideración la ubicación geográfica de las cargas. Ello se ve en el cliente 1, ubicado en el nodo 2: según el método de prorrateo, le corresponde 20,58 kW a pesar de estar bastante cerca de la barra de alimentación (fuente), mientras que con el método propuesto, solo se le asignan 9,68 kW. Tabla 2 Datos de flujos de potencia y resultados obtenidos N°

Nodo% kW% origen tramo

kVAR% kVA% tramo tramo

Nodo% Va%(kV) destino

I

Ir

Ii

1

1

1744

1285

2166

1

11

113,7

91,5

54,3

2

1

1744

1285

2166

2

10,6

113,7

91,5

54,3

3

2

1519

1146

1903

3

10,4

103,5

82,6

49,8

4

3

1334

985

1658

4

10,3

92,2

74,2

5

4

276

172

325

10

10,2

18,3

15,5

6

10

224

135

262

11

10,1

14,9

12,8

7

11

111

74

133

28

10,1

7,6

8

28

63

38

73

29

10,1

9

29

26

14

30

30

10

11

48

24

54

11

12

12

6

12

4

1032

796

13

5

398

319

14

20

384

15

21

129

16

22

17 18

Figura 3: Pérdidas asignadas (kW) a los clientes por cada metodología aplicada. Tabla 3 Responsabilidad por pérdidas eléctricas asignadas a cada usuario

44,1

Carga% (Nodo) 2

Método% Propuesto 6,3

Método% Prorrateo 13,9

Método% Cuadrático 8,16

Método% Proporcional 7,3

8,2

3

11,32

14,8

15,5

13,7

6,6

4

0,92

1,13

0,6

0,75

6,3

3,5

5

2,45

2,83

1,15

1,44

4,2

3,6

1,9

6

4,27

4,58

2,83

3,35

10,1

1,7

1,5

0,7

7

0,77

0,82

0,38

0,3

12

10,1

3,1

2,8

1,2

8

1,37

1,54

0,68

0,56

13

13

10,1

0,8

0,7

0,3

9

18,55

15,9

24,1

22,2

1303

5

10,2

73,3

58

35,4

10

4,74

4,85

3,36

3,7

510

20

10,2

28,8

22,5

14,1

11

6,01

5,99

6,74

6,21

312

494

21

10,2

28

21,7

13,7

12

3,25

3,25

2,35

2,45

96

161

22

10,1

9,1

7,3

4,4

13

1,09

1,08

0,23

0,26

32

24

40

23

10,1

2,3

1,8

1,1

14

3,07

3,1

1,35

1,56

21

207

168

266

24

10,1

15,1

11,7

7,4

15

5,3

4,85

5,16

4,98

24

109

83

137

25

10,1

7,8

6,2

3,8

16

5,75

4,85

5,43

5,3

19

25

54

36

65

26

10,1

3,7

3,1

1,7

17

15,69

13,04

19,79

17,89

20

26

24

12

27

27

10

1,5

1,3

0,6

18

7,74

6,5

7,49

7,26

21

5

600

456

754

6

10,2

42,5

33,8

20,5

19

4,97

4,11

4,66

4,57

22

6

362

279

457

14

10,1

25,9

20,5

12,5

20

1

1,08

1,02

0,96

23

14

330

254

417

15

10,1

23,7

18,8

11,5

21

5,75

5,48

5,68

5,43

24

15

279

217

353

16

10

20,3

16

9,8

22

10,86

9,7

12,65

11,86

25

16

108

72

130

18

10

7,5

6,2

3,5

23

3,67

3,26

3,61

3,45

24

11,9

10,31

14,08

13,63

26

18

36

36

51

19

10

2,9

2,1

1,5

25

6,99

5,77

7,11

6,77

27

16

120

108

162

17

10

9,3

6,9

4,6

26

3,84

3,1

3,88

3,69

28

6

190

141

237

7

10,2

13,4

10,8

6,4

27

2,66

2,17

2,7

2,56

29

7

177

135

223

8

10,1

12,7

10,1

6,1

28

5,02

4,85

3,69

4

30

8

158

120

198

9

10

11,3

9

5,4

29

3,66

3,5

1,56

1,76

30

2,57

2,43

0,87

0,98

B.# Aplicación#en#caso#real# La metodología será aplicada en un sistema de distribución de 10kV, para lo cual se utilizará un alimentador en media tensión de una empresa de distribución eléctrica del Sur del Perú. Ello permitirá comparar y evaluar detalladamente los Derechos reservados COPIMERA 2015

120


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# resultados obtenidos con la metodología propuesta respecto a los resultados mediante el método de prorrateo. La comparación se efectúa respecto al método de prorrateo, puesto que es la metodología aplicada en el país para la asignación de las pérdidas eléctricas.

Conclusiones# En este trabajo se presenta una propuesta nueva para asignar simultáneamente las pérdidas de potencia activa y reactiva entre los usuarios de un sistema de distribución. Determinando el aporte de cada usuario en las pérdidas eléctricas en cada uno de los tramos a lo largo de la red de distribución. El método propuesto se basa en las leyes de circuitos eléctricos combinado con la teoría de juegos, a través de una aplicación analítica del método de Aumann-Shapley. Las propiedades de las leyes de circuito y los axiomas del método de Aumann-Shapley son combinadas y proporcionan una asignación justa de responsabilidad por las pérdidas eléctricas en la red. El método propuesto cuantifica la participación de las componentes de corriente activa y reactiva de los usuarios en las pérdidas en cada tramo del sistema de distribución. La influencia es mayor en los sistemas que operan con alta circulación de potencia reactiva, debido a que las pérdidas activas son fuertemente influenciadas por las componentes imaginarias de corriente. El método propuesto por utilizar una solución analítica del método de Aumann-Shapley no requiere de esfuerzos computacionales significativos y evita errores numéricos que pueden surgir con otros métodos que utilizan procesos iterativos. Como una extensión de la metodología propuesta, se recomienda efectuar el estudio del impacto de la generación distribuida en las pérdidas eléctricas de las redes de distribución, y en una etapa posterior evaluar la ubicación óptima de la generación distribuida, de tal manera que el flujo inyectado permita reducir las pérdidas eléctricas en las redes de distribución.

2)! Resultados# Obtenidos.# Los datos de las líneas y las cargas para este sistema se muestran en la Tabla 4 y Figura 4 (Anexo 1); asimismo, los resultados obtenidos se muestran en la Figura 5. De igual forma, tal como en el caso analizado en el circuito de prueba, se verifica que el método propuesto toma en consideración la ubicación de las cargas a lo largo de la red, de acuerdo a esto, para el cliente 1 ubicado en el nodo 2, según el método de prorrateo, le corresponde 20,58 kW a pesar de estar bastante cerca de la barra de alimentación (fuente), mientras que con el método propuesto, solo se le asignan 9,68 kW; asimismo, para los clientes 2 y 11 ubicados cerca y lejos de la fuente respectivamente, ambos con cargas similares, con el método de prorrateo tienen asignadas 5,73 y 6,86 kW respectivamente, mientras que con el método propuesto, tienen asignados 4,53 y 8,08 kW respectivamente. Asimismo, con el método propuesto se garantiza que en la asignación se considere el impacto de las componentes real e imaginaria de las corrientes de cada una de las cargas. Tabla 4 Datos de líneas y cargas de alimentador MT - 10 kV No#del# Ramal#jj

Nodo#de# Nodo#de# Recepción# Envío#IS#(jj) IR#(jj)

R"(Ω)

X"(Ω)

PL#(IR# QL#(IR# (jj))# (jj))# (kW) (kVAR)

1

1

2

27.520

0.7792

230

2

2

3

41.280

116.880

60

110 38

3

3

4

364.320

151.880

12

7.2

4

4

5

0.9108

0.3797

130

68

5

5

6

0.4554

0.1898

145

83.6

6

3

7

13.760

0.3896

120

69

7

2

8

364.320

151.880

123

142

8

8

9

0.9108

0.3797

177

85

9

2

10

364.320

151.880

89

62

10

10

11

191.080

0.8797

48

36

11

11

12

235.540

108.980

76

38

Referencias# [1] Savier, J., & Das, D. (2009). Energy Loss Allocation in Radial Distribution Systems: A Comparison of Practical Algorithms. IEEE TRANSACTIONS ON POWER DELIVERY, vol. 24, No. 1, January 2009. [2] F. Galiana, A. Conejo, and H. Gil, “Transmission network cost allocation based on equivalent bilateral exchanges,” Power Systems, IEEE Transactions on, vol. 18, no. 4, pp. 1425–1431, Nov 2003. [3] J. Bialek, “Allocation of transmission supplementary charge to real and reactive loads,” Power Systems, IEEE Transactions on, vol. 13, no. 3, pp. 749–754, Aug 1998. [4] D. Kirschen, R. Allan, and G. Strbac, “Contributions of individual generators to loads and flows,” Power Systems, IEEE Transactions on, vol. 12, no. 1, pp. 52–60, Feb 1997. [5] S. Abdelkader, “Transmission loss allocation trough complex power flow tracing” in Power Systems

Figura 4: Pérdidas asignadas (kW) a los clientes según cada metodología aplicada Derechos reservados COPIMERA 2015

121


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# Conference, 2006. MEPCON 2006. Eleventh International Middle East, vol. 1, Dec 2006, pp. 310–316. [6] L. J. Billera, D. C. Heath, and J. Raanan, “Internal telephone billing rates-a novel application of non-atomic game theory,” Operations Research, vol. 26, no. 6, pp. pp. 956–965, 1978. [Online]. Available: http://www.jstor.org/stable/170258. [7] Savier, J., & Das, D. (2009). Energy Loss Allocation in Radial Distribution Systems: A Comparison of Practical

Algorithms. IEEE TRANSACTIONS ON POWER DELIVERY, vol. 24, No. 1, January 2009. [8] Ghosh, D., & Das, D. (1999). Method of load flow solution of radial distribution networks, IEEE Procedimiento General de Transmisión y Distribución, vol. 146, no. 6, pp. 641 – 648.

# Yuri Molina was born in 1978, obtained Diploma in Electrical Engineering (2003) from the National University of Engineering, Lima, Peru. M.Sc in Power System (2005) from Federal University of Maranhao. Ph.D. in Electrical Engineering (2009) from Catholic University of Rio de Janeiro, Brazil. He joined the Electrical Engineering Department of Federal University of Paraiba, Paraiba, Brazil, in 2012. His research interests include control, operations, planning, and economics of electric energy systems, as well as development of new. # Juan Laura obtained Diploma in Electrical Engineering (1994) from the National University of the Callao, Lima, Peru. M.Sc in Power System (2014) from National University of Engineering. He works as Engineer Analyst in Luz del Sur, company of Electric Distribution in the southern and eastern area of Lima, Peru. He is currently responsible for the area of electric power quality. He has implemented the systems of automatic voltage regulation in transformer substations and the system for electrical load forecasting.

Igor Pinheiro was born in 1988, obtained Diploma in Electrical Engineering (2013) from the Federal University of Campina Grande, Campina Grande, Brazil. Igor is a first year Master's student in Power System at Federal University of Paraiba, João Pessoa, Brazil.

Derechos reservados COPIMERA 2015

122


Nodo 1 (Fuente)

Nodo 10

Nodo 2

Anexo 1

123

Nodo 8

Nodo 3

Nodo 7 Figura 4: Esquema unifilar de alimentador real en media tensión

Nodo 9

Nodo 11

XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras#

Derechos reservados COPIMERA 2015

Nodo 4

Nodo 12

Nodo 5

Nodo 6


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ +

+ + ARTIFICIAL+NEURAL+NETWORK+APPLIED+TO+MEDIUM#TERM+DEMAND+FORECASTING+TO+ SUPPORT+THE+DISTRIBUITION+SYSTEM+EXPANSION+ R. Á. O. Medeiros1, F. R. Paulo1, G.L. de França Sales1, K. J. A. Maciel1, M. Prestes1,Y. P. Molina Rodriguez1, E. C. T.de Macedo1, J. M. M. Villanueva1, H. D. M. Braz1, S. A. de G. N. Neto2, A. W. R. Dantas2 and M. R. C. Paes Junior2 1

Federal University of Paraíba – UFPB Alternative and Renewable Energy Center –CEA, Electrical Engineering Department, João Pessoa - PB, Brazil 2 "Empresa de Distribuição de Energia – ENERGISA/Paraíba - João Pessoa - PB, Brazil" " +

" Abstract+ Artificial neural networks have been extensive employed for forecasting over the last 20 years, due to their powerful non-linear mapping capability. This paper presents the development of a new methodology of demand forecasting based on Artificial Neural Networks (ANN). The aim of this methodology is to support specialists in planning investments. Several topologies were developed to improve an Artificial Neural Network that presented satisfactory results on estimating power transformer demand increase, this was based on measured demand from 2008 to 2013 from a real power substation in Brazil.

With the objective of increase the accuracy in forecast results, a number of methods have been developed, adapted and improved over time. Several methods have been adapted and improved over the time. Before the Artificial Intelligence methods, only statistic and mathematical methods have been used to predict time-series data, in special the Box and Jenkins’ model [3]. Methods based on artificial intelligence, led by ANN and Fuzzy logic began to be used in demand forecasting, they originated from the development of computational techniques that had greater advantage over the large nonlinearities in data and did not depend on complex mathematical models. In addition to these, hybrid methods have been developed, which combine two or more methods, namely mathematical or artificially intelligence.

Keywords— Demand forecasting; Power electricity distribution; Medium term demand forecasting; Artificial neural networks; Neural network applications.

I.+

Although most of those methods provide satisfactory results, these techniques are continuously being improved and new methods are being developed with the purpose of increasing the precision of the results, besides the data treatment to reduce the influence of outliers in the demand forecasting.

+INTRODUCTION+

One of the most important tools for the strategic planning of the power system is the demand forecasting. The power consumption had increased significantly over the years, and the power company supplier, in our region, the Energisa Paraíba, should understand the behavior of this increase to plan the system expansion and increase the quality of the power supply.

II.+

A.! Time series forecasting A time series is a data sequence associated to the time [3]. It can be related to several variables, for example, the number of products transported from a factory. Several fields, as business, economy, engineering and natural sciences use the evaluation of time series to predict data and use it as a decision aid tool [4]. The Authors [4], [5], [6] divide the time series forecasting methods in two classes: the statistical methods and the artificial intelligence methods. The main statistical methods presented in literature are linear regression, autoregressive moving average (ARMA), autoregressive integrated moving average (ARIMA) and

Medium-term demand forecasting can be made from periods of weeks to months and provides useful information for power system planning and operations [1]. In [2] it is possible to highlight several points that increase the importance of the demand forecasting: power interchange with others utilities, production scheduling, energy consumption reduction, etc.

Derechos reservados COPIMERA 2015

TIME+SERIES+FORECASTING+METHODS+

124


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

spectral analysis. In relation to the artificial intelligence methods, the main are the specialized systems, ANN, Fuzzy logic, linear regression and genetic algorithms. For this paper was adopted one of the most used method based on artificial intelligence, the Artificial Neural Networks, that will be detailed in sequence. III.+

ARTIFICIAL+NEURAL+NETWORK+(ANN)+

The brain is a complex non-linear and parallel data processing system [7]. It presents a big ability of patterns recognition and generalizing. This characteristic motivates the study of the ANN. The ANN are parallel systems composed by simple processing units, the neurons, that are responsible to calculate determined mathematic functions that are able to solve a big number of problems. Several papers use the ANN in time series forecasting [6], [8], [9], [10], [11], [12], [13] and [14]. A.! The artificial Neuron An artificial neuron is a mathematical function conceived as a model of biological neurons. They are the constitutive units in an artificial neural network. Depending on the specific model used, they may be called as semi-linear unit, Nv neuron, binary neuron, linear threshold function, or McCulloch–Pitts (MCP) neuron. The artificial neuron receives one or more inputs (representing dendrites) and sums them to produce an output. Usually the sums of each node are weighted, and this result is used as input of a nonlinear function known as activation function or transfer function. The transfer functions usually have a sigmoid shape, but they may also take the form of other non-linear functions, piecewise linear functions, or step functions. They are also often monotonically increasing, continuous, differentiable and bounded [15]. The basic model is presented at Figure 1.

Fig. 2." Multi Layer Perceptron model.

C.! The Backpropagation Algorithim (BP) In 1986, D. E. Rumelhart, C. E. Hinton, and R. J. Williams presented a different technique related to the learning process in neural networks [17]. The backpropagation algorithm learn with examples. Each example would make the network’s weights change so that, when the training was finished, it would give an appropriated output. The BP is one of the most popular algorithms to train neural networks. D.! The Resilient Backpropagation (RProp) Years later, Riedmiller, M. and Braun, H. proposed an evolution to the classic backpropagation algorithm, the resilient backpropagation. The RProp was able to manage a local adpaptation of the weight updates according to the error’s function behavior [18]. This leaded to an extremely efficient adaptation process comparing to other adaptive techniques. The algorithm modifies the update values for each weight according to the behavior of the signs of the partial derivates in each dimension of the weight-space [18]. As a result, the number of learnings steps was reduced and the computation’s expenses was considerably small. IV." CASE STUDY: ITAPORANGA SUBSTATION In this paper, it was considered the real collected data from a high voltage substation, called Itaporanga, placed at Paraíba/Brazil. The data set is from 2008 to 2013, and it is composed by the weekly maximum active power. In Figure 3 is illustrated the single line diagram of Itaporanga substation. In this substation were performed several measurements on the 69 kV and 13.8 kV buses.

Fig. 1." Artificial neuron model.

B.! The MultilayerPerceptron (MLP) An MLP is a network of simple neurons called perceptrons. The basic concept of a single perceptron was introduced by Rosenblatt in 1958 [16]. The perceptron computes a single output from multiple real-valued inputs by forming a linear combination according to its input weights and then possibly putting the output through some nonlinear activation function. Derechos reservados COPIMERA 2015 125


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECà NICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Fig. 3." Single-line diagram substation Itaporanga located in Joao Pessoa / Brazil.

As noted in Figure 4, a power electrical system contains substations for power distribution, and these are usually monitored by data acquisition systems (RTU Remote Terminal Unit), registering voltage, current, power, power factor, etc., and forwarding the information to a server through a SCADA system. From the data acquisition, a database is constructed. All these information can be used for the extraction of knowledge, by means the input/output relation. In addition, information established through knowledge of an expert can be provided.

Fig. 5." Time series of demand for the period 2008-2013 for the substation Itaporanga/Brazil.

As the goal of forecasting is to determine the maximum power supported by the substation transformer for a future date, the daily data time series were converted to a scale composed by maximum weekly values. V."

DEMAND FORECASTING USING ANN - RPROP

The program mentioned in this section was developed in the programming language C# (C Sharp). The project used two open sources frameworks, the AForge.NET and the Accord.NET, to assist in the Neural Network system. To plot graphs, the OxyPlot library was used. In Figure 6 is illustrated the forecasting model using the ANN, that considers a window of past values of demand and the index of the forthcoming week, for example, P(k), P(k-1), P(k-2), P(k-3), Id(k+1), to perform the prediction of a future demand (k+1). It is possible to observe that the demand is represented using a weekly time base, and considering the highest weekly values. This representation allows implementing the forecasting model for the situations that the system reaches the maximum operation levels.

Fig. 4." Scheme of the basic elements of a substation monitoring and SCADA-system.

In Figure 5 is illustrated the time series of measurement points with a period of 15 minutes sampling, in high, medium and low voltage levels for the period 2008 to 2013. It is possible to observe in the demand profiles a high not linearity of the historical series, with seasonal characteristics and trend.

Derechos reservados COPIMERA 2015

126


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Fig. 6." Forecasting model for time series usind ANN for 1 value prediction.

The index of the forthcoming week was serially divided considering 52 weeks a year and then was converted to a binary number of 6 digits. This procedure improved the training process as well as the entire network itself. Fig. 7." Time serie forecasting model for a prediction window up to 1.

For a window forecasting superior than 1 it is possible to create models with feedback, to use the predicted value P(k+1) as input to predict the demand in the instant P(k+2), and successively, as illustrated in Figure 7.

The demand historical data is a non-stationary time series that presents seasonal and trend characteristics. The series’ trend indicates a growth of the curve and the forecasting method must be able to predict this behavior. However, to predict higher values than the ones present in the data, as well as predicting a non-stationary series, is difficult. To solve this problem, a method to predict changes, or differences, is proposed. The idea is to forecast the difference between the current value and the next one. In this way, there is no trend and no growth. In figure 8, the forecasting system using ANN is shown.

Fig. 8." Time serie forecasting model for predicting changes.

Still seeking the improvement of the forecasting process, a method was proposed to avoid one of the most common issues with ANNs, the overfitting. This happens when the network learns too much and loses its ability to generalize to Derechos reservados COPIMERA 2015

127


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

new situations. The idea was to pick the best neurons’ weights during the training fase and then use them in the test fase.

procedure is the one that supplies the demand prediction results. In Figure 10 is illustrated the result of the demand forecast procedure. The used ANN was configured with 11 demand past values to allow the prediction of one future value, with a feedback, as presented in the former Section. The ANN presents one hidden layer, with 45 neurons. The obtained MAPE during simulations was 4.0%. In this figure is possible to observe that the ANN can follow the time series trend and seasonality for a prediction window of 53 weeks.

To do so, it was created a different type of the validation technique. While the regular method stops the training when the learning error starts to increase, the implemented one consisted basically in testing the neural network during the whole learning fase. After each iteration, the network would be tested and the error, saved. The best validation error had its configuration stored and then it would be used in the test fase. Figure 9 shows the different parts of the validation process and its bahavior through time. The first chart presents the program running after 61 iteration; the second shows how the validation curve looks in the last iteration; and finally, the third one presents the chosen configuration after the training is over.

Fig. 10."Forecasting result using 11 past values

In Figure 11 is illustrated the prediction result when it is used 5 past values as inputs of the ANN, with an obtained MAPE of 4.2%. The used ANN was based on two hidden layers, with 10 and 25 neurons in each layer respectively.

Fig. 11."Forecasting result considering 5 past values as input.

Fig. 9." Validation method through time.

The results were satisfactory, with an error less than 5%. To compare, the Figures 10 and 11 present how the network behaves without considering the 2 methods applied to this paper: prediction of changes and validation.

VI." RESULTS The obtained results are associated with Itaporanga substation located in Paraíba/Brazil. The dataset was used to forecast the 21L2 supplier bus for a period of analysis from 2008 to 2013. Considering 52 weeks per year, it was available a time series with 278 samples or weeks. The data set was divided in three different sets: training (60%), validation (20%) and test (20%). In this paper, the test Derechos reservados COPIMERA 2015

In Figure 12 is illustrated the result with an ANN configured with 11 past values and 45 neurons in the first layer. It was obtained a MAPE of 8.1%.

128


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

In Figure 13 the ANN was configured with 5 past values, 10 neurons in the first layer and 25 neurons in the second layer. The obtained MAPE was 15.2%.

future demand can support the engineers and technicians of the power sector. VII.+

CONCLUSIONS+

In this paper, a forecasting system was developed using Artificial Neural Networks (ANN). The proposed prediction model considers different numbers of past demand values in the ANN input to predict a future demand. It was presented a technique that considered the feedback of the estimated value to increase the forecasting scenario. Also, this model featured a new system of prediction, the prediction of changes, and a new validation method. It was observed that these techniques improved the regular neural network and were able to obtain lower MAPEs. Finally, from the prediction model it was possible to estimate the demand increase of the power transformer of the substation, being a very useful tool for engineers and technicians of the power sector.

Acknowledgment+ The authors wish to thanks the ENERGISA Paraiba/Brazil and Federal University of Paraiba, for the financial support and scholarships.

Fig. 12."Forecasting result with regular ANN considering 11 past values.

References+ [1]" M. Ghiassi, David K. Zimbra, H. Saidane, Medium term system load forecasting with a dynamic artificial neural network model, Electric Power Systems Research, Volume 76, Issue 5, March 2006, Pages 302316, ISSN 0378-7796, http://dx.doi.org/10.1016/j.epsr.2005.06.010. (http://www.sciencedirect.com/science/article/pii/S0378779605001951 ). [2]" KARAYIANNIS, N. B. et al. Evaluation of cosine radial basis function neural networks on electric power load forecastingNeural Networks, 2003. Proceedings of the International Joint Conference on. Anais. IEEE, 2003. [3]" BOX, G. E. P.; JENKINS, G. M.; REINSEL, G. C. Time Series Analysis: Forecasting and Control. 4 edition ed. Hoboken, N.J: Wiley, 2008. [4]" FRANCO JUNIOR, E. F. Modelo para previsão de demanda ativa usando RNA. [s.l.] Universidade Estadual de Campinas, 2013. [5]" GUIRELLI, C. R. Previsão da carga de curto prazo de áreas elétricas através de técnicas de inteligência artificial. [s.l.] Biblioteca Digital de Teses e Dissertações da USP, 2006. [6]" VIGLIONI, G. M. C.; CURY, M. V. Q.; DA SILVA, P. A. L. Comparação entre Redes Neurais e Técnicas Clássicas para Previsão de Demanda de Transporte Ferroviário, 2006. [7]" HAYKIN, S. S. Redes Neurais - Principios E Prática. 2 edition ed. Porto Alegre: Bookman, 2001. [8]" ZHANG, H.-T.; XU, F.-Y.; ZHOU, L. Artificial neural network for load forecasting in smart gridMachine Learning and Cybernetics (ICMLC), 2010 International Conference on. [9]" DE AQUINO, R. R. B. et al. Development of an Artificial Neural Network by Genetic Algorithm to Mid-Term Load ForecastingInternational Joint Conference on Neural Networks, 2007. IJCNN 2007. [10]" CARMONA, D. et al. Electric energy demand forecasting with neural networksIECON 02 [Industrial Electronics Society, IEEE 2002 28th Annual Conference of the]. Anais... In: IECON 02 [11]" PARK, D. C. et al. Electric load forecasting using an artificial neural network. Power Systems, IEEE Transactions on, v. 6, n. 2, p. 442–449, 1991. [12]" GHIASSI, M.; ZIMBRA, D.; SAIDANE, H. Medium term system load forecasting with a dynamic artificial neural network model. Electric Power Systems Research, v. 76, n. 5, p. 302–316, 2006.

Fig. 13."Forecasting result with regular ANN considering 5 past values.

From the obtained results presented in this section is possible to conclude that the use of predicting changes and the validation method are very effective. In comparison to the results using the regular method, as seen in Figure 12 and 13, the technique presented in this paper was able to reduce an error of 15.2% to an error of 4.2%. The obtained results were satisfying, especially considering that the process uses predicted data instead of real data in the feedback of the network. Once the prediction model using ANN is developed, it is possible to perform estimations of the demand increase for the power transformers of the substation. For example, for the scenario presented in Figure 9, it is possible to predict 17 weeks, but for the first week, it is found a demand value equal to 4.96 MW, and in the week 17, the demand is equal to 5.86 MW, so it is verified an increase of 18.14%. It is possible to observe that the knowledge of the increase of a Derechos reservados COPIMERA 2015

129


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ [13]" CHARYTONIUK, W.; CHEN, M.-S. Neural network design for shortterm load forecasting International Conference on Electric Utility Deregulation and Restructuring and Power Technologies, 2000. Proceedings. DRPT 2000. [14]" CHARYTONIUK, W.; CHEN, M.-S. Very short-term load forecasting using artificial neural networks. IEEE Transactions on Power Systems, v. 15, n. 1, p. 263–268, fev. 2000b. [15]" Martin Anthony (January 2001). Discrete Mathematics of Neural Networks: Selected Topics. SIAM. pp. 3–. ISBN 978-0-89871-480-7. [16]" Rosenblatt, F., "The Perceptron: A Probabilistic Model for Information Storage & Organization in the Brain", Psychological Review, 65, pp. 386-408, 1958. [17] Sathyanarayana, S. A Gentle Introduction to Backpropagation, ( http://numericinsight.com/uploads/A_Gentle_Introduction_to_Backpropagat ion.pdf). [18] Riedmiller, M.; Braun, H. A direct adaptive method for faster backpropagation learning: the RPROP algorithm (http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=298623&url=h ttp%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnum ber%3D298623).

Derechos reservados COPIMERA 2015

130


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

131


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras#

E>35>2015 DIMENSIONAMENTO#DE#PAINÉIS#FOTOVOLTAICOS#USANDO#ENXAME#DE# PARTÍCULAS#PARA#REDUZIR#AS#PERDAS#DE#ENERGIA#E#MELHORAR#O#PERFIL# DE#TENSÃO# # Jean Silva de Souza1, Yuri Percy Molina Rodriguez2, Clivaldo Silva de Arúajo3, Weldell Pereira de Farias.4 1

2

3

João%Pessoa,%Paraíba,%Brasil,%jeane.souza@cear.ufpb.br:% João%Pessoa,%Paraíba,%Brasil,%molina.rodriguez@cear.ufpb,br:% João% 4 Pessoa,%Paraíba,%Brasil,%clivaldo@cear.ufpb.br:% João%Pessoa,%Paraíba,%Brasil,%Wendell.pereira@cear.ufpb.br%% % % %

1234" : Melhor posição da partícula até o momento; 5234" : Melhor posição da população até o momento; +16 : Fator de penalidade; 15 : Potência gerada; 17 : Potência da carga; 8# : Desvio de tensão; 81 : Desvio de potência; kW : Quilowatts; MW : Megawatts; #9:%ê<=$> : Vetor de potência; ?9:9@AB>C:BAD : Matriz de população de geradores; #9ABC>D : Vetor de perdas totais; #EADF$:G:%>H : Vetor de desvios de tensão; ?9:9IJAD% : Matriz de população de Pbest; ?9:9@JAD% : Matriz de população de Gbest; ?KAH:=$C>CA : Matriz de velocidade; #LH%B>9>DD>MAN : Vetor de ultrapassagens de potência.

RESUMO# Este trabalho apresenta um método de dimensionamento de painéis fotovoltaicos usando enxame de partículas, a fim de reduzir as perdas de energia e melhorar o perfil de tensão. Para a implementação é utilizado o software DIgSILENT PowerFactory® 15.2, especificamente a linguagem de programação em DIgSILENT (DPL). O método proposto foi aplicado e simulado no sistema de IEEE 13-Barras para validar o método. Os resultados do método proposto têm a capacidade de fornecer o dimensionamento para as unidades de geração distribuída. Além disso, os resultados ilustram a eficiência deste método para a melhoria do perfil de tensão e a redução das perdas de energia. Palavras# chave: Painéis Fotovoltaicos, Partículas, DIgSILENT PowerFactory®.

Enxame

de

Nomenclatura# A notação utilizada ao longo deste trabalho é detalhada abaixo para referência rápida. ! " % #$

: Índice de partícula; : Índice de tempo discreto; : Velocidade da partícula;

&$ '1) '2 +, -./0

: Posição da partícula; : Parâmetro cognitivo; : Parâmetro social; : Função Objetivo; : Número aleatório no intervalo de (0,1) aplicada à enésima partícula;

%

Derechos Reservados COPIMERA 2015

I.#

INTRODUCÂO#

As fontes renováveis são a grande aposta da humanidade para a produção de energia em tempos onde a sustentabilidade e a preocupação com o meio ambiente passaram a ser cada vez mais priorizados, assim como a qualidade de energia elétrica. Dentre as fontes renováveis de energia disponíveis, a energia solar se destaca como umas das mais sustentáveis e que causa menor impacto sobre meio ambiente [1]. A conversão de energia solar em energia elétrica por meio de células fotovoltaicas vem se apresentando como uma das melhores alternativas no aproveitamento da energia proveniente

132


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# do sol, além de ser, dentre as renováveis, a fonte que apresenta maior expectativa de crescimento para os próximos anos. A geração distribuída (GD) de energia elétrica pode vir a ser uma solução para os sistemas elétricos (maior eficiência, menor custo de geração, confiabilidade, descongestionamento de linha de transmissão, diminuição do impacto ambiental etc.), sendo definida como uma fonte de geração conectada diretamente à rede de distribuição ou ao consumidor final [2]. A expansão da geração distribuída requer estudos apropriados e análises minuciosas dos sistemas de distribuição para poder conectar as fontes utilizadas na GD [2]. É importante destacar que a apropriada conexão destas fontes de geração distribuída à rede deve ser de maneira ordenada com estudos elétricos prévios sobre a localização, potência gerada e/ou horas de atuação. Esses estudos podem determinar uma significativa melhoria das características técnicas e econômicas em um sistema elétrico, tanto em relação à solução de problemas operacionais já existentes quanto ao planejamento de novas redes elétricas [3] [4]. Entretanto, a entrada dessas novas fontes de energia sem o devido estudo tende a causar vários transtornos ao sistema, acarretando problemas ambientais, regulatório e operacional, sendo estes aspectos, constantemente, analisados na atual realidade das concessionárias de energia elétrica. Uma das ferramentas usualmente utilizadas nas análises de redes de distribuição é o fluxo de carga. Recentemente, existem vários métodos para analisar o impacto da GD em sistemas de distribuição. Alguns estudos fazem uso do método de Monte Carlo [5], outros utilizam uma metodologia baseada em Tabu search algorithm [6], lógica fuzzy [7], inteligência por enxame [8], entre outros. Estes últimos três métodos citados, além de otimizar o sistema, também podem ser usados para buscar a localização mais adequada para instalação de uma fonte de GD [9] [10]. Neste artigo um algoritmo de otimização por enxame de partículas é apresentado, para encontrar o dimensionamento ótimo de unidades de geração distribuída (painéis fotovoltaicos), tendo como finalidade a redução de perdas e a melhoria do perfil de tensão. Na seção 2 é apresentada uma breve revisão sobre a definição de geração distribuída no Brasil (Microgeração e Minigeração), em seguida, na seção 3, os principais métodos de otimização baseados em inteligência de enxame, na seção 4 a técnica de otimização por enxame de partículas (PSO), a formulação do problema na seção 5, na seção 6 os resultados e discussões e finalmente, a conclusão é dada na seção 7. II.#

elétrica que está ligado ao sistema de distribuição da rede, ou seja, é uma fonte de energia elétrica ligada diretamente ao sistema de distribuição [11]. O Institute of Electrical and Electronics Engineers (IEEE), define a GD como uma unidade de geração com instalações suficientemente pequenas em relação às grandes centrais de geração, permitindo sua conexão em um ponto próximo a rede elétrica existente junto aos centros de carga [12]. O Conseil International Grands Réseaux Electriques (CIGRE) define GD como unidades de geração com capacidade máxima de 50 MW a 100 MW, que geralmente são conectadas a rede de distribuição e que não tem geração centraliza [13]. No Brasil, GD é definida por meio do decreto n° 5.163 em 30 de julho de 2004 da seguinte forma [14]: “Art.14. Para os fins deste Decreto, considera-se geração distribuída a produção de energia elétrica proveniente de empreendimentos de agentes concessionários, permissionários ou autorizados (...), conectados diretamente no sistema elétrico de distribuição do comprador, exceto aquele proveniente de empreendimento: •% Hidrelétrico com capacidade instalada superior a 30 MW; e •% Termelétrico, inclusive de cogeração, com eficiência energética inferior a setenta e cinco por cento, (...)” O conceito de microgeração surge junto com o conceito de geração distribuída conforme já salientado. A microgeração distribuída pode ser considerada toda central geradora de energia elétrica com potência instalada menor ou igual a 100 kW. A microgeração de energia elétrica tem como objetivo principal a utilização de fontes renováveis de energia. A minigeração distribuída tem potência instalada maior que 100 kW e menor ou igual a 1 MW. III.#

# A sofisticação dos recursos computacionais desenvolvidos nos últimos anos possibilitou também avanços nas técnicas de otimização. Esses avanços que foram impulsionados com êxito, especialmente, por meio dos estudos de algoritmos evolutivos, em especial os baseados em enxame, têm tido grande sucesso em solucionar problemas de otimização de múltiplas soluções. A.# INTELIGÊNCIA DE ENXAME O termo enxame (população) é utilizado de forma genérica para se referir a qualquer coleção estruturada de agentes capazes de interagir. O exemplo clássico de uma inteligência de enxame é o enxame de abelhas. Entretanto, a metáfora de um enxame pode ser estendida a outros sistemas como uma colônia de formigas ou uma revoada de pássaros. A noção de enxame surgiu como um aspecto de movimento coletivo no espaço. De acordo com Bonabeu e Théraulaz em [15] inteligência de enxame inclui qualquer tentativa de projetar algoritmos ou dispositivos distribuídos de solução de problemas inspirados no

GERAÇÃO#DISTRIBUÍDA#

Embora na literatura haja diferentes definições sobre geração distribuída, o conceito é praticamente o mesmo entre os autores. A geração distribuída pode ser tratada como a geração de energia em pequena escala (micro ou minigeração) de forma descentralizada, podendo vir de uma variedade de fontes e tecnologia instalada por um consumidor de energia Derechos Reservados COPIMERA 2015

PRINCIPAIS#MÉTODOS#DE#OTIMIZAÇÃO# USANDO#INTELIGÊNCIA#DE#ENXAME##

133


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# comportamento coletivo de insetos sociais e outras sociedades de animais. Um enxame possui inteligência se certas características estiverem presentes [16]: •% Proximidade: Agentes devem ser capazes de interagir; •% Qualidade: Os agentes devem ser capazes de avaliar seus comportamentos; •% Diversidade: Permite os agentes reagir a situações inesperadas; •% Estabilidade: Nem todas as variações ambientais devem afetar o comportamento de um agente; •% Adaptabilidade: Capacidade de se adequar a variações ambientais. Algoritmo de otimização baseado em enxames utilizam uma população de possíveis soluções para cada iteração ao invés de apenas uma como os outros algoritmos de busca direta. Alguns algoritmos de otimização baseado em enxame são: Otimização por Colônia de Formigas (do inglês Ant Colony Optimisation (ACO)), Otimização por Colônia de Abelhas (do inglês Artificial Bee Colony (ABC)), Algoritmos Genéticos (do inglês Genetic Algorithms (GA), Busca por Difusão Estocástica (do inglês Stochastic Diffusion Search (SDS)) e Otimização por Enxame de Partículas (do inglês Particle Swarm Optimisation (PSO)). IV.#

matemática segue a Equação (1) da velocidade e a Equação (2) da posição: #$

= )#$

%

+ )))'P ∗ -./0() ∗ 1234"$

Velocidade

%

− &$

%

(1)

Componente Cognitivo

+ 'W ∗ -./0() ∗ 5234"$

%

− &$

%

Componente Social

) ) )&$

%

= &$

%

+ #$

%OP

)

(2)

A.# ALGORITMO DO PSO O Algoritmo básico foi dividido em sete passos para a otimização de enxame de partículas: 1.% Inicialmente gera-se n partículas com posições e velocidades aleatórias; 2.% Define-se a função objetivo a ser minimizada; 3.% Ajuste do Pbest de cada partícula: compara-se a melhor posição encontrada pela respectiva partícula; 4.% Ajuste do Gbest: compara-se a melhor posição encontrada na população; 5.% Atualiza-se a velocidade a partir da Equação (1); 6.% Atualiza-se a posição da partícula a partir da Equação (2); 7.% Volte para o passo 2, repetir até o passo 6 enquanto o critério pré-estabelecido não é alcançado.

OTIMIZAÇÃO# POR# ENXAME# DE# PARTÍCULAS# (PSO)#

A técnica de otimização por enxame de partículas é uma meta-heurística introduzida por James Kennedy e Russel Eberhart em 1995 e surgiu a partir de experiências com algoritmos que modelam o “comportamento social” observado em algumas espécies de pássaros e peixes [17] [18]. Otimização por enxame de partículas é uma técnica de procura iterativa em que partículas se movem em grandes áreas do espaço de acordo com uma função objetivo, sendo o movimento de cada partícula baseado na sua própria experiência [19]. PSO é inicializado com um grupo de partículas aleatórias procurando melhorar suas gerações com a solução ótima. O conjunto de todas as partículas é chamado população inicial ou enxame inicial. Depois de gerado as velocidades aleatórias para cada partícula de acordo com a função objetivo, o valor objetivo é avaliado. Em cada iteração, cada partícula é melhorada seguindo dois “melhores” valores, o primeiro é o melhor resultado que está partícula encontrou anteriormente, chamado de Pbest, e o segundo, é o melhor valor obtido por qualquer outra partícula da população, chamado de Gbest. Vale salientar que cada partícula do enxame pode ser representada por um objeto que possui associado a ele um vetor posição, isto é, a posição da partícula no espaço de busca, e um vetor velocidade, responsável por guiar as mudanças da posição das partículas durante a execução do processo. Na forma

Derechos Reservados COPIMERA 2015

%OP

B.# TOPOLOGIA E TROCA DE INFORMAÇÃO A troca e disseminação de informação entre as partículas do enxame é um dos principais componentes de qualquer enxame inteligente baseado no algoritmo de otimização por enxame de partículas. O PSO, assim como os outros algoritmos de otimização tem mecanismos próprios para disseminar as melhores posições encontradas durante a execução do algoritmo [20] [21]. A topologia é um mecanismo utilizado pelo enxame para distribuir informações. A escolha da topologia influência na avaliação da velocidade das partículas. Dependendo de como as partículas se comunicam entre si e do problema a ser tratado, a busca pela solução ótima pode priorizar tanto a velocidade de convergência como a qualidade da solução ou ambas [22]. As principais topologias utilizadas como mecanismos de comunicação entre as partículas são conhecidas como topologia global e topologia local. Na Figura 1% são ilustradas essas topologias.

134


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# potências nas linhas dos valores máximos, com isso se obtém a função objetivo aplicado no sistema proposto na Equação (3):

+X = +16IAB Ʃ15)– Ʃ17 + +16GA< Ʃ8# + +16I:% Ʃ81 )

A função objetivo é composta por três componentes. A primeira componente são as perdas totais multiplicadas por um fator de penalidade (+1[13- = 1)00) para manter uma proporção entre os valores de desvios de tensão e desvios de potência, obtidas da seguinte maneira:

Figura 1: Topologia Local (A) Topologia Global (B).

Na topologia local, o enxame é organizado em formato de anel e cada partícula possui dois vizinhos. Logo, a partícula troca informações apenas com seus vizinhos diretos. Esta troca de informações entre as partículas acontece de forma lenta devido à distância existente entre as partículas e esta estrutura provê uma melhor qualidade de soluções para problemas multimodais [23]. Na topologia global o enxame está organizado em formato estrela e todas as partículas estão conectadas entre si. Esta topologia utiliza o mecanismo de vizinhança global, também denominado de Gbest, para a troca de informação e foi à topologia utilizada no artigo proposto. Diversos aspectos de diversas topologias foram analisados por Kennedy e Mendes originando novas propostas na modificação do comportamento do enxame [24]. O foco dessas modificações demonstra que a melhora de desempenho no algoritmo está relacionada diretamente em como as partículas se interagem dinamicamente dentro do enxame. V.#

13-0.4 = +16IAB ∗ (Ʃ15)– Ʃ17))

(4)

A segunda componente da +, é diminuir os desvios de tensão, sendo os limites de tensão nas barras avaliados verificando o critério estabelecido, caso estivesse fora desse critério, às diferenças de tensões em relação à tensão da rede são somadas e multiplicadas por um fator de penalidade )(+16GA< = 1000), usando a Equação (5): (5) 8# = +16GA< ∗ (Ʃ8#)) A terceira componente da +, é para limitar a potência nas linhas, sendo que as potências que ultrapassaram o limite de 100 % foi diminuído pelo valor 100 e multiplicado por uma fator de penalidade (+16I:% = 10), dos valores máximos, usando a Equação (6):

81 = +16I:% ∗ (Ʃ81))

MÉTODO#PROPOSTO%

(6)

Após obter a função objetivo foi feito um script para ordenar as cargas e geradores distribuídos de acordo com a numeração das barras, de forma que a barra n (sendo n o número da barra) está conectada a carga e a um possível gerador distribuído de mesma numeração. Isso é necessário para gerar os vetores de posições que se referem às possíveis potências da geração distribuída.

Nos sistemas de rede de distribuição, redução de perdas e níveis de tensão pode ser melhorada por meio do dimensionamento da geração distribuída, para isso diferentes técnicas vêm sendo estudadas e analisadas para encontrar um ótimo dimensionamento. A complexidade do problema leva a introduzir algumas premissas como: •% Fator de potência variável; •% Fator de penalidade fixo; •% Limites de tensão estabelecidos entre 0,95 e 1,05 p.u.; •% Valores da geração distribuída serão fixos préestabelecidos (0 kW, 400 kW, 800 kW, 1000 kW, 1200 kW). Para a resolução desse problema, foi utilizado o programa DIgSILENT PowerFactory®, no qual será montado o sistema radial, analisando o fluxo de carga. O programa em DPL (DIgSILENT Programming Language) deve ser feito para recuperar os valores de tensão nas barras. Para obter a Função Objetivo (+, ) o script inicialmente deve calcular o fluxo de carga (LoadFlow) e as informações obtidas serão recuperadas e processadas. Como o objetivo do trabalho é minimizar as perdas de potência na rede de distribuição, diminuir os desvios de tensão e limitar as Derechos Reservados COPIMERA 2015

(3)

A.# DIMENSIONAMENTO DE MICROGERAÇÃO Alguns autores como Guerriche e Bouktir [25], usam como premissas quantas gerações serão dimensionadas, fator de potência fixo 1.0, variam as cargas de 0 % a 30 % e suas possíveis localizações já são dadas. Neste trabalho serão dimensionados 12 geradores com valores fixos de geração, porém o algoritmo vai identificar quais os melhores valores para as respectivas GDs para minimizar as perdas e melhorar os níveis de tensão. B.# SISTEMA IEEE 13-BARRAS O sistema utilizado foi o IEEE 13-Barras usado em [26]. Com o uso desse sistema pretende-se verificar a funcionalidade do método proposto. O sistema possui 13 barras com tensão 135


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# nominal de 12,66 kV, com carga total de 10,54 MW e 5,99 MVar, composto por 12 linhas, cujos dados (resistência e reatância) estão fornecidos na Tabela 1. Nesse sistema, uma fonte externa está ligada na primeira barra considerada como slack (Barra de referência). Todas as barras possuem cargas, porém apenas a primeira não possui GD, visto que é a barra de referência. Na Figura 2 é ilustrado o sistema IEEE 13-Barras.

Figura 2: Sistema IEEE 13-Barras.

Derechos Reservados COPIMERA 2015

136


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# Tabela 1: Dados de linhas.

Barras De 1 2 3 4 5 5 7 7 7 8 8 11

Para 2 3 4 5 6 7 8 11 13 9 10 12

R (Ohm)

X (Ohm)

0,176 0,176 0,045 0,089 0,045 0,116 0,073 0,063 0,062 0,074 0,093 0,068

0,138 0,138 0,035 0,069 0,035 0,091 0,073 0,05 0,053 0,058 0,093 0,053

Os dados de cargas do sistema IEEE 13-Barras são mostrados na Tabela 2.

M_=matriz; V_=vetor

Figura 3: Diagrama de classes criado com DPL para as Populações.

Tabela 2.:Dados das Cargas.

Cargas 2 3 4 5 6 7 8 9 10 11 12 13

Potência Ativa (MW) 0,89 0,628 1,112 0,636 0,474 1,342 0,92 0,766 0,662 0,69 1,292 1,124

Foi selecionado um conjunto de potências #9:%ê<=$> )prédefinidas com variáveis inteiras. Portanto foi pré-estabelecido potências com valores: 0, 200, 400, 600, 800, 1000, 1200 kW. A matriz ?9:9@AB>C:BAD deve ser preenchida com valores pré-definidos, porém aleatoriamente, para isso foram sorteados os valores (0, 200, 400, 600, 800, 1000, 1200 kW). Vale salientar que o software trabalha com megawatts e os valores pré-definidos são em quilowatts, então, no script, esses valores foram divididos por 1000 para obter a matriz de geradores e seus respectivos valores em megawatts. Ao rodar o fluxo de carga obtém-se um vetor #9ABC>D com as perdas totais do sistema. As tensões nas barras também são avaliadas pelo vetor que contém os valores de tensões nas barras, sendo que tensões menores que 0,95 p.u e maiores que 1,05 p.u são multiplicadas por um fator de penalidade. A matriz #LH%B>9>DD>MAN contém os valores que ultrapassaram os limites de 100 % de potência nas linhas. A matriz ?9:9IJAD% obtém os valores entre a população atual e a melhor partícula, sendo o PBest o melhor valor individual de cada partícula. A matriz ?9:9@JAD% relata o histórico dos melhores resultados ocorridos entre as populações. A matriz ?KAH:=$C>CA inicial é obtida por meio de um número randômico entre (0,1), tendo uma velocidade para as 50 partículas de todas as 200 populações. Para permitir uma boa convergência os parâmetros cognitivo ('P ) e social ('W ) foram configurados com valores iguais a 2.5, com isso o passo pode se deslocar até duas posições de cada partícula compensando assim o valor do randômico (rand) porque as potências estavam em 10-3.

Potência Reativa (MW) 0,468 0,47 0,764 0,378 0,344 1,078 0,292 0,498 0,48 0,186 0,554 0,48

Para facilitar o entendimento do método proposto e proporcionar uma visualização do algoritmo desenvolvido foi criado um diagrama de classes no DPL mostrando como foi programado o dimensionamento do sistema proposto, representando as especificações dos artefatos que serão manipulados em memoria computacional. Na Figura 3 é ilustrado o diagrama para os códigos em DPL.

Derechos Reservados COPIMERA 2015

137


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# VI.#

RESULTADOS#

Os resultados obtidos via simulação são calculados para 200 populações, cada população possui 50 partículas e cada partícula e composta de 12 geradores, que representam a microgeração injetadas em cada uma das 12 barras. Na% Figura 4% é ilustrada a simulação da primeira população com seus respectivos valores pré-estabelecidos de cada GD. Vale salientar que uma partícula é composta por 12 geradores com valores aleatórios, e uma população é composta de 50 partículas. O algoritmo desenvolvido irá selecionar a melhor função objetivo que é responsável por avaliar se a partícula melhorou ou não de posição a cada iteração.

Figura 5: Simulação para População Cinquenta.

Na Figura 6 mostra-se à população setenta, onde é possível observar que o sistema está convergindo, porém apenas a microgeração da barra (10) possui ainda partículas diferentes. Isto significa que o sistema está muito próximo da solução ótimo de convergência.

Figura 4: Simulação da Primeira População.

Na Figura 5 mosta-se o resultado da população cinquenta onde a microgeração das barras que se encontram tracejados (02, 03, 04, 06, 08, 09, 11 e 12) já encontraram seu ponto ótimo de dimensionamento da GD, porém o dimensionamento da GD nas barras que se encontram no retângulo vermelho (01, 05, 07,e 10) ainda não convergiu, devido a que existe algumas particulas diferentes, ou seja, não conseguiu alcançar a solução ótima do problema de minimização.

Figura 6: Simulação da População Setenta.

Na Figura 7% o sistema convergiu e todas as partículas estão concentradas, ou seja, encontraram o seu dimensionamento ótimo. O sistema convergiu e todas as partículas têm os mesmos valores. O algoritmo conseguiu convergir bem antes que cem iterações, mas a fim de ilustrar o desempenho do PSO, decidimos executar com duzentas iterações. Vale salientar que o DIgSILENT PowerFactory® ordena as barras por ordem alfabética. Considerando esse ponto a nomenclatura utilizada Derechos Reservados COPIMERA 2015

138


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# para especificar cada geração influência na ordenação: (GD1= barra 13, GD2= barra 9, GD3= barra 10, GD4 = barra 11, GD5= barra 12, GD6= barra 7, GD7= barra 6, GD8= barra 8, GD9= barra 3, GD10= barra 4, GD11= barra 5, GD12= barra 6, GD13= barra 2).

Figura 8: Função Objetivo.

Na Figura 9 mostra-se as tensões em cada barra, sem geração distribuída e com geração distribuída, em amarelo e azul respectivamente. As barras mais próximas da barra de referência estão com melhores níveis de tensão entre 1.0 p.u. e 0.95 p.u. (barras de 1 a 6), já as mais distantes da barra de geração (barras de 7 a 13) estão com perfil de tensão abaixo de 0.95 p.u. Na cor azul utilizando o algoritmo PSO com geração distribuída, os níveis de tensão foram melhorados em todas as barras. No Programa PSO foram estabelecidos limites operacionais da rede entre 1.05 p.u.e 0.95 p.u. As barras do sistema com geração distribuída ficaram entre 0,98 p.u e 1.0 p.u níveis de tensão considerados satisfatórios.

Figura 7: Simulação População Duzentos.

Na Tabela 3 mostra- se os resultados encontrados pelo algoritmo PSO para o dimensionamento ótimo dos 12 geradores do sistema proposto. Tabela 3: Valores do Dimensionamento do Sistema IEEE 13Barras.

Numero de Barras Barra 2 Barra 3 Barra 4 Barra 5 Barra 6 Barra 7 Barra 8 Barra 9 Barra 10 Barra 11 Barra 12 Barra 13

Dimensionamento (MW) 0,2 0,2 0,8 1,2 0,6 1,2 1,2 1,2 1,2 1,2 0,8 0,8

Na Figura 8 é mostrado o comportamento da função objetivo em cada iteração, é possivel observar que o algoritmo atingiu a melhor solução possível, minimizando as perdas e melhorando o perfil de tensão no sistema proposto. Figura 9: Sistema Com GD e Sem GD.

A Tabela 4 é mostrada as perdas em cada linha do sistema sem geração distribuída com perdas totais de 465,87 kW. A partir do dimensionamento da geração distribuída usando o Derechos Reservados COPIMERA 2015

139


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# algoritmo PSO as perdas totais do sistema foram reduzidas para 104,72 kW, com seus respectivos valores de GD para cada barra.

[5] V. e. a. Méndez, “A Impact of distributed generation on distribution investment deferral,” International Journal of Electrical Power and Energy Systems, vol. 28, pp. 244252, 2006. [6] I. Ramirez-Rosado e J. Dominguez-Navarro, “New multiobjective tabu search algorithmo for fuzzy optimal planning of power distribution systems.,” IEEE Transactions, vol. 21, pp. 224-223, 2006. [7] P. Ekel, L. D. Terra e M. Junges, “Methods of multicriteria decision making in fuzzy environments and their aplications to transmission and distribution problems.,” IEEE, 1999. [8] A. Barin, Metodologia Para a Análise dos Efeitos da Geração Distribuída sobre as Características operacionais dos Sistemas de Distribuição Utilizando Técnicas Multicriteriais, Santa Maria, 2007. [9] K. Nara, Y. Hayashi, K. Ikede e Ashizawa, Application of tabu search to optimal placement of distributed generators., vol. 2, 2001. [10] K.-H. Kim, Y.-J. Lee, S.-B. Rhee, S.-K. Lee e S.-K. You, “Dispersed generator placement using fuzzy-GA in distribution systems.,” IEEE, 2002. [11] T. ACKERMANN, G. ANDERSSON e L. SODER, Distributed generation: Electric Power Systems Research, vol. 57, Issue 3, 2001, pp. 195-204. [12] IEEE, “<http://www.ieee.org.br/>,” Maio 2008. [Online]. [13] CIGRE, “www.cigre.org,” Conseil Intenational des Grands Réseaux Electriques, 2008. [Online]. [Acesso em 23 julho 2015]. [14] d. R. Presidência, “DECRETO Nº 5.163 DE 30 DE JULHO DE 2004,” 30 Julho 2004. [Online]. [Acesso em 21 Agosto 2015]. [15] E. BONABEAU e ,. THÉRAULAZ, “ G. Swarm Smarts,” Scientific American, vol. 18, Março 2000. [16] M. M. S. MILLONAS, phase transitions, and collective intelligence, A. Wesley, Ed., MA: Artificial Life III, 1994. [17] J. e. K. EBERHART, “Swarm Intelligence,” Morgan Kaufmann Publishers, 2001. [18] R. e. E. J. KENNEDY, “Particle swarm optimization.,” IEEE, pp. 1945-1948, 1995. [19] S. KUMAR, Optimal Sizing and Placement of Generator Units in Distributed Generation System by Particle Swarm Optimization (PSO), Kalkata, 2012. [20] A. M. SUTTON e M. L. e. A. H. D. WHITLEY, “PSO and multifunnel landscapes: how cooperation might limit exploration,” Em GECCO 2006 -:Proceedings of the 8th annual conference on Genetic and evolutionary computation, vol. 1, pp. 75-82, Julho 2006. [21] SUGANTHAN. P.N., “Particle swarm optimizer with neighborhood operator,” IEEE, pp. 1958 -1962, Julho 1999.

Tabela 4: Perdas nas Linhas Com GD e Sem GD.

Linhas De

Para 1 2 2 3 3 4 4 5 5 6 5 7 7 8 7 11 7 13 8 9 8 10 11 12 Perdas Totais (kW)

Perdas Sem GD (kW) 0,43 0,43 0,64 0,93 1,96 3,62 33,21 47,50 49,92 177,26 149,87 0,10 465,87

Perdas Com GD (kW) 40,51 34,48 7,44 10,53 0,55 9,53 0,76 0,29 0,09 0,27 0,14 0,13 104,72

Com base nos resultados, o algoritmo proposto tem a capacidade de fornecer os melhores dimensionamentos para as unidades de geração distribuída. Além disso, os resultados ilustram a eficácia desta abordagem para melhoria do perfil de tensão e redução de perdas de energia. VII.#

CONCLUSÕES#

O presente trabalho apresentou um método baseado no algoritmo PSO implementado no ambiente DIGSILENT PowerFactory® 15.2, usando variáveis inteiras, para dimensionar unidades de geração distribuída. Dos resultados obtidos com o sistema teste de 13 barras, observou-se que com a geração distribuída as perdas totais diminuíram em 77 % e que os níveis de tensão ficaram entre os limites permitidos. Diante dos resultados alcançados, comprova-se a eficiência do método proposto, desenvolvido como uma ferramenta de análise adequada e de alto nível, com o objetivo de otimizar o uso da geração distribuída em sistemas de distribuição, contribuindo para uma maior eficiência energética dos sistemas. REFERENCIAS# [1] M. G. Villalva, Energia solar fotovoltaica: Conceito e Aplicações, São Paulo: Érica, 2013. [2] T. Ackermann, G. Andersson e L. Soder, Distributed Generation, 2000. [3] R. Dugan, T. McDermott e G. Ball, Distribution Planning For Distributed Generation, USA, 2000. [4] R. Dugan e S. Prince, “Including Distributed Resources In Distribution Planning.,” IEEE, 2004. Derechos Reservados COPIMERA 2015

140


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# [22] M. P. Caraciolo, Multi-Ring: Uma nova topologia para otimização por enxame de particulas (PSO), Recife, 2008. [23] P. ENGELBRECHT, “Fundamentals of Computational Swarm Intelligence,” Jonh Wiley & Sons, 2005. [24] Y. S. e. R. C. EBERHART, “A Modified Particle Swarm Optimizer.,” IEEE International Conference of Evolutionary Computation, Maio 1998. [25] . K. R. Guerriche e T. Bouktir, “Optimal Allocation and Sizing of Distributed Generation with Particle Swarm Optimization Algorithm for Loss Reduction,” Revue des Sciences et de la Technologie - RST-, vol. 6, n. 1, pp. 5969, janvier 2015. [26] A. Aref, M. Davoundi, M. Gholami e M. Moghadam, “PSO Based Multi Objective Approach for Optimal Sizing and Placement of Distributed Generation,” Research Journal of Sciences, pp. 4617- 4624, Novembro 2012.

Derechos Reservados COPIMERA 2015

141


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras# Jeane Souza possui graduação em Tecnologia em Automação Industrial pelo Instituto Federal de Educação, Ciência e Tecnologia da Paraíba (2013), Campus Cajazeiras. Atualmente é aluna de mestrado em Engenharia Elétrica na Universidade Federal da Paraíba. Atuando na área de Engenharia Elétrica, com ênfase em Sistema de Potência, atuando principalmente em otimização de sistemas de potência. Yuri Molina possui graduação em Engenharia Elétrica (2003) pela Universidade Nacional de Engenharia, Lima, Peru. M.Sc em Sistema de Potência (2005), na Universidade Federal do Maranhão. Doutorado em Engenharia Elétrica (2009) pela Universidade Católica do Rio de Janeiro, Brasil. Atualmente é Professor Adjunto do Departamento de Engenharia Elétrica da Universidade Federal da Paraíba, Centro de Energias Alternativas e Renováveis. Seus interesses abrangem operação de sistemas de potência em ambiente competitivo, serviços auxiliares e energias renováveis. Clivaldo Araújo possui graduação em Engenharia Elétrica pela Universidade Federal da Paraíba (1980), mestrado em Engenharia Elétrica pela Universidade Federal da Paraíba (1988) e doutorado em Engenharia Elétrica pela Universidade Federal da Paraíba (1992). Atualmente é professor Titular da Universidade Federal da Paraíba. Tem experiência na área de Engenharia Elétrica, com ênfase em Medição, Controle, Correção e Proteção de Sistemas Elétricos de Potência, atuando principalmente nos seguintes temas: dinâmica e controle de sistemas de potência e mecânicos, eficiência energética. Wendell Pereira possui graduação em Sistema de Informação pelo Centro Universitário de Várzea Grande/MT (2005). Atualmente é aluno de mestrado em Engenharia Elétrica na Universidade Federal da Paraíba. Aperfeiçoamento em Desenvolvimento Java, pelo CEFET/MT (2007); Especialista em Fundamentos da Educação do Ensino Superior, pela UNIVAG/MT(2006).

Derechos Reservados COPIMERA 2015

142


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

143


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras

PREVISÃO#DE#DEMANDA#À#MEDIO#PRAZO#UTILIZANDO#LÓGICA#FUZZY# Diego Henrique da Silva Cavalcanti1, Joel Adelaide Medeiros1, Ricardo Wagner Correia Guerra Filho1, Yuri Percy Molina Rodriguez1, Juan Moises Mauricio Villanueva1, Euler Cássio Tavares de Macedo1, Helon David de Macedo1, Silvino Alves de G N Neto2, Arthur Dantas2, Marcelo Renato de C Paes Junio2 1

Universidade Federal da Paraiba, Centro de Energias Alternativas e Renováveis, Departamento de Engenharia Elétrica, João Pessoa –PB, Brasil. 2 Empresa de Distribuição de Energia – ENERGISA/Paraíba - João Pessoa - PB, Brasil ! ! ! # #

RESUMO#

o custo real dos investimentos na expansão e uso de novas tecnologias para a sua implementação. Embora a previsão de demanda seja uma ferramenta importantíssima para o auxílio dos profissionais do setor elétrico, esta tarefa não é tão simples de ser implementada, já que a carga dos clientes é bastante complexa (com muitos níveis sazonais) e sofre várias influencias externas que afetam os perfis de carga, principalmente aquelas relacionadas com o clima [1], [2], [3]. Na literatura, é possível encontrar diversos métodos matemáticos usados para desenvolver sistemas de previsão de demanda. Assim, pesquisas recentes utilizando técnicas baseadas em inteligência artificial [4] [5] [6], como a lógica Fuzzy [7] e redes neurais artificiais [8], apresentaram resultados muito relevantes. Essas técnicas são inspiradas em aspectos biológicos de aprendizagem e raciocínio, e são executadas e aplicadas em diferentes campos da ciência e da engenharia [9], [10]. Nesse trabalho, é apresentado um método de previsão de demanda a médio prazo usando logica fuzzy. O Metodo foi desenvolvido na Visual Studio 2013, atravéz da linguagem C#. Neste artigo é apresentado um método de previsão de demanda a médio prazo utilizando a logica fuzzy. Na seção 2 é apresentada uma breve revisão sobre a definição de Lógica Fuzy, explicitando alguns termos importantes que serão abordados no trabalho. Em seguida, na seção 3, é apresentado a metodologia utilizada nas configurações do sistema de inferência fuzzy de previsão de demanda. Na seção 4, é descrito o caso estudado, a subestação de Itaporanga, na Paraiba/Brasil, considerando o ponto de medição utilizados e os dados coletados para o estudo do método. Por fim, na seção 5 todos os resultados das aplicações e as discussões necessárias A conclusão é dada na seção 6.

Nos dias atuais, a previsão de demanda é uma importante ferramenta de apoio à decisão no planejamento de sistemas de energia, fornecendo informações necessárias para os especialistas do setor elétrico. Nesse trabalho, foi desenvolvido um sistema de previsão de demanda para uma subestação real, por meio de um sistema de inferência fuzzy. O caso estudado foi a subestação de Itaporanga, localizada na Paraíba/Brazil. Foram utilizadasas séries temporais de potência ativa entre 2008 e 2013. Os dados foram obtidos por meio de medições de um sistema aquisição de dados (SCADA), e estas medições foram armazenadas em um banco de dados. Após a coleta dos dados, uma parte das amostras foi utilizada para extração de regras, e a outra, para validação da previsão . Foram utilizados algumas variações na quantidade de conjuntos fuzzy da variável potência do sistema. Os resultados das previsões obtidas foram avaliados por meio do erro percentual absoluto médio (MAPE) e assim, comprovar eficiência da Lógica Fuzzy na previsão de séries temporais. Palavras# chave: Lógica Fuzzy, Previsão, Demanda, Banco de dados, Sistema de Inferencia Fuzzy. I.# INTRODUÇÃO# A previsão de demanda é uma ferramenta estratégica em todos os aspectos de planejamento, operação e controle do sistema de energia elétrica, trazendo benefícios do ponto de vista econômico e aumentando a confiabilidade do sistema. Além disso, a partir da previsão de demanda, é possível avaliar

Derechos reservados COPIMERA 2015

144


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras II.# LÓGICA#FUZZY# # Dizer que uma declaração é falsa ou verdadeira [11], não podendo ser ao mesmo tempo parcialmente verdadeira e parcialmente falsa, junto a lei da não contradição, formam a base do pensamento lógico Ocidental. A Lógica Fuzzy (Lógica Nebulosa) [12] viola estas suposições. Um sim ou um não como resposta a estas questões é, na maioria das vezes, incompleta. Na verdade, entre a certeza de ser e a certeza de não ser, existem infinitos graus de incerteza. Esta imperfeição intrínseca à informação representada numa linguagem natural tem sido tratada matematicamente no passado com o uso da teoria das probabilidades. Contudo, a Lógica Nebulosa, com base na teoria dos conjuntos nebulosos (Fuzzy Set), tem se mostrado mais adequada para tratar imperfeições da informação do que a teoria das probabilidades. A Lógica Fuzzy [13] é a lógica que suporta os modos de raciocínio que são aproximados ao invés de exatos. Controle fuzzy e Modelagem de sistemas são técnicas para o tratamento de informações qualitativas de uma forma rigorosa. Derivada do conceito de conjuntos fuzzy, a lógica fuzzy constitui a base para o desenvolvimento de métodos e algoritmos de modelagem e controle de processos, permitindo a redução da complexidade de projeto e implementação, tornando-se a solução para problemas de controle até então intratáveis por técnicas clássicas. Ela difere dos sistemas lógicos em suas características e seus detalhes. Nesta lógica, o raciocínio exato corresponde a um caso limite do raciocínio aproximado, sendo interpretado como um processo de composição de relações nebulosas.

Figura 1 - Funções características.

Já ao considerar um conjunto fuzzy, um elemento x pertencente ao conjunto universo U tem um determinado grau de pertinência com relação ao conjunto A, grau este que é definido no intervalo [0,1] e descrito por A(x), onde 0 significa a exclusão total do elemento em relação ao conjunto, e o valor 1 significa a inclusão total do elemento e qualquer valor entre esse dois representa um pertinência parcial. A Figura 2 aborda uma função de pertinência triangular com pico em x, o que sugere a idéia de que quanto mais próximo de x, mais o elemento se identifica com o conceito representado por x em relação ao conjunto A.

A.! GRAU#DE#PERTINÊNCIA## Na teoria clássica de conjuntos, um elemento ou pertence a um conjunto ou não. Dado um universo de discurso U e um elemento x є U, o grau de pertinência do elemento x, µA(x) com relação ao conjunto A U é dado por: !" ($)

1, ()*$* ∈ *A* * 0, ()*$* ∉ /

(1)

A função µA(x): U {0,1} é nomeada de função característica na teoria clássica de conjuntos. Essa função na teoria clássica pode somente assumir valores discretos. Pode-se observar esse fato pela expressão (1). Na Figura 1 (a), pode-se observar que o intervalo de dados tem pertinência 1 em relação ao conjunto A considerado. Para elementos que não pertencem a esse intervalo, mas pertencem ao conjunto universo U, o grau de pertinência tem valor 0. Essa é a representação de pertinência referente à lógica clássica. Na Figura 1 (b) o caso preciso é apresentado e deste tem-se que o grau de pertinência tem valor 1 somente em determinado valor, sendo 0 para os demais valores. Derechos reservados COPIMERA 2015

Figura 2 - Função de pertinência triangular

Já que o grau de pertinência não é mais um dado binário,não faz sentido definir um conjunto apenas pelos seus elementos. Conjuntos Fuzzy são definidos por pares ordenados, que indicam cada elemento com seu grau de pertinência para o conjunto em questão, assim como na expressão (2). /=

145

$, !" $

$* ∈ *1*

(2)


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras Os conjuntos contínuos são representados pela função Um sistema de inferência baseado em regras é uma de pertinência. Já os conjuntos discretos podem ser generalização do esquema lógico de raciocínio denominado representados conforme a Expressão (3), onde a somatória modus ponens. Na lógica clássica, se o antecedente de uma representa a operação união (disjunção) e o termo µA(x)/x, regra é dito verdadeiro, então pode-se afirmar que o indica que o elemento x, pertence ao conjunto A com grau de conseqüente dessa regra também será verdade [14]. pertinência µA(xi). Um sistema de inferência fuzzy baseado em regras generaliza modus ponens para permitir que a conclusão daregra (3) seja inferida pelo grau em que o antecedente é satisfeito. Essa é / =* !" $2 /*$2 * a essência dos sistemas de inferência Fuzzy baseados em regras 2 [14]. Uma regra fuzzy típica pode ser dada por: Normalmente, para simplificar a visualização, a lista dos elementos de conjuntos discretos apresenta apenas os elementos que possuem grau de pertinência diferente de zero.

!42 = !

B.! REGRAS#DE#INFERÊNCIA##

!42 = [!

Na teoria fuzzy, os parâmetros de entrada do sistema são mapeados em variáveis lingüísticas que são utilizadas na definição de regras para o processamento de variáveis de saída, também representadas por variáveis lingüísticas. Assim, ao invés de assumir instâncias numéricas, estas variáveis assumem instâncias lingüísticas. A Figura 3 ilustra três possíveis termos lingüísticos para a variável linguística representando a temperatura.

"2

"2*567*82*→:;

< *@AB*!

82

<, =, > = ] → * !(D2) (>)

(4)

(5)

onde Ai, Bi, Ci são conjuntos fuzzy que pertencem aos universos de discursos U, V e W, respectivamente e o operador “ ” indica uma função de implicação fuzzy. Utilizando-se a regra de inferência composicional de [14] para uma relação do tipo RA B, onde A є U e B є V,! e considerando-se um conjunto fuzzy de U denotado por A’ e um conjunto fuzzy B’ de V, a inferência de A’ é dada pela função de pertinência abaixo: !8 (=) = max*(min !" < , !4 <, =

; <* ∈ 1, =* ∈ K

(6)

A resposta do sistema consistirá então da união de todas as funções fuzzy ativadas. O valor final, ou seja, aquele que será apresentado pelas saídas do sistema fuzzy, será determinado pelo processo de defuzzificação [9]. C.! DEFUZZYFICAÇÃO# Figura 3 - Representação da variável lingüística Temperatura

Realizado o processo de agregação das regras, tem-se como resultado um conjunto nebuloso representativo da saída do sistema de inferência fuzzy. Em muitas aplicações, há a necessidade de se expressar os resultados em valores numéricos, denominados “crisp”. Dessa necessidade, surge-se o processo de defuzzificação que consiste na interpretação quantitativa de uma variável de saída do sistema fuzzy para expressar o seu valor numérico [14]. Existem diversas metodologias para se realizar esse processo, dentre as quais pode-se destacar a média dos máximos, o centro de massa e o centro geométrico.

A forma mais comum de expressar o conhecimento é por meio de regras do tipo condição-ação [13]. As regras são formadas por antecedentes e conseqüentes: SE <antecedentes> ENTÃO <conseqüentes> Os termos denominados antecedentes descrevem as condições necessárias para que haja um determinado resultado, sendo que os termos denominados consequentes representam os próprios resultados ou ações que podem ser executadas quando os antecedentes são verificados. De uma forma distinta da Teoria Clássica, uma regra fuzzy pode ser avaliada mesmo se os antecedentes não forem completamente satisfeitos [14]. Um sistema de inferência fuzzy baseado em regras permite a fusão de múltiplas regras fuzzy. Esta fusão é obtida pelo uso de ponderadores, ou seja, valores que se associam ás regras e que determinam um grau de importância a cada uma delas. Derechos reservados COPIMERA 2015

D.! SISTEMA#DE#INFERÊNCIA## O processo de inferência [14] ocorre através da determinação do valor de cada conseqüente das regras nebulosas, a partir dos graus de compatibilidade entre as

146


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras proposições derivadas das medidas com as respectivas proposições presentes nos antecedentes das regras. Uma vez descrito alguns dos aspectos de Sistemas Fuzzy, pode-se resumir o sistema de inferência fuzzy ou controlador fuzzy em três fases: fuzzificação, inferência e defuzzificação. A Figura 4 apresenta o sistema de inferência fuzzy e a forma de interligação entre as fases, sendo que a função de cada fase pode ser descrita da seguinte forma: •!

•!

•!

Na fuzzificação, os valores de entrada, fornecidos no formato numérico por sensores ou medidores, são convertidos em valores lingüísticos. Na fase de inferência, os valores lingüísticos, resultados da fuzzificação, são combinados de forma a gerar valores lingüísticos de saída, de acordo com regras de inferência Fuzzy determinadas. Em um controlador fuzzy, as regras têm um papel relevante, pois o bom desempenho do sistema está vinculado à produção de regras consistentes. A base do conhecimento pode ser fornecida por especialistas através de termos lingüísticos. Esse processo pode ser complicado, mas, independente do conhecimento do especialista, uma alternativa para formação da base de regras é através da mineração de dados numéricos. Por fim, na defuzzificação, os valores de saída são, novamente, convertidos em valores numéricos.

Figura 5 - Sistema Fuzzy

O processo é definido em 6 etapas: 1"! Coleta)de)Dados;) 2"! Definição)de)Variáveis;) 3"! Preparo)dos)Dados;) 4"! Configuração)dos)Conjuntos)Fuzzy;) 5"! Inferência:)Execução)do)Sistema)de)Inferência)Fuzzy;) 6"! Previsão:)Saída)do)Sistema)Fuzzy.) A Etapa 1 é o extração do banco de dados das máximas potências de cada semana, assim como e os índices da semana. Em seguida, na etapa 2, coonstrui-se tabelas com dados de entradas e saidas precisas, em que foi adotado 4 entradas e 1 saída, tendo essas saídas como possíveis entradas para realimentações de previsões feitas pelo sistema. Na etapa 3, realiza-se a separação dos dados para análise. Nesta proposta, foi utilizado 70% dos dados para extrair o comportamento da demanda (gerar as regras) e 30% para validar a previsão da demanda. Prosseguindo, na etapa 4, foi configurado as variáveis do sistema. Definiu-se a quantidade de conjuntos fuzzy e as configuações das variáveis de potência e de semana. Vale salientar que o número de conjuntos fuzzy e os ranges, intervalo de valores possiveis para variavel, são constantes e comuns para todas as variáveis do mesmo tipo. Foi definindo para este trabalho, de forma empírica, um range de 1 a 52 e uma quantidade de 31 conjuntos fuzzy, ambos do tipo triangular para a semana. Já para as potências, foi variado a quantidades de conjuntos fuzzy de 3 a 17, todos do tipo triangular, mantendo um mesmo range. Após a preparação dos dados e a configuração do sistema fuzzy, é realizada a etapa 5 no qual, inicialmente os valores de entrada sofrem processo de fuzzyficação, transformando os valores numéricos em linguísticos, retornado um conjunto fuzzy com um grau de pertinência. O procedimento de inferência avalia a entrada de valores linguísticos para cada regra, ativando algumas delas e fornecendo um grau de pertinência de cada conjunto. Por fim, na etapa 6, o procedimento defuzzificação transforma um conjunto fuzzy para um valor numérico de saída. Neste trabalho foi considerada a técnica de defuzzificação do centro geométrico [15].

Figura 4 - Sistema Fuzzy

III.#METODOS#PROPOSTO#PARA#PREVISÃO#DE#DEMANDA## Na Figura 5 é ilustrado o método proposto para previsão, no qual utiliza-se uma janela de 4 entradas (3 potências anteriores e 1 entrada do índice da semana a prever) para prever 1 potência. O Sistema de Inferência Fuzzy (FIS) incorpora conhecimento através de regras para ser utilizada na inferência e assim construir um sistema não linear para mapear entradas para saídas.

Derechos reservados COPIMERA 2015

147


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras Figura 7 - Esquema dos elementos básicos de um monitoramento de IV.# ESTUDO#DE#CASO:#SUBSTAÇÃO#DE#ITAPORANGA# subestações e sistema SCADA

É necessário para o sistema de previsão em estudo as amostras passadas de demanda. Para isso, considerou-se os dados recolhidos a partir de uma subestação de alta tensão real de uma cidade brasileira chamada Itaporanga, que pertence a empresa fornecedora de energia local, a Energisa. Os dados medidos foram de 2008 até 2013, e considerou-se a potência ativa máxima semanal. Na ¡Error! No se encuentra el origen de la referencia. é ilustrado o diagrama unifilar da subestação Itaporanga. Foram recolhidos dados sobre os pontos de medição de 69 kV e 13,8 kV. No diagrama, é representado pelos círculos vermelhos em cada barra.

Na ¡Error! No se encuentra el origen de la referencia. é ilustrada a representação de séries temporais dos dados medidos, com um período de amostragem de 15 minutos, em níveis de média e alta tensão para o período de 2008-2013. É possível observar nos perfis de demanda uma alta nãolinearidade da série histórica, com características sazonais e tendência.

Figura 6 - Diagrama Unifilar da Substação Itaporanga, localizada na Paraiba/Brasil

Como observado na ¡Error! No se encuentra el origen de la referencia., um sistema elétrico de potência contém subestações de distribuição de energia, e estes são normalmente monitorados por sistemas de aquisição de dados (RTU - Unidade Terminal Remota), onde registra tensão, corrente, potência, fator de potência, etc., e todos os dados medidos são enviados para um servidor, com base em um sistema SCADA, como ilustrado na ¡Error! No se encuentra el origen de la referencia.. Estas informações são usadas para extração do comportamento desta rede.

Figura 8 - Séries temporais de demanda para o período de 2008-2013 para a subestação Itaporanga / Brasil

O objetivo do sistema de previsão é determinar a potência máxima permitida para o transformador em funcionamento em um tempo futuro, com base nos históricos de valores de pico semanais. V.# RESULTADOS# Os resultados apresentados são associados com as medições reais da subestação de Itaporanga localizada na Paraíba / Brasil. O ponto de medição utilizado foi o alimentador 21L2 por um período de análise de 2008-2013. Todas as previsões têm base de tempo como o número de semanas, ou seja, 52 semanas por ano conforme apresentado na

Derechos reservados COPIMERA 2015

148


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras Figura 9. Vale salientar que o sistema proposto é previsão. Para previsão, foi necessário realimentar o sistema adequado para qualquer tipo de conjunto de dados de demanda com os resultados previstos, e assim possibilitar uma maior energética. janela de predição. No caso estudado, foram realizados testes usando variações das quantidades de conjuntos na variável de Uma das premissas importantes do sistema fuzzy, é a potência. quantidade de conjuntos fuzzy para cada variável. Esses conjuntos estão diretamente relacionados à eficiência da

Figura 9 - Dados do ponto de medição utilizado Para avaliar os resultados, utilizou-se do erro absoluto percentual médio(MAPE) calculado entre a curva real e a de previsão. Os resultados são ilustrados através da

Figura 10, na qual demostra a relação do MAPE por variação de quantidade de conjuntos fuzzy.

menor MAPE, com 2,41%, foi encontrado com 7 conjuntos fuzzy na variável potência e o maior, 8,21% quando aplicado 3 conjuntos fuzzy na mesma variável.

Foi encontrado, no intervalo de variação da quantidade de conjunto fuzzy proposto, um MAPE médio de 3,36 %. O

Derechos reservados COPIMERA 2015

149


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras

Figura 10 - Relação entre MAPE e Conjuntos Fuzzy

Nas Figura 11, Figura 12 e Figura 13 está ilustrado os resultados da fase de previsão, considerando os menores valores de MAPE. A curva azul representa os dados de séries temporais real. A linha vermelha é o resultado da previsão. Importante salientar que as figuras contêm apenas os dados separados para previsão, compreendendo em 45 semanas.

Na Figura 11, ilustra-se a previsão com 7 conjuntos fuzzy nas variáveis de potência e 31 conjuntos fuzzy na variável semana. Foi encontrado um MAPE de 2,41% para previsão total e de 1,98% para uma janela de previsão das 20 primeiras semanas.

Figura 11 - Previsão com 7 conjuntos fuzzy nas variáveis de potência

Derechos reservados COPIMERA 2015

150


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras

Figura 12 - Previsão com 13 conjuntos fuzzy nas variáveis de potência

O segundo menor MAPE foi encontrado com a configuração de 13 conjuntos fuzzy nas variáveis de potência e 31 conjuntos para variavel semana. Foi encontrado um MAPE de 2.46% para previsão total e de 2.26% para uma janela de previsão das 20 primeiras semanas, ilustrado na Figura 12.

Na Figura 13 foi encontrado uma previsão com MAPE de 2.46% para 45 semanas e de 2.17% para as 20 primeiras previsões. A configuração utilizada para esse resultado foi de 15 conjuntos fuzzy nas variáveis de potência e 31 conjuntos para variavel semana.

Figura 13 - Previsão com 15 conjuntos fuzzy nas variáveis de potência

Na aplicação realizada, foi encontrado uma previsão demanda de 45 semanas futura com um MAPE de 2.41%, utilizando uma quantidade de 7 conjuntos fuzzy na variável de potência. E o MAPE máximo encontrado foi de 8,21%, quando foi utilizando 3 conjuntos fuzzy na variável de potência. O que concluímos que é um sistema que opera de forma confiável e robusta na previsão de demanda.

VI.# CONCLUSÃO# Neste trabalho foi desenvolvido um sistema de previsão de demana utilizando um sistema de inferência fuzzy. Onde para o caso estudado, foi utilizado de forma empírica, algumas variações na quantidade de conjuntos fuzzy das variaveis de potência, e verificado a eficiência da previsão por meio do MAPE.

Derechos reservados COPIMERA 2015

O desenvolvimento do sistema de previsão permitirá que especialistas de energia / indústria possam realizar a tomada de decisões precisas, especialmente para definir os projetos de expansão da rede, os orçamentos e investimentos 151


XXV#CONGRESO#PANAMERICANO#DE#INGENIERÍA#MECÁNICA,#ELÉCTRICA,#INDUSTRIAL#Y#RAMAS#AFINES# COPIMERA#2015# 08>10#Octubre,#2015,#Tegucigalpa,#Honduras em novas tecnologias. Por fim, os resultados apresentados para [11] E. Cox, The Fuzzy Systems Handbook: A Practitioner's a subestação de Itaporanga, localizada na Paraíba / Brasil foram Guide to Building, Using, and Maintaining Fuzzy bastante satisfatórios. Systems, AP Professiona, 1994. [12] J. M. Mendel, “Fuzzy Logic Systems for Engineering: A Tutorial, Proc. of the IEEE,” vol. 83, n. .3. VII.#AGRADECIMENTO# [13] C. V. Altrock, Fuzzy Logic & NeuroFuzzy Applications Explained, Prentice-Hall PTR, 1995. Os autores gostariam de agradecer a Energisa Paraíba / [14] L. A. Zadeh, “Outline of a New Approach to the Analysis Brasil e a Universidade Federal da Paraíba, pelo apoio of Complex Systems and Decision Processes,” IEEE financeiro e bolsas de estudo. Transactions on Systems. [15] T. A. Runkler, “Selection of Appropriate Defuzzification Methods Using Application Specific Properties,” IEEE TRANSACTIONS ON FUZZY SYSTEMS, vol. 5, VIII.#BIBLIOGRAFIA# FEBRUARY 1997. [1] A. P. S. P. P. Manoj, “Fuzzy Logic Methodology for Short Term Load Forecasting,” International Journal of Research in Engineering and Technology, pp. 322-328, Apr. 2014. [2] W. C. Hong, Intelligent Energy Demand Forecasting, 2013th ed., Springer London Heidelberg. [3] M. S. A. S. A. S. Sachdeva, Efficient Load Forecasting Optimized by Fuzzy Programming and OFDM Transmission, vol. 2011, Advances in Fuzzy Systems – Hindawi Publishing Corporation. [4] A. ,. H. E. A.-N. S. Ghanbari, “Comparison of Artificial Intelligence Based Techniques for Short Term Load Forecasting,” Business Intelligence and Financial Engineering (BIFE), 2010 Third International Conference on,, p. 6 – 10, 2010. [5] R. G. H. de Aquino, M. Lira, A. Ferreira, O. Neto e M. Carvalho, “Wind forecasting and wind power generation: Looking for the best model based on artificial intelligence,” Neural Networks (IJCNN), The 2012 International Joint Conference on, pp. 1-8, 2012. [6] Y. Xu, J. Cai e J. Milanovic, “On accuracy of demand forecasting and its extension to demand composition forecasting using artificial intelligence based methods,” Innovative Smart Grid Technologies Conference Europe (ISGT-Europe), 2014 IEEE PES, pp. 1 - 6, 2014. [7] T. Z. ,. R. S. Zhou Tao, “Medium and long term load forecasting based on fuzzy times series,” Advanced Mechatronic Systems (ICAMechS), 2013 International Conference on, p. 671 – 673, 2013. [8] Z. G. ,. X. Dongxiao Niu, “Research on Neural Networks Based on Culture Particle Swarm Optimization and Its Application in Power Load Forecasting, Natural Computation, 2007. ICNC 2007. Third International Conference on,” vol. 1, pp. 24-27, 2007. [9] G. m. j. G. C. R. G. E. P. Box, Time Series Analysis: Forecasting and Control, 4th ed., Wiley, 2008. [10] S. C. W. R. J. H. S. G. Makridakis, Forecasting: Methods and Applications, 3rd ed., john Wiley & Sons, 1998. Derechos reservados COPIMERA 2015

152


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

153


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! !

Ingeniería Industrial Articulos:

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

1.! Otimização de linha de produção através da aplicação de ferramentas da qualidade. 2.! Gestión de procesos de negocio aplicada a la administración universitaria. 3.! La calidad como política pública. los sistemas nacionales de calidad en Latinoamérica. ! !

Derechos reservados COPIMERA 2015

!

154


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

Derechos reservados COPIMERA 2015

!

155


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+

OTIMIZAÇÃO+DE+LINHA+DE+PRODUÇÃO+ATRAVÉS+DA+APLICAÇÃO+DE+FERRAMENTAS+DA+ QUALIDADE++++++++++++++++++++++++++++ Diego Jean de Melo1, Maximiller Silva Salgado1; Giovane Carvalho Vilela2, Israel Heitor De Andrade2; Jorge Nie Brito3 1

UFSJ - Universidade Federal de São João del-Rei, São João del-Rei, Minas Gerais, BRASIL. 2 UNILAVRAS - Centro Universitário de Lavras, Lavras, Minas Gerais, BRASIL 3 !UFSJ - Universidade Federal de São João del-Rei São João del-Rei, BRASIL

RESUMO+ A competitividade no mercado vem se ampliando fortemente ao passar dos anos. Isso ocorre devido à grande exigência que os clientes impõem. Dessa forma, em busca de um destaque no mercado, as indústrias procuram otimizar suas linhas de produção com a finalidade de oferecer produtos de baixo custo e alta qualidade. Para alcançar esse objetivo, as indústrias começam a utilizar ferramentas consagradas da qualidade para otimizar seus processos de produção. Este trabalho apresenta a aplicação de algumas das ferramentas da qualidade para diagnosticar perdas de processo em uma linha de montagem e posteriormente soluciona-las. Foi utilizado o ciclo PDCA para sistematizar os passos para a melhoria, gráfico de Pareto para identificação das maiores perdas, 5W1H para análise do fenômeno, Diagrama de Ishikawa para identificar as possíveis causas e análise 5 porquês para encontrar a causa raiz. Com os resultados obtidos, foi possível visualizar que a aplicação de ferramentas da qualidade em perdas de processos permite encontrar causas raízes das mesmas. Ao soluciona-las, a linha de produção obtém um aumento de sua produtividade e uma redução considerável de seus custos variáveis. Comprovando assim que as ferramentas da qualidade são eficazes em diversos setores em uma indústria.

reduzir a necessidade de recursos aplicados a seus sistemas de produção. Dentre os métodos aplicados para aprimoramento de uma linha de produção, os que obtém grande destaque são as ferramentas desenvolvidas pelo setor da qualidade. Essas ferramentas buscam analisar problemas em um produto ou serviço e soluciona-los. Com tudo, tais ferramentas são muito versáteis, podendo ser aplicadas em diferentes áreas de uma indústria e em diferentes ramos, alcançar deste modo, grandes resultados. Bamford e Greatbanks (2005) descrevem a implantação da gestão da qualidade, onde estão presentes diversas ferramentas, em industrias de diferentes ramos produtivos. Por fim, foi observado o sucesso da implantação em todas as indústrias. Hagemeyer et al. (2006) desenvolveu as ferramentas da qualidade através de um projeto Six Sigma. Solucionando as variações de qualidade que uma linha de produção gerava em uma indústria fabricadora de ar condicionado. Leonel (2008) utiliza as ferramentas da qualidade no setor de manutenção em uma indústria de produção de pregos para aumentar a confiabilidade dos equipamentos da linha de produção. O resultado foi uma queda considerável de paradas de linha. Patel et al. (2014) aplica as ferramentas de qualidade em uma indústria de fabricação de peças para máquinas localizada na Índia. Com a implantação, foi possível identificar as principais causas dos maiores problemas de qualidade que a indústria obtinha e desenvolver melhorias para combate-las. Este trabalho demonstra as vantagens de aplicação das ferramentas da qualidade no setor de Engenharia Industrial, por meio de um estudo de caso em uma indústria de autopeças. Através de indicadores, e juntamente com o desdobramento das ferramentas da qualidade, foi possível encontrar pontos específicos em uma linha de produção onde havia perdas de

INTRODUÇÃO+ A evolução e aprimoramento dos sistemas produtivos é essencial para que as indústrias avancem diante ao mercado, oferendo produtos altamente competitivos. Para atingir melhores níveis de produtividade, as indústrias aplicam diversos métodos de melhorias para que utilizem da melhor forma possível seus recursos alocados. Segundo Liker (2007) as indústrias devem eliminar suas perdas de processos, para assim Derechos reservados COPIMERA 2015

156


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

5W1H+ O 5W1H é uma das ferramentas mais utilizadas para encontrar o fenômeno que provoca um determinado problema. A aplicação do 5W1H foi desenvolvida a partir da aplicação da ferramenta para definição de ações. Segundo Faria et al. (2012) o 5W1H é uma ferramenta composta por seis questões, conforme apresentado a seguir. •! What: Objetos da produção, o problema corrente. •! Where: Espaço onde ocorre o problema. •! When: Tempo, quando ocorre o problema. •! Who: Com quem ocorre o problema. •! Wich: A frequência com que o problema ocorre. •! How: A forma como o problema é visualizado. Nesse trabalho foi aplicado o método 5W1H para análise do fenômeno através do problema levantado.

processo. Possibilitando desenvolver ações para combate-las e aumentar a produtividade da indústria. As principais ferramentas da qualidade utilizadas para elaboração deste trabalho foram o ciclo PDCA, 5W1H, Diagrama de Ishikawa e análise dos 5 porquês. NOMENCLATURA+ PDCA - Plan, Do, Check and Act (Planejar-FazerVerificar-Agir). OEE - Overall Equipment Effectiveness (Eficiência Global dos Equipamentos). CICLO+PDCA+ O ciclo PDCA (Plan, Do, Check and Act), conhecido também como ciclo de Deming, foi desenvolvido por William Deming na década de 20. Seu principal objetivo é encontrar a causa de um problema e direcionar para uma melhor solução. Sua aplicação é utilizada em larga escala para gerenciamento de qualidade de produtos. De acordo com Charantimath (2009) a utilização do ciclo PDCA é essencial para o desenvolvimento da melhoria contínua. O principal conceito do ciclo PDCA é que sua estrutura representa um ciclo sem fim, ou seja, a cada termino de um ciclo se inicia novamente ao primeiro passo. Dessa forma, o produto é otimizado a cada ciclo. Duffy (2013) descreve cada etapa do ciclo PDCA conforme descrito a seguir. •! Plan: Nessa etapa seleciona-se o problema e define os objetivos a serem alcançados. Com o problema selecionado, busca-se o entendimento do problema claramente e define prazos para cada etapa a ser desenvolvida. Registra-se então o projeto e elabora as ações a solucionar o problema. •! Do: Nessa etapa realiza-se a coleta de dados e os analisam. Após analisados, realiza-se os custos que o problema gera. Com os custos dos problemas definidos, inicia-se a investigação e determina a melhor solução para o caso. Por fim, determina os custos de implantação das soluções e realiza novos testes. •! Check: Nessa etapa observa-se os efeitos após a implantação das soluções. Caso o problema seja solucionado a ideia é então consolidada. Com a consolidação, amplia-se a solução para os demais setores e busca a aprovação dos gestores quanto a solução implantada. •! Act: Instalação, implementação do projeto e treinamento para o sistema modificado. Manutenção do projeto para que ele não se acabe. Neste trabalho o ciclo PDCA foi utilizado como principal metodologia para identificar e auxiliar na obtenção da melhor solução para a principal perda de processo.

Derechos reservados COPIMERA 2015

DIAGRAMA+DE+ISHIKAWA+ O Diagrama de Ishikawa, conhecido também como Espinha de Peixe e Diagrama de Causa e Efeito, foi desenvolvido por Kaoru Ishikawa. Sua aplicação permite encontrar diversas causas para um único problema. Segundo Slack et al. (2009) o Diagrama de Ishikawa é de grande importância no desenvolvimento de melhorias. Tem como objetivo de responder as perguntas “o quê, onde, como e por que”, identificando dessa forma a causa de um problema. De acordo com Coghlan e Miller (2014) O diagrama de Ishikawa deve ser descrito no formato de esqueleto de peixe. A cabeça do esqueleto representa o problema a ser analisado, e as espinhas que seguem ligadas ao a vertebra principal são alocadas as possíveis causas de acordo com o subgrupo. Os subgrupos podem variar de acordo com a situação, porém os mais comuns de serem utilizados são os de máquina, método, mão-de-obra, materiais e meio ambiente. Segundo Russell e Arlow (2015) para obtenção de uma análise profunda com o Diagrama de Ishikawa é ideal que se monte um grupo de pessoas proativas. Cada membro do grupo deve inserir causas para o problema em análise. Após inserir todas as causas prováveis, o grupo deve verificar quais delas de fato gera o problema. Neste trabalho a utilização do Diagrama de Ishikawa foi essencial para identificar todas as causas envolvidas a partir do fenômeno encontrado. ANÁLISE+DOS+5+PORQUÊS+ Análise dos 5 porquês é um método utilizado para se identificar a real causa de um problema. Deste modo, as ações a serem tomadas resultaram em um efeito mais significativo. De acordo com Ohno (2013) deve-se repetir cinco vezes o porquê da ocorrência de um problema. Este método permite encontrar a causa raiz do problema que em muitos casos está oculto em causas comuns. A não utilização desse método pode resultar em ações desfocadas, fazendo com que a soluções de um problema seja apenas temporária. Wang (2008) descreve que a utilização dos 5 porquês tem como benefícios a identificação rápida da principal causa de um 157


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

problema, relação entre causas e problema, ferramenta simples de utilização, ferramenta fácil de implantação e sem a necessidade de análises matemáticas. A aplicação da análise 5 porquês neste trabalho foi importante para identificar a causa raiz de cada causa levantada no diagrama de Ishikawa.

Na Figura (1) tem-se o layout de uma das linhas de produção.

RESULTADOS+ Este trabalho foi desenvolvido em uma indústria de autopeças localizada na região sudeste do Brasil. Visando obter maior destaque diante ao mercado, e consequentemente ampliar seus lucros, a indústria tem o objetivo de reduzir ao máximo seus custos de processo. Para reduzir seus custos, é essencial que se elimine todas as perdas instaladas em seu processo de produção, pois essas perdas não agregam valor ao produto final, logo se tornam gastos desnecessário. Para atingir tal objetivo, a indústria visou implantar, unificar e adaptar diversos métodos, de forma que busquem identificar as perdas para posteriormente elimina-las. Com isso, decidiu-se adaptar algumas das ferramentas consagradas destinadas a solucionar problemas de qualidade de produtos para reduzir custos de processo. As ferramentas da qualidade foram escolhidas devido sua estrutura permitir encontrar causas raízes de diversos problemas de produtos. Além de identifica-los, permite sistematizar meios de melhorias, solucionando-nos através dos meios mais viáveis possíveis, considerando todos os fatores existentes. Para desenvolver projetos de melhorias sistemáticos, em que cada passo segue determinadas regras e com metas definidas, o ciclo PDCA foi tomado como principal método de desenvolvimento. Essa ferramenta permitiu que o processo não saísse de seu principal objetivo, além de reduzir o espaço de tempo entre a identificação do problema e a consolidação da solução proposta. O ciclo PDCA permite também a abordagem de diversas ferramentas, tornando os dados analisados mais concretos possível. Como primeiro passo do ciclo PDCA (Plan), foi reunido um grupo com 5 membros das áreas de produção, engenharia, qualidade, manutenção e logística. A formação do grupo multifuncional foi essencial para se obter diversos pontos de vista ao longo do andamento do projeto de melhoria. Reduzindo assim a probabilidade de o projeto ser rejeitado durante sua implantação. Para ampliar a eficiência da indústria, foi analisado todas as células de produção com o intuito de identificar a que representava o gargalo da indústria. O trabalho sobre a célula gargalo permite com que a indústria obtenha uma elevação em sua produção como um todo. A célula gargalo é composta por três linhas idênticas de produção, cada linha tem uma capacidade produtiva de gerar uma peça a cada 6 segundos. Cada linha é composta por um transportador onde as peças são inseridas uma por vez. Apesar do baixo tempo de ciclo de cada linha, o setor possuiu um baixo volume de produtos processados. Derechos reservados COPIMERA 2015

Figura 1. Layout de uma das linhas de produção. Fonte: Autor. Cada posto de trabalho da linha de produção exerce as funções apresentadas a seguir. •! Posto 10: Inspecionar peça e abastecer posto 20. •! Posto 20: Testar força da peça. •! Posto 30: Etiquetar peça. •! Posto 40: Inserir componente 1 na peça. •! Posto 50: Prensar componente 1 na peça. •! Posto 60: Retirar peça do transportador e inserir na embalagem final. Como indicador de perdas a indústria utiliza a OEE (Overall Equipment Effectiveness) para mensurar a produtividade de suas linhas de produção. Sua utilização permitiu abranger todas as perdas que podem vir ocorrer. Com base nos resultados apresentados na OEE, a principal perda foi identificada, direcionando desse modo o projeto a um único foco. Na Figura (2) tem-se o indicador de OEE da primeira quinzena do mês de julho de 2015.

158


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Figura 2. OEE da primeira quinzena do mês de julho de 2015. Fonte: Autor.

5W1H What?

Com o resultado da OEE, foi visualizado que a principal perda da linha é referente a Performance. Tal perda corresponde a 30,29% dos recursos utilizados pela linha de produção. Com a perda a ser reduzida definida, a meta traçada pela equipe foi de reduzir em no mínimo 10% da perda referente a Performance, o que resultaria em uma elevação no indicador de OEE passando de 62,11% para aproximadamente 71,35%. Mantendo os mesmos desempenhos de Disponibilidade e Qualidade. Com a meta traçada, foi determinado as datas para desenvolvimento do projeto através do Diagrama de Gantt. Permitindo assim uma gestão visual do projeto e fixando um prazo alvo para a implantação. Na Figura (3) tem-se o Diagrama de Gantt das atividades planejadas para o desenvolvimento do projeto e suas respectivas datas de conclusão. 29

30

Semana 31 32

Elevada(perda(de(performance Where? Na(célula(07(de(acabamento When? Durante(o(processo(de(produção Who? Operadores(diretos(que(trabalham(na(máquina(gargalo Which? Sempre(que(há(produção How?

33

34

Atraso(na(conclusão(do(lote

Formação.da.equipe Deifinão.do.problema Entender.as.causas.do.problema Análise.da.célula.de.produção Elaboração.da.melhoria Implantação.em.uma.linha Acompanhamento.da.produção Expanção.para.as.demais.linhas Consolidação.do.projeto

Fenômeno3revisado Atraso(na(conclusão(do(lote(pois(existe(uma(elevada(perda(de(performance(na( célula(07(de(acabamento(durante(o(processo(de(produção.(Sempre(que(há( produção(e(sendo(trabalhado(pelo(operador(direto(da(máquina(gargalo

Figura 4. Formulário 5W1H. Fonte: Autor.

Figura 3. Cronograma do projeto de melhoria. Fonte: Autor.

A partir do fenômeno revisado, foi desenvolvido o Diagrama de Ishikawa para descrever todas as causas potenciais que provocavam a ocorrência do fenômeno. Nessa etapa cada membro da equipe destacou o que seus respectivos setores viam como provável causa. Para esse projeto viu-se que apenas os fatores de máquina, mão de obra, material e método poderiam vir a interferir no desempenho da linha de produção. Na Figura 5 tem-se o Diagrama de Ishikawa desenvolvido a partir do fenômeno do problema.

Com o cronograma definido, deu-se início a busca pelo entendimento do problema. Inicialmente apenas uma linha foi analisada, visto que as demais são idênticas. Para análise inicial do problema, foi utilizado o método 5W1H, com o intuito de descrever o fenômeno que gera o problema. Para utilização desse método, um formulário foi desenvolvido para preenchimento. Na Figura (4) tem-se o formulário 5W1H preenchido para o problema de baixa Performance. Através do fenômeno revisado chegou-se à conclusão de que o fenômeno ocorre diretamente no gargalo da linha de produção. Dessa forma, as melhorias a serem desenvolvidas devem ter impacto direto na operação gargalo.

MÃO'DE'OBRA

MÁQUINA

! Falta'de'treinamento

! Falha'no'acionamento ! Perda'de'presão

! Falta'de'foco na'atividade

! Falta'de'manutenção'preventiva

! Operados'com ritmo'de'trabalho'lento

! Máquina'fora'do'padrão'especificado ! Máquina'com'processamento lento

! Paradas no'gargalo ! Falta'de'peças'na'linha ! Sem procedimento'padrão

! Peça de'difícil'manuseio

! Método'não'definido por'família'de'processo

! Peça grande ! Peça pesada MATERIAL

Atraso'na'conclusão'do'lote' pois'existe'uma'elevada'perda' de'performance'na'célula'07'de' acabamento'durante'o' processo'de'produção.'Sempre' que'há'produção'e'sendo' trabalhado'pelo'operador' direto'da'máquina'gargalo

! Peça de'difícil'alcance MÉTODO

Figura 5. Diagrama de Ishikawa. Fonte: Autor. Derechos reservados COPIMERA 2015

159


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Todas as causas foram analisadas detalhadamente para verificar se suas ocorrências influenciam na perda por Performance da linha de produção. As causas que afetam a Performance da linha são apresentadas a seguir. •! Falha no acionamento do equipamento gargalo. •! Pequenas paradas de linha. •! Falta de peças no posto gargalo. •! Falta de padronização do método de trabalho. Para cada causa encontrada no Diagrama de Ishikawa e que afeta a Performance da linha, foi realizado uma análise 5 porquês. Essa análise teve como objetivo encontrar a causa raiz para cada causa do Diagrama de Ishikawa. Nessa etapa um estudo detalhado foi realizado para cada porquê levantado a fim de possibilitar o desenvolvimento de soluções que impedia a ocorrência das causas visíveis. Após identificar a causa raiz, uma ação foi determinada para que eliminasse tal causa. A Figura 6 tem-se a análise 5 porquês das causas confirmadas no Diagrama de Ishikawa. Principais)Causas

Porquê?

Falha%no%acionamento%do% equipamento%gargalo

Operador%não%está% acionando%o% Não%tem%prática% bimanual% com%a%operação corretamente

Porquê?

Não%foi%treinado% corretamente%para% o%posto

Porquê?

Pequenas%paradas%de%linha

Algumas%vezes% O%transportador% não%há%peça%para% transporta%uma% processar peça%por%vez

O%transportador% não%tem% capacidade%para% conter%buffer

Falta%de%peças%no%posto%gargalo

O%abastecedor% para%a%célula

Não%há%peças%na% linha%durante%o% período

Não%há%buffer& para%manter%a% linha%abastecida

Falta%de%padronização%do% método%de%trabalho

Não%foi%realizado% um%estudo% detalhado%da% célula

linha de produção. Essa ação teve por objetivo eliminar micro paradas ocorridas no gargalo devido a ações periódicas de outros postos de trabalho. O relayout da linha foi a principal ação tomada, extraindo ao máximo a capacidade produtiva da linha de produção. Foi levantado todas as atividades de cada posto de trabalho que para ser realizadas ocorre uma parada na linha. Após o levantamento foi observado que a atividade de troca de caixa vazia por cheia de peças a serem processadas no posto 10 ocorria com uma frequência de cada 40 ciclos. Tal troca de caixa leva um tempo médio de 11 segundos. Além da troca de caixa, quando uma peça era reprovada no posto 20 a linha também parava por falta de peça no transportador. O objetivo do relayout foi criar um buffer antes do gargalo da linha (posto 50), desse modo pequenas paradas ou atrasos em outros postos de trabalho não iriam refletir no gargalo da linha, dessa forma mantendo a produtividade da linha como um todo. Para realização do relayout foi necessário o desenvolvimento de um estudo de balanceamento da linha de produção. O balanceamento da linha de produção visou reduzir o máximo possível o número de postos de trabalho através da coligação de atividades. Na Figura 7 tem-se o balanceamento da linha de produção antes de qualquer ação.

Porquê?

O%transportador% não%tem% capacidade%para% conter%buffer

Figura 6. Análise 5 porquês. Fonte: Autor. Após análise dos 5 porquês, inicia-se a segunda faze do ciclo PDCA (Do), onde cada ação de solução foi desenvolvida para eliminar a causa raiz. Após a elaboração da solução, as ações são destinadas a alguns responsáveis e um prazo é determinado para que tal atividade seja concluída. Para a causa de falha no acionamento que resultou na causa raiz de falta de treinamento do operador, foi determinado que todos os operadores da linha de produção deveriam ser treinados quanto ao acionamento dos equipamentos. Esse treinamento visou retirar todas as dúvidas referente ao acionamento do equipamento e a forma correta de utiliza-lo. Essa ação resultaria na eliminação de micro paradas imperceptíveis, porém devido sua elevada frequência resultava em um tempo considerável de parada. Como essa parada não era registrada devido seu curto tempo, (aproximadamente 2 segundos por falha ao acionamento) seu efeito era visível no indicador de Performance. Para a causa de pequenas paradas de linha que resultou em não ter capacidade para fazer um buffer de produtos antes do gargalo da linha como causa raiz, foi realizado um relayout da Derechos reservados COPIMERA 2015

Figura 7. Balanceamento de operações. Fonte: Autor. Analisando o gráfico de balanceamento foi possível visualizar que os postos 30 e 40 possuem alto nível de desbalanceamento comparando os mesmos com o gargalo da linha. Dessa forma pode-se afirmar que o conteúdo de trabalho de ambos os postos pode ser desenvolvido em apenas um. Na Figura 8 tem-se o balanceamento da linha de produção coligando as atividades dos postos 30 e 40. Com o balanceamento da linha de produção, eliminando o máximo possível do desbalanceamento, foi possível planejar a melhor distribuição de layout. Foi utilizado o conceito de layout em U, com o intuito de obter ganho de espaço ocupado pela linha de produção. 160


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

documento foi fixado em todos os postos de trabalho para fácil visualização dos operadores. Com as ações definidas, as atividades para implantação foram distribuídas entre cada membro do grupo. As designações das atividades foram feitas de acordo com a área de atuação de cada membro. Isso permitiu que a implantação fosse mais efetiva e rápida possível. Na Figura (10) demonstra o formulário preenchido com as ações a serem tomadas, a data para conclusão e o número de responsáveis pela implantação. Causa%raiz

Figura 8. Balanceamento de operações. Fonte: Autor. Na Figura (9) tem-se o layout da linha de produção com a nova distribuição dos postos de trabalho.

Ação

Data%de% implantação

Número%de% responsáveis

Treinar$os$operadores$ Não$foi$treinado$corretamente$ quanto$ao$acionamento$ para$o$posto bimanual$de$máquinas

27/07/2015

2$funcionários

O$transportador$não$tem$ capacidade$para$conter$buffer

Desenvolver$relayout $da$ linha$de$produção

01/08/2015

5$funcionários

Não$foi$realizado$um$estudo$ detalhado$da$célula

Implantação$do$POP

29/07/2015

2$funcionários

Figura 10. Formulário de implantação de ações. Fonte: Autor. A implantação das ações conclui a terceira fase do ciclo PDCA. Na terceira faze (Check) a linha de produção foi acompanhada durante 15 dias e seu OEE foi registrado de forma a observar os efeitos das ações implantadas. Na Figura (11) tem-se o OEE da quinzena de agosto após a implantação das ações.

Figura 9. Layout após balanceamento da linha de produção. Fonte: Autor. As atividades por posto de trabalho foram dividas conforme apresentado abaixo •! Posto 10: Inspecionar peça e abastecer posto 20. •! Posto 20: Testar força da peça. •! Posto 30: Etiquetar e inserir componente 1 na peça. •! Posto 50: Prensar componente 1 na peça. •! Posto 60: Retirar peça do transportador e inserir na embalagem final. Com o formato do layout proposto, o gargalo da linha passou a ter um buffer de 3 peças, isso permitindo que durante a realização das atividades periódicas dos demais postos de trabalho, o gargalo não para sua produção. Para a causa falta de peças no posto gargalo a causa raiz foi a mesma para pequenas paradas de linha. Deste modo a ação de relayout solucionou essa tal causa. Para a causa de falta de padronização do método de trabalho, foi implantado o documento POP (Procedimento Operacional Padrão). Esse documento demonstra passo a passo das atividades que cada posto de trabalho deve exercer. Tal Derechos reservados COPIMERA 2015

Figura 11. OEE da quinzena de agosto após implantação das ações. Fonte: Autor. As ações resultam em uma queda na Perda de Performance. Passando de 30,29% para 9,15%. Representando uma redução de 21,14%, atingindo desse modo a meta esperada para o projeto. Apesar da variação da perda de Disponibilidade da linha, passando de 7,61% para 16,21%, a linha de produção teve uma elevação no seu valor de OEE, passando de 62,11% para 74,65%. O resultado de OEE também supera a meta planejada. 161


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

REFERENCIA+ BAMFORD, D. R.; GREATBANKS, R. W. The use of quality management tools and techniques: a study of application in everyday situations. International Journal of Quality & Reliability Management, v. 22, p. 376-392, 2005. http://dx.doi.org/10.1108/02656710510591219. CHARANTIMATH, P. M. Total Quality Management. Pearson Education, 2009. 259 p. COGHLAN, D.; MILLER, M. B. The SAGE encyclopedia of action research. Sage, 2014. 863 p. DUFFY, G. L. The ASQ Quality Improvement: Pocket Guide. The Global Voice of Quality, 2013. 134 p. FARIA, A. C.; VIEIRA, V. S.; PERETTI, L. C. Redução de custo sob a ótica da Manufatura Enxuta em empresa de autopeças. Revista Gestão Industrial, v. 08, p.186-208, 2012. http://dx.doi.org/10.3895/S180804482012000200008. HAGEMEYER, C.; GERSHENSON, J. K.; JOHNSON, D. M. Classification and application of problem solving quality tools: A manufacturing case study. The TQM Magazine, v. 18, p. 455-483, 2006. http://dx.doi.org/10.1108/09544780610685458. LEONEL, P. H. Aplicação prática da técnica do PDCA e das ferramentas da qualidade no gerenciamento de processos industriais para melhoria e manutenção de recursos. Tese (Graduação) - Universidade Federal de Juiz de Fora. Departamento de Engenharia de Produção, 2008. 85 p. LIKER, J. K. O Modelo Toyota de Produção: 14 princípios de gestão do maior fabricante do mundo. Bookman, 2007. 316 p. OHNO, T. O Sistema Toyota de Produção. Bookman, 2013. 131 p. PATEL, P. J.; SHAH, S. C.; MAKWANA, S. Application of Quality Control Tools in Taper Shank Drills Manufacturing Industry: A Case Study. Int. Journal of Engineering Research and Applications, v. 4, p. 129-134, 2014. RUSSUELL, D. L.; ARLOW, P. C. Industrial Security. Wiley, 2015. 224 p. SLACK, N.; CHAMBERS, S.; JOHNSTON, R. Administração da Produção. Atlas, 2009. 703 p. WANG, J. X. What Every Engineer Should Know About Business Communication. CRC Press, 2008. 208 p.

O aumento no valor da OEE confirma que o volume produzido pela linha é superior ao da produção da primeira quinzena de julho, antes da aplicação das ações. O aumento do volume produzido resulta no maior aproveitamento das horas disponíveis da indústria, ou seja, uma elevação no aproveitamento de seus recursos. Nesse sentido, a indústria amplia o número de produtos a serem vendidos, ou realoca seus recursos para outros setores que necessita dos mesmos. Com o resultado positivo alcançado pelo projeto, as ações tomadas foram expandidas para as linhas de produção idênticas a do projeto. Permitindo assim alcançar um ganho ainda maior na implantação do projeto. Para última fase do ciclo PDCA (Act), todos os operadores do setor foram treinados de forma a se adaptarem com o novo layout e as atividades desempenhadas por posto de trabalho. Um plano de acompanhamento mensal foi desenvolvido para manter o novo método de trabalho implantado. Para consolidação do projeto, todos os trabalhos desenvolvidos foram documentados, e todos os padrões de trabalhos foram registrados. Isso permite com que seja realizado auditórias mensais nas linhas de produção para acompanhamento da produção. O acompanhamento permite também encontrar novas oportunidades de melhorias na linha de produção. CONCLUSÃO+ A aplicação das ferramentas da qualidade para análise e desenvolvimento de melhorias no setor de produção industrial provou que suas aplicações podem ser desempenhadas em qualquer ramo da indústria. A capacidade de análise e desdobramento de problemas através das ferramentas da qualidade podem ser desenvolvidas para solucionar qualquer tipo de problema. O alinhamento entre as ferramentas da qualidade e recursos de área permite desenvolver ações em prol da otimização das linhas de produção, fato essencial para que as indústrias se destaquem cada vez mais e conquiste um número maior de consumidores. Além de garantir um maior nível de confiabilidade de seus produtos. Esse trabalho confirma também a eficácia das ferramentas da qualidade no que se refere a identificação, desenvolvimento e implantação de solução de problemas. Se torna indiscutível também a necessidade de obter o conceito de ferramentas de qualidade em qualquer indústria. É importante destacar que o desenvolvimento de otimização de linhas de produção trata-se de um conceito kaizen, dessa forma sua aplicação deve ser constante para sempre estar evoluindo a linha de produção e alcançando resultados cada vez melhores. Para trabalhos futuros, as ferramentas de qualidade serão trabalhadas juntamente com outras ferramentas de diferentes setores. Isso permitirá encontrar novas oportunidades de melhorias, reduzindo custos e aumentando a competitividade entre as industrias diante o mercado. Derechos reservados COPIMERA 2015

162


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Derechos reservados COPIMERA 2015

!

!

163


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

! GESTIÓN+DE+PROCESOS+DE+NEGOCIO++ APLICADA+A+LA+ADMINISTRACIÓN+UNIVERSITARIA+

Julio César Figueroa Sandrez CIMEQH/UMH, Tegucigalpa, Honduras+

Resumen+

Considerando lo anterior, uno de los principales desafíos de toda organización de educación superior es conseguir la flexibilidad y agilidad necesaria para adaptarse a los rápidos y continuos movimientos del entorno, gestionando los riesgos operacionales y financieros, incrementando a su vez la rentabilidad y la satisfacción de sus clientes (la sociedad misma). Hoy en día, las experiencias de muchas entidades que han implantado una Gestión de Procesos de Negocio ó Business Process Management (BPM) reportan grandes beneficios en los rubros de costos y reducciones significativas en los tiempos de servicios a sus clientes, dándose cuenta que el BPM junto con sus tecnologías, técnicas, métodos, herramientas y disciplinas de gestión se hacen imprescindibles para convertir los retos propuestos en una realidad.

Las empresas, tanto públicas como privadas se han visto presionadas en estas últimas décadas a ser más competitivas; lo que no excluye a las universidades de esta labor, ya que se les exige formar más y mejores profesionales en las áreas del conocimiento que el país necesita para su desarrollo. En base a lo anterior, uno de los principales desafíos de toda organización de educación superior es conseguir la flexibilidad y agilidad necesaria para adaptarse a los rápidos y continuos movimientos del entorno, gestionando los riesgos operacionales y financieros, incrementando a su vez la rentabilidad y la satisfacción de sus clientes (la sociedad misma). Hoy en día, las experiencias de muchas entidades que han implantado una Gestión de Procesos de Negocio ó Business Process Management (BPM) reportan grandes beneficios, con altísimos ahorros en costos y reducciones significativas en los tiempos de servicios a sus clientes, dándose cuenta que el BPM junto con sus tecnologías, técnicas, métodos, herramientas y disciplinas de gestión se hacen imprescindibles para convertir los retos propuestos en una realidad.

Por lo tanto podemos inferir que la BPM es una metodología empresarial cuyo objetivo principal es mejorar la eficiencia y eficacia a través de la gestión sistemática de los procesos de negocio, que consideran la modelación, ejecución (automatización), monitoreo y optimización permanente. Sin embargo, para lograr el éxito en la implantación del BPM, las organizaciones no deben de cometer el gran error de centrarse solo en las tecnologías, sino que también deben de considerar el conocimiento, dominio y mejora continua de sus procesos, datos, y recursos empresariales. Por lo que en la presente propuesta se sugiere detectar una necesidad de mejora en los procesos en la universidad para la primera experiencia en la aplicación de las metodologías BPM, de forma que se haga un análisis del proceso actual, se optimice, y se fijen los indicadores clave que muestren los hitos conseguidos.

Introducción+ Las empresas, tanto públicas como privadas se han visto presionadas en estas últimas décadas a ser más competitivas; lo que no excluye a las universidades de esta labor, ya que se les exige formar más y mejores profesionales en las áreas del conocimiento que el país necesita para su desarrollo. Esto significa que a los estudiantes hay que brindarles una serie de herramientas necesarias, a fin de que ellos sean capaces de enfrentarse y adaptarse a un ambiente empresarial, en donde la constante es el cambio continuo, lo que implica que las entidades de educación superior se han visto en la necesidad a incrementar sus presupuestos, actividades de investigación e innovación, y por ende la vinculación con la sociedad misma.

Derechos reservados COPIMERA 2015

Nomenclatura+ a)! BMP: Business Process Management ó Gestión de Procesos de Negocio b)! CSF: Critical Success Factors ó Factores Críticos de Riesgo

c)! IP: Indicator Performance ó Indicadores de Actuación d)! IR: Indicator Results ó Indicadores de Resultados 164


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

reglas, participantes y sus interacciones. Sus características son: composición, descomposición, combinación reestructuración y transformación.

e)! IRC: Critical Indicator Past Results ó Indicadores de Resultados Críticos Pasados f)! KPI: Key Performance Indicators ó Indicadores Clave de Desempeño g)! UF: Unidad Funcional h)! WfMC: Workflow Management Coalition ó La Coalición para La Gestión del Flujo de Trabajo i)! WMS: Workflow Managment System ó Sistema de Gestión de Flujo de Trabajo

1.+LA+GESTIÓN+DE+PROCESOS+DE+ NEGOCIOS+ Hoy en día las organizaciones, ya sean de carácter público o privado necesitan constantemente adaptar y mejorar sus procesos. Sin embargo, muy frecuentemente están limitadas por aplicaciones y sistemas rígidos e inflexibles los cuales no están preparados para explotar nuevas oportunidades y adaptarse a los cambios de forma ágil. La Gestión de Procesos de Negocio, con sus enfoques innovadores y sus tecnologías de punta, ha emergido como el elemento clave para proveer a las organizaciones de la “Agilidad” y “Flexibilidad” necesaria para responder de forma rápida a los nuevos cambios y oportunidades de mercado. (1) y (2)

Ejecución: asegura que el nuevo proceso es desarrollado por todos los participantes (personas, sistemas de información, otras organizaciones y otros procesos). Es responsable del sistema de gestión del proceso. Lo anterior significa que se automatizan los procesos con un motor de workflow o flujo de trabajo e integrar las aplicaciones y datos para que exista una coordinación adecuada.

III.!

Monitoreo y control: integra ambos procesos con el sistema de gestión de procesos sobre el que se está ejecutando. Este incluye las tareas necesarias para mantener el desarrollo óptimo de los procesos, tanto desde una perspectiva técnica como en la utilización de los recursos.

IV.!

Optimización: combina el proceso de modelación y el de análisis para retroalimentar de la ejecución de los procesos con respecto a la situación actual. En base a lo expresado, se realizan los cambios en los procesos una vez que se han detectado los aspectos mejorables a través del monitoreo, en caso de ser necesario.

A su vez, estas etapas se soportan en los siguientes elementos:

La Gestión de Procesos de Negocios ó Business Process Management (BPM) en inglés, es un método, un proceso, un sistema y un estándar que extiende y permite la puesta en marcha de cualquier teoría administrativa y facilita a su vez, la formalización y adopción rápida de nuevas teorías en un negocio, es decir, que consiste en la administración de los procesos de negocios de principio a fin, mediante el uso de nuevas tecnologías, de forma tal que se pueda responder de la manera esperada ante el cambio. (3)

a)! Análisis: controla la presentación del proceso para proveer la métrica, análisis y la inteligencia de negocio necesaria para manejar las mejores prácticas y estrategias, y descubrir oportunidades innovadoras a través de simulaciones u otras técnicas. (5) b)! Interacción: usa los procesos de escritorio y los de portal, en los cuales la gente puede interactuar completamente con los procesos de negocio. Esto incluye la administración entre la interface, el trabajo manual (tradicionalmente llamado “workflow” ó “flujo de trabajo”) y la automatización. En esta administración el trabajo recae sobre la locución, administración de tareas y la forma en que los datos son integrados. (5)

En tal sentido el BPM brinda a las personas de las organizaciones mucho más que un conjunto de herramientas, tecnologías, técnicas, métodos y disciplinas de gestión, ya que ese conjunto nos va a permitir: identificar procesos, modelar los mismos y analizar su comportamiento; ejecutar los procesos (automatización); controlar la ejecución de los procesos; y optimizar los procesos para la mejora continua. (1)

c)! Despliegue: consiste en la socialización del conocimiento hacia todos los participantes, incluyendo los conceptos de personas, aplicaciones y otros procesos empresariales. (5)

2.+Ciclo+de+vida+del+BPM+ En términos simples, podemos afirmar que el BPN tiene un ciclo de vida (4) dividido en cuatro etapas: I.! Modelación y Diseño: significa modelar, manipular y rediseñar procesos para luego capacitar y dar a conocer a la organización sobre los posibles descubrimientos o mejoras sugeridas. Este proceso integra actividades, Derechos reservados COPIMERA 2015

II.!

165


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

3.+Proceso+de+aplicación+del+BPM+

criterio de aceptación definido. La existencia de la entrada es lo que justifica la ejecución sistemática del proceso.

Normalmente el proceso de aplicación del BPM parte de un análisis o diagnóstico de la situación actual de los procesos de negocio (monitoreo de los procesos actuales, tomando algunos indicadores de referencia), el cual dará a conocer hallazgos a considerar para el rediseño y mejora, a fin de alcanzar los resultados de negocio esperados. Una vez que se conocen los procesos que son objeto de mejora se desarrollar un proyecto BPM, el cual comienza a modelar y diseñar procesos de negocio, creando lo que se denomina como Arquitectura Empresarial (se identifica el mapa de procesos del negocio y se modelan los procesos para su automatización, de esta forma se definen los nuevos indicadores clave a controlar para orientarnos hacia los objetivos de negocio). En la ejecución (automatización) se ejecutan e integran los procesos de negocio utilizando motores de workflow y soluciones de integración de aplicaciones (para conectarnos con los aplicativos ya existentes) y de datos. A medida que se van ejecutando los procesos de negocio, se irá controlando el comportamiento mediante el monitoreo (detectando cargas de trabajo, cuellos de botella, ineficiencias, buenos resultados, puntos de mejora…). En el monitoreo, se detectan mejoras a realizar, por lo que se empieza de nuevo el ciclo, revisando el modelo y realizando los ajustes necesarios de diseño, por lo que se perpetua el proceso de mejora continua. (1) y (6). Fig.1

b)! La secuencia de actividades (Proceso en sí mismo): Aquellos factores, medios y recursos con determinados requisitos para ejecutar el proceso siempre bien a la primera. Algunos de estos factores del proceso son entradas laterales, es decir, entradas necesarias para la ejecución del proceso, pero cuya existencia no lo desencadena. Son productos que provienen de otros procesos con los que interactúa. c)! Salida (Output): Es el producto o servicio con la calidad exigida por el estándar del proceso. La salida es un producto o servicio que va destinado a un usuario o cliente (externo o interno). La salida final de los procesos de la cadena de valor es una entrada para el proceso del cliente. Considerando lo anterior, podemos decir que un proceso de negocio puede definirse como un conjunto estructurado de tareas, que cuenta con recursos e información, y objetivos (propósitos) específicos los cuales trabajan colectivamente para alcanzar las metas que una organización se ha fijado (9). Los procesos de negocio de una organización son parte de su cultura de trabajo, ya que se registran y se socializan en manuales de procedimientos, diagramas de flujo y hasta verbalmente. Son la base operativa de una organización y el éxito de la misma depende fuertemente de la eficiencia con que sean gestionados. Una mala gestión en los procesos de negocio conlleva de forma simultánea a altos costos, una baja productividad, y tiempos inadecuados de respuesta a las oportunidades ó a las amenazas. (10), Fig. 2

Figura1. Proceso de Aplicación de Ciclo de vida BPM, (24)

4.+¿Qué+es+un+proceso+de++negocio?+ Para comprender mejor el concepto de proceso de negocio, definiremos primero ¿qué es un proceso?; Un proceso se define como “una estructura para la acción”, donde existe la configuración de actividades de trabajo que cruzan el tiempo y el espacio, con un principio y fin claramente identificados como entradas y resultados”. (7)

Fig.2 Proceso de Negocio (10)

4.1+ Clasificación de procesos Los procesos se pueden clasificar en:

Partiendo de este hecho, todo proceso consta de tres elementos (8) básicos:

a)! Procesos operativos o Clave: Combinan y transforman recursos para obtener el producto o proporcionar el servicio conforme a los requisitos del cliente, aportando un alto valor añadido (11) y (12) . Estos procesos son

a)! Entrada (Input): Es un evento o materia prima con unas características objetivas que responde al estándar o Derechos reservados COPIMERA 2015

166


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

también los principales responsables de conseguir los objetivos de la empresa. (8)

Un método válido (13) para cualquier sistema de gestión que se desee realizar un mapa de procesos en términos simplificados es el siguiente:

b)! Procesos de apoyo: Proporcionan las personas los recursos físicos necesarios para el resto de procesos y conforme a los requisitos de sus clientes internos. Aquí se incluirían:

a)! Identificar a los actores b)! Identificar la clase de proceso c)! Añadir los procesos de soporte a la línea de proceso y los de dirección d)! Añadir los procesos que afectan a todo el sistema

•!El proceso de gestión de los recursos humanos. •!El proceso de aprovisionamiento en bienes de inversión, maquinaria, utillajes, hardware y software y el proceso de mantenimiento de la infraestructura. •!El proceso de gestión de proveedores. •!La elaboración y revisión del sistema de gestión de la calidad.

5+ ¿Qué+ es+ el+ “workflow”+ o+ “flujo+ de+ trabajo”?+ Como respuesta al problema del modelado de procesos de negocio dentro de una organización, en la década del 90 surgió la tecnología de workflow o flujo de trabajo. Esta tecnología permitió representar total o parcialmente los procesos de negocio en un formato entendible por una máquina. (14)

c)+ Procesos de gestión o estratégicos: Mediante actividades de evaluación, control, seguimiento y medición aseguran el funcionamiento controlado del resto de procesos, además de proporcionar la información que necesitan para tomar decisiones (mejor preventivas que correctoras) y elaborar planes de mejora eficaces. Funcionan recogiendo datos del resto de los procesos y procesándolos para convertirlos en información de valor accesible y aplicable para la toma de decisiones de sus clientes internos. (8); (11) y (12)

La Coalición para la Gestión del Flujo de Trabajo o Workflow Management Coalition (WfMC siglas en inglés), es una de las principales organizaciones en el mundo que trabaja en temas de workflow. Dicha organización lo define de la siguiente manera: “Es un conjunto de uno o más procedimientos o actividades directamente ligadas, que colectivamente realizan un objetivo del negocio, normalmente dentro del contexto de una estructura organizacional que define roles funcionales y relaciones entre los mismos”. (15)

d)! Procesos de dirección: Están concebidos con carácter transversal a todo el resto de procesos de la organización.

En un workflow, la información, tareas y documentos pasan de un participante a otro, para que se realicen una serie de acciones de acuerdo a un conjunto de reglas de negocio. Los sistemas que dan soporte a la definición del flujo de trabajo y a su posterior ejecución, se denominan Workflow Managment System (WMS). (14)

Por lo tanto, el mapa de procesos ha de representar los procesos relevantes para satisfacer al cliente y conseguir los objetivos de la empresa. Es una herramienta para comunicar el enfoque al proceso además de mostrar las interacciones más importantes. (8)

6+ INDICADORES+ CLAVE+ DE+ DESEMPEÑO+ (KPI´s)+

4.2+ El mapa de procesos

6.1+ ¿QUÉ SON LOS INDICADORES CLAVE DE DESEMPEÑO O KEY PERFORMANCE INDICATORS (KPI´s)?

4.2.1+ ¿Qué es un mapa de procesos? Un mapa de proceso es una representación gráfica que nos muestra la estructura de la Unidad Funcional (UF) en la que nos encontramos, permitiendo que nos situemos en relación al trabajo que en ella se desarrolla y así conocer dónde se ubica nuestra actividad y hacia qué fin se orienta. (13)

Indicadores clave de desempeño, del inglés key performance indicators (KPI), son medidores del desempeño de un proceso, los cuales se encuentran vinculados a uno o varios objetivos. Usualmente, estos indicadores son expresados en forma de porcentajes, tasas, etc. y permiten el análisis de los procesos y verificar si los resultados van fuera de su plan de trabajo o dentro de él (16). Para cualquier organización es valiosa la identificación de los indicadores claves para dar seguimiento. Para ello, la empresa debe tener claridad en los

4.2.2+ Método para realizar el mapa de procesos

Derechos reservados COPIMERA 2015

167


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

objetivos que requieren y, luego, definir la medida cuantitativa de los resultados.

6.3+ Aplicación de los PKI Para desarrollar los indicadores clave de desempeño (KPI), deberá analizarse el marco estratégico. Se atribuirá a algún aspecto concreto de la estrategia una forma en la cual éste puede medirse. Puede ser directamente a través de la definición de factores de éxito y factores crítico de éxito, los cuales generarán una necesidad en el estudio de su comportamiento, debiendo elegirse la medición más conveniente. (19)

La particularidad de estos indicadores es que son realmente clave para el estudio del progreso de los objetivos estratégicos, por eso, si una organización tiene 100 KPI´s, es posible que no se tenga por completo el control del comportamiento de la organización respecto a un objetivo. (17)

Asimismo, las empresas que inicien con la aplicación de un sistema de medición basado en indicadores claves de desempeño, deben de considerar empezar de una forma escalonada (poco a poco). Seleccionar un par de estrategias de KPI y comenzar a monitorearlos por un par de semanas. Poco a poco, la facilidad para la recopilación de datos generará un hábito en el seguimiento del desempeño de las cantidades correspondientes. (19) y (20)

6.2+ Tipos de métricas de desempeño El tipo de métrica se refiere a la forma en la que se mide numéricamente una actividad específica, representada a través de datos relacionados a su desempeño. Un recurso importante, que aporta beneficios significativos para la empresa es la información. Se debe gestionar cómo satisfacer los requerimientos de información, lo cual incluye mecanismos de control, entre ellos, la métrica de desempeño, que permite conocer y controlar la ejecución adecuada de las labores de la empresa. (18)

Para establecer un KPI, se debe ser capaz de identificar perfectamente al responsable del mismo. Al mismo tiempo se debe de realizar la elección de la métrica y dimensionales más adecuadas para capturar la información más importante. (21)

Es evidente que la medición es importante porque gestiona de forma más efectiva. Se deben realizar preguntas sobre la medición, como ¿cuáles son las métricas apropiadas que se deben aplicar para el proceso? ¿Cómo se debe utilizar la información que se recompila?

6.3.1+ ¿Qué son los factores críticos de éxito (csf)? Los factores críticos de éxito o critical success factors (CSF) son aquellas áreas y factores cuyo funcionamiento permitirá la implantación de una estrategia, identificada para situar a la empresa en un nivel competitivo. Su único fin será el de concentrar los esfuerzos en aquellos factores necesarios para conseguir un objetivo y asignar los mejores recursos a la ejecución de dicho factor. (19)

Las mediciones se pueden catalogar en dos grupos: a)! La medición directa: es el proceso de encontrar los datos cualitativos de frente al proceso, como velocidad de ejecución, pesos, tamaños, diámetros, defectos encontrados en un tiempo determinado; utilizando principalmente instrumentos o herramientas de medición. b)! La medición indirecta: se refiere a aspectos cualitativos que se pueden encontrar en el proceso o producto, como calidad, complejidad, eficiencia, funcionalidad, etc.

Los objetivos son los fines hacia los cuales se dirige el esfuerzo y trabajo de la organización, es a donde se quiere llegar específicamente que contribuirá a la realización de la visión. Los factores de éxito y los factores críticos de éxito son los medios por los cuales se logrará llegar a los objetivos (22); lo que diferenciará a éstos será qué tan determinante será un factor de éxito para el cumplimiento del objetivo o qué tan especial será el cuidado que requiere para que sea satisfactorio el objetivo. Si es esencial y determinante será un factor crítico de éxito, si no únicamente será un factor de éxito.

A su vez, se pueden definir cuatro tipos de métricas: a)! Indicadores de resultados críticos pasados (IRC): son los datos históricos sobre el proceso o producto. Son ideales para analizar el progreso. b)! Indicadores de actuación (IP): donde se indica al personal qué es lo que hay que hacer. c)! Indicadores de resultados (IR): que permiten controlar el desempeño actual sobre lo que se ha hecho. d)! Indicadores claves de desempeño (KPI): en los cuales se encuentra qué se debe hacer para aumentar el desempeño actual que se tiene.

Derechos reservados COPIMERA 2015

7+ Herramientas+ de+ gestión+ de+ procesos+ de+negocio+ En el anexo A se presenta la Tabla.1 con algunas de las herramientas comerciales más relevantes que se encuentran disponibles para la definición de procesos de negocio en algún lenguaje gráfico y que permiten la generación de código de orquestación de web services.

168


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Agradecimientos+

9. Garimela, Kiran, Lees, Michael y Williams, Bruce. Introducción al BPM. México : Software AG, 2008. ISBN: 9780470373590.

A Dios y a mi Familia, especialmente a Heidy, Santiago, Roxana, Martha y Julio.

10. Ruiz, Francisco. Tecnología para la Gestión de Procesos de Negocio. Grupo Alarcos - Universidad de Castilla, La Mancha. [En línea] 20 de Noviembre de 2006. [Citado el: 3 de Noviembre de 2012.] http://www.google.hn/url?sa=t&rct=j&q=&esrc=s&source=we b&cd=1&ved=0CCAQFjAA&url=http%3A%2F%2Fproyectog rado2010.googlecode.com%2Ffiles%2Ftecnologias_bpm.pdf& ei=jO6YUJ7mGIim9AS8q4GICA&usg=AFQjCNHaRpIly03SKa0mS7X4qX5MyvBNg.

Referencia+ 1. Centro de Encuentro BPM , S.L. ¿Qué es BMP? Club del BPM. [En línea] 3 de Noviembre de 2009. [Citado el: 29 de Noviembre de 2012.] http://www.clubbpm.com/ApuntesBMP/ApuntesBMP01.pdf. 2. Laengle, Sigifredo. Business Process Management (BPM), Desafía de los Procesos de Negocios y Las Tecnologías de la Información. Sigifredo Laengle. [En línea] 11 de Mayo de 2007. [Citado el: 4 de Noviembre de 2012.] Facultad de Economía y Negocios, Universidad de Chile. http://sigifredo.laengle.googlepages.com/20070512-LecturaBPM.pdf.

11. Manual de Calidad. Fundación Universitaria de Las Palmas. Gran Canaria : Universidad de Las Palmas, 2003. España.

3. Havey, Michael. Essential Business Process Modeling. Primera Edición. California : O'Reilly Media, 2005, Cap. 1, págs. 3-6.

13. Elaboración de Mapas de Procesos. Instituto Tecnológico Superior de Calkiní en el Estado de Campeche (ITESCAM). [En línea] 6 de Mayo de 2010. [Citado el: 30 de Octubre de 2012.] http://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r60 249.PDF.

12. Proceso de Mejora Continua. Federación Española de Municipios y Provincias (FEMP). Madrid : s.n., 2003. España.

4. Gestión de procesos de negocio BPM (Business Process Management), TICs y crecimiento empresarial. ¿Qué es BPM y cómo se articula con el crecimiento empresarial? Díaz Piraquive, Floy Nancy. 15, Rosario, Colombia : s.n., JulioDiciembre de 2008, Universidad y Empresa, Vol. 7, págs. 151176. Universidad del Rosario, Colombia. ISSN: 0124-4639.

14. Alvarez, P, Foti, P y Scalone, M. Generador de Aplicaciones Orquestadoras. Estado del Arte. Montevideo, Uruguay : s.n., 04 de Septiembre de 2009. Tesis, Facultada de Ingeniería, Universidad de la República.

5. Smith, Howard y Fingar, Peter. Business Process Management-The third wave. s.l. : Meghan-Kiffer Press, 2002. ISBN: 0929652339.

15. Hollingsworth, David. The Workflow Reference Model. Workflow Managament Coalition. [En línea] Enero de 1995. [Citado el: 1 de Noviembre de 2012.] http://www.wfmc.org/standards/model.htm.

6. Bazán, Patricia, Giandini, Roxana y Diaz, F. Javier. Tecnologías para implementar un marco integrador de SOA y BPM. Laboratorio de Investigación en Nuevas Tecnologías Informáticas, LINTI. [En línea] Mayo de 2010. [Citado el: 29 de Octubre de 2012.] Facultad de Informática, Universidad Nacional de la Plata, Argentina. http://www.linti.unlp.edu.ar/uploads/docs/tecnologias_para_im plementar_un_marco_integrador_de_soa_y_bpm.pdf.

16. Indicadores de desempeño: naturaleza, utilidad y construcción. Stubbs, Edgardo Alberto. 1, Brasilia : s.n., Enero -Abril de 2004, The Scientific Electronic Library Online, Brazil (Scielo-Brazil), Vol. 33, págs. 149-154. 17. Valdez Hernández, Luis Alfredo. Planeación estratégica con enfoque sistemático. México : Fondo Editorial FCA, 2005. ISBN: 970-32-2733-3.

7. Davenport, Thomas H. Process Innovation: Reengineering Work Through Information Technology. Boston, Massachusetts, EUA : Ernst & Young, 1993. ISBN: 0-87584366-2.

18. Farris, P W, y otros. Marketing Metrics: The definitive Guide To measuring marketing performance. Segunda Edición. s.l. : Wharton School Publishing,, 2010. ISBN-10: 0137058292.

8. Pérez Fernádez, José António. ¿Qué es un Proceso?, Límites, Elementos y Factores de un Proceso. Gestión por Procesos. Madrid : s.n., 2010, Cap. 2, pág. 51.

Derechos reservados COPIMERA 2015

19. Huertas Lima, Dany Javier. Implementación de un Programa de Factores Críticos de Éxito (CFS) e Indicadores Clave de Desempeño (KPI) para Evaluar la Eficiencia en una Planta de Producción de Tortas de Carne. Guatemala,

169


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Guatemala : s.n., 22 de Junio de 2011. Tesis, Facultada de Ingeniería, Universidad de San Carlos. 20. Palza, Edgardo, y otros. Implementación de KPI bajo tecnologías BI Open Source para el área académica de la Universidad Peruana Unión. Repositorio Digital Papiros. [En línea] 24 de Noviembre de 2011. [Citado el: 5 de Noviembre de 2012.] Primer Congreso Nacional de Investigación, Universidad Peruana Unión. http://papiros.upeu.edu.pe/bitstream/handle/123456789/153/CI n06Articulo.PDF?sequence=1. 21. Performance measurement system for business processes. Alfaro, J., Ortíz, A. y Poler, R. 8, s.l. : Taylor & Francis Group, 2007, Journal of the Production Planning & Control, Vol. 18, págs. 641-654. 22. Los factores críticos para el éxito; Un nuevo sistema de información de gestión. Rockart, John F. 6, s.l. : Harvard Deusto business review, Abril-Junio de 1981, págs. 76-96. ISSN: 0210-900X. 23. Sierra Rodríguez, Pablo. La Tecnología para la Gestión de Procesos, El B.P.M. PFS GRUPO. [En línea] [Citado el: 30 de Noviembre de 2012.] http://www.pfsgrupo.com/articulos.php?article=54.

Derechos reservados COPIMERA 2015

170


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

ANEXO+A+ Tabla!1.!Algunas!herramientas!comerciales!existentes!para!la!Gestión!de!Procesos!de!Negocio.! !!!!!!!!!!!!!(Elaboración!propia)!

Núm.

Compañía

1

Bizagi

2

3 4 5 6

Microsoft

Pectra Technology IBM

7

Producto

Bizagi Process Modeler y BPM Suite Process Modeler for Microsoft Visio

Microsoft BizTalk Server 2004 Pectra BPM Suite

Business Process Manager BPM for ICM

http://www.bizagi.com/ http://www.microsoft.com/ http://www.pectra.com/

http://www.ibm.com/us/en/

WebSphere

8 ORACLE 9

Oracle Business Process Management Suite Bea WebLogic Platform ISV Edition!

10

Estrasol

BPM Karomi

11

Advance Consulting Gevenue

Bonita BPM Open Solution

12

Dirección Web

Gevenue Suit BPM +

Derechos reservados COPIMERA 2015

171

http://www.oracle.com/index.ht ml http://www.estrasol.com.mx/bp m.php

http://www.actechsolutions.com/ http://www.gevenue.com/


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ LA+CALIDAD+COMO+POLÍTICA+PÚBLICA.+LOS+SISTEMAS+NACIONALES+DE+ CALIDAD+EN+LATINOAMÉRICA.+ + Prof. Ing. Marcelo A. Tavella1, Prof. Ing. Mario V. Bartlomeo1 1

Universidad Tecnólogíca Nacional, Facultad de Regional Cordoba, Cordoba, Argentina

+ !

!

Resumen prevenir barreras comerciales y facilitar la cooperación técnica internacional. Para cumplir tal objetivo, la IC debe asegurar el acceso a normas y reglamentos técnicos, garantizar mediciones confiables, y establecer un sistema que permita la acreditación de sus entidades de ensayos y de certificación, de tal forma que los resultados de esas entidades sean aceptados nacional e internacionalmente. De esta manera, la IC puede ser considerada como un elemento de apoyo para asegurar la calidad de los productos y los servicios al consumidor y el desarrollo del sector productor de bienes y servicios de una nación. Los pilares constitutivos de la IC son la normalización, la metrología, la acreditación y la evaluación de conformidad, respaldados por recursos humanos capacitados y especializados para cumplir adecuadamente con sus competencias. La Figura Nº1 esquematiza a la IC como un edificio sustentado por estos cuatro pilares o columnas con una base o cimiento en la educación y la capacitación. Esta imagen nos da la idea de una estructura que se mantiene firme si sus cuatro columnas así lo están y si su base es sólida. Por otra parte, el término infraestructura subraya que el adecuado funcionamiento de una sociedad no solamente precisa de una infraestructura vial, de producción y distribución de energía, de servicios básicos en educación y salud, sino también de una infraestructura que asegure la calidad de los productos y servicios. Cabe destacar que los elementos que componen la IC proveen mecanismos y servicios de carácter transversal, es decir que no sirven exclusivamente a un solo sector. En este sentido es que la IC no solo aporta a la mejora de la competitividad del sector productor de bienes y servicios, sino que también constituye un elemento de apoyo para la implementación de políticas públicas en el sector salud, medio ambiente y protección del consumidor, entre otros.

La Infraestructura técnica de Calidad de un país (IC) puede ser definida como la totalidad de la red institucional y el marco legal que la regula, responsable de formular, editar e implementar las normas y dar evidencia de su cumplimiento, y su objetivo es mejorar la adecuación de los productos, procesos y sistemas de gestión, prevenir barreras comerciales y facilitar la cooperación técnica internacional. Los pilares constitutivos de la IC son la normalización, la metrología, la acreditación y la evaluación de conformidad, respaldados por recursos humanos capacitados y especializados para cumplir adecuadamente con sus competencias. Todos estos componentes, cuando se interrelacionan armónicamente entre sí, se potencian y regulan mutuamente, estableciendo una red cuyo funcionamiento sistémico permite denominarla como un Sistema Nacional de Calidad (SNC). El presente trabajo realiza un análisis exploratorio y descriptivo de los SNC latinoamericanos, evaluando el impacto que tiene la consolidación e internacionalización de estos sistemas en el desarrollo sustentable de nuestros países, y destacando el papel que cumplen los ingenieros aportando la mirada tecnológica en la definición e implementación de las políticas públicas.

Introducción+ La Infraestructura técnica de Calidad de un país (IC) puede ser definida como la totalidad de la red institucional (ya sean actores públicos o privados) y el marco legal que la regula, responsable de formular, editar e implementar las normas y dar evidencia de su cumplimiento, y su objetivo es mejorar la adecuación de los productos, procesos y sistemas de gestión,

Derechos reservados COPIMERA 2015

172


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

documentación formalizada que contiene los requerimientos con que un producto, servicio, proceso o sistema de gestión, debe estar conforme. De acuerdo con la International Organization for Standardization (ISO)1, la normalización es la actividad que tiene por objeto establecer, ante problemas reales o potenciales, disposiciones destinadas a usos comunes y repetidos, con el fin de obtener un nivel de ordenamiento óptimo en un contexto dado, que puede ser tecnológico, político o económico. La norma, que surge como resultado de la actividad de normalización, es un documento que establece las condiciones mínimas que debe reunir un producto o servicio para que sirva al uso al que está destinado, o que debe cumplir un sistema de gestión para obtener un nivel de ordenamiento adecuado. La norma es un documento público y, por lo tanto, puede ser consultada, reverenciada y usada por quienes lo deseen. Se pueden diferenciar los siguientes tipos de normas: Normas de productos o procesos: Especifican las características de bienes, procesos o servicios. Normas de sistemas de gestión: Indican los requisitos que se deben cumplir para gestionar de manera confiable una organización. Normas obligatorias o reglamentos técnicos: De cumplimiento obligatorio, reguladas por ley o instrumento jurídico, generalmente relacionadas con la seguridad y la salud de la población. Normas voluntarias: De cumplimiento voluntario, pueden transformarse en un requerimiento obligatorio entre partes si se acuerda su conformidad. Facilitan los modelos asociativos entre los productores y el eslabonamiento de las cadenas de valor pues proveen de un lenguaje técnico común. Los beneficios de la normalización son múltiples, y apuntan básicamente a crear criterios mínimos operativos para un producto, proceso o servicio. La normalización promueve la creación de un idioma técnico común a todas las organizaciones y es una contribución importante para la libre circulación de los productos industriales. Además, tanto en el mercado local como a nivel global, fomenta la competitividad empresarial, principalmente en el ámbito de las nuevas tecnologías. La participación de los distintos sectores en las actividades de normalización contribuye con la industria, con las distintas actividades y por ende con el desarrollo de nuestros países. La industria para desarrollarse y crecer debe apoyarse en la normalización en todos sus ámbitos, independientemente de lo económico-financiero, dado que cuando un determinado sector industrial no dispone de normas nacionales, dependerá de la tecnología de los países que si las tienen, debiendo adecuarse a sus requerimientos técnico-comerciales.

!

! Figura!Nº1:!Infraestructura!Técnica!de!Calidad!de!un!país!(IC).! Fuente:!Tavella,!Marcelo!(2009)!

+

Nomenclatura+ IC: Infraestructura técnica de Calidad SNC: Sistema Nacional de Calidad ISO: Organization for Standardization OMC: Organización Mundial del Comercio BIPM: Bureau Internacional de Pesas y Medidas AMR: Acuerdos de Reconocimiento Mutuos IAAC: Cooperación Interamericana de Acreditación ILAC: Cooperación Internacional de Acreditación de Laboratorios IAF: Foro Internacional de Acreditación OIML: Organización Internacional de Metrología Legal COPANT: Comisión Panamericana de Normas Técnicas IRAM: Instituto Argentino de Normalización y Certificación. INTI: Instituto Argentino de Tecnología Industrial OAA: Organismo Argentino de Acreditación MERCOSUR: Mercado Común del Sur SIECA: Secretaría de Integración Económica Centroamericana CAN: Comunidad Andina

Cuerpo+del+documento+

Por otra parte, las normas son un instrumento de transferencia de tecnología, mejorando y clarificando el

Como se indicó en la Introducción los pilares de la IC son: 1.- Normalización: Es sinónimo de estandarización y corresponde a la discusión, confección, validación y aprobación de la Derechos reservados COPIMERA 2015

1 La gran mayoría de los estados e institutos nacionales de normalización de los países latinoamericanos y del caribe son miembros de ISO, en alguna de sus tres categorías, miembros plenos, corresponsales o suscriptores

173


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

comercio internacional. En este sentido, es importante señalar que en general nuestros países han adherido al código de buena conducta para la elaboración, adopción y aplicación de normas de la Organización Mundial del Comercio (OMC), para tratar de evitar las barreras técnicas al comercio que tanto daño hacen, especialmente a las economías emergentes.

Esta organización internacional intergubernamental provee a sus miembros, guías y procedimientos para el establecimiento de requisitos nacionales y regionales en la fabricación y uso de instrumentos de medida. 3.- Acreditación: Es la actividad que provee una confirmación independiente sobre la competencia de un individuo o una organización que suministra servicios de evaluación de conformidad. Es imprescindible para que el SNC de un país sea reconocido internacionalmente que su organismo nacional de acreditación cuente con Acuerdos de Reconocimiento Mutuos (AMR) con organismos regionales e internacionales tales como la Cooperación Interamericana de Acreditación (IAAC), la Cooperación Internacional de Acreditación de Laboratorios (ILAC) y el Foro Internacional de Acreditación (IAF).

A nivel regional la Comisión Panamericana de Normas Técnicas (COPANT) agrupa a los organismos nacionales de normalización de las Américas, actuando como referente y promotor del desarrollo de las normas técnicas de sus miembros. 2.- Metrología: Se trata de la tecnología y ciencia de la medición que, normalmente, se subdivide en: •! •! •!

4.- Evaluación de conformidad: Corresponde al proceso de verificación de la conformidad a las normas y es llevado a cabo por: Laboratorios de ensayo: Determinan las características del producto en comparación con los requerimientos de la norma. Emiten informes de ensayo. Laboratorios de calibración: Prestan el servicio de calibrar los instrumentos de medición asegurando su trazabilidad a los patrones nacionales. Organismos de inspección: Empresas u organismos públicos que prestan servicios de inspección. Deben contar con personal calificado que aplique técnicas de muestreo apropiadas y procedimientos de inspección válidos. Entes certificantes: Entidades que realizan la verificación formal de que un producto, un servicio o un sistema de gestión de una organización, cumple con los requerimientos definidos en una norma. Emiten certificados de conformidad. Organismos de certificación de personas: Organismos que certifican la competencia técnica de individuos. Todos estos organismos para poder actuar en un país y emitir sus respectivos informes o certificados, deben encontrarse acreditados por el organismo nacional de acreditación de ese país.

Metrología científica: Describe y difunde las unidades de medición. Metrología industrial: Garantiza el funcionamiento adecuado de los instrumentos de medición. Metrología legal: Asegura la transparencia de las transacciones comerciales.

Los países deben asegurar la confiabilidad y seguridad de las mediciones, para lo cual se torna indispensable conformar una red metrológica nacional con reconocimiento internacional. A tal fin, la calibración de los instrumentos de medición debe realizarse en función de patrones que sean trazables a patrones nacionales e internacionales, a través de una cadena ininterrumpida de comparaciones. Para ello, existen organismos encargados de custodiar patrones de distintas características de medición. El organismo máximo en la metrología científica e industrial es el Bureau Internacional de Pesas y Medidas (BIPM), quien posee el custodio de los patrones internacionales. A nivel de cada país, le siguen los laboratorios custodios de patrones nacionales, quienes tienen a cargo los patrones de medida que están calibrados respecto a los patrones del BIMP. Algunos de los organismos nacionales más destacados son; PTB (Alemania), NIST (Estados Unidos), NPL (Inglaterra), NMI (Holanda), BNM (Francia), NRC (Canadá), NRLM (Japón) y en la región, CENAM (México), INMETRO (Brasil) e INTI (Argentina). Los laboratorios custodios de patrones nacionales tienen como misión la calibración de los patrones de los laboratorios de calibración de las redes metrológicas nacionales. Finalmente, un laboratorio de calibración está capacitado y autorizado para ejecutar la calibración de instrumentos de medición de la industria, cuando está acreditado ante el organismo de acreditación de su respectivo país. El organismo internacional encargado de promover una armonización global de los procedimientos de metrología legal es la Organización Internacional de Metrología Legal (OIML). Derechos reservados COPIMERA 2015

Los cuatro elementos descriptos precedentemente cuando se interrelacionan armónicamente entre sí, se potencian y regulan mutuamente, constituyendo una red cuyo funcionamiento sistémico permite denominarla como un Sistema Nacional de Calidad (SNC). El elemento de análisis fundamental son las normas, que contienen los requerimientos para un producto o el servicio. Por ejemplo, una vez fabricado un producto, un cuerpo de inspectores tomará una muestra representativa para ser evaluada por un laboratorio de ensayos, que emitirá un informe; a partir del cual, un ente certificante emitirá un certificado constatando la conformidad con la norma. Con ayuda de la metrología, el laboratorio de ensayos puede asegurar que sus equipamientos de medición se encuentran calibrados. La acreditación será la responsable de dar evidencia de la 174


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Conclusiones+

competencia técnica de todos los actores intervinientes, organismo de inspección, laboratorio de ensayo, laboratorio de calibración y ente certificante. A modo de ejemplo y resumen se presenta la situación actual de la IC en Argentina como Figura Nº 2 donde, a la par de cada uno de los pilares se le incorporan los organismos competentes de acuerdo al marco jurídico vigente. El organismo nacional de Normalización es el Instituto Argentino de Normalización y Certificación (IRAM), el instituto metrológico el Instituto Argentino de Tecnología Industrial (INTI) y el organismo de acreditación el Organismo Argentino de Acreditación (OAA). Con flechas de colores, se indican las interrelaciones necesarias para su funcionamiento sistémico a efectos de constituirse en un SNC. Esta figura podría confeccionarse para la IC de cualquier país latinoamericano reemplazando al lado de cada columna las siglas del organismo nacional respectivo. Como se expresó precedentemente para que la IC de un país pueda funcionar armónica y efectivamente y se transforme en un verdadero SNC, debe gestionarse de manera sistémica, desde una mirada holística e integradora.

! !!!!!!!Figura!Nº2:!Actual!Sistema!Nacional!!de!Calidad!(SNC)!de!Argentina.! Fuente:!Elaboración!propia

Es indudable que un SNC adecuado y moderno es un elemento que juega un papel cada vez más relevante en las posibilidades de desarrollo productivo de un país, así como en el comercio nacional e internacional; pues establece las prácticas y estándares comunes para asegurar a los consumidores la calidad de bienes y servicios, aumenta la competitividad del sector productor articulando las cadenas de valor y permite la integración de los países en una base igualitaria en el sistema del comercio global. Esto último porque, tanto la forma en que se producen los bienes como la demostración confiable y reconocible de su conformidad, determina las posibilidades de entrar en muchos mercados internacionales. La analogía que realizamos entre la IC y un edificio en las Figuras Nº 1 y Nº 2, nos hace comprender que es necesario fortalecer los cuatro pilares y la base para que su estructura se mantenga firme. No obstante, esto no es suficiente para que pueda funcionar sistémicamente, pues además debe asegurarse una articulación armoniosa y efectiva entre sus elementos constituyentes y consolidar en general, al SNC como un todo. Además del fortalecimiento de los cuatro pilares enunciados, los sistemas educativos formales e informales deben proveer los recursos humanos capacitados con un alto grado de especialización, que entiendan la importancia estratégica que representa el SNC en el desarrollo sustentable de nuestros países. Todos los estándares internacionales de los sistemas de gestión (serie ISO 9001, ISO 14001, la serie ISO 17000, OHSAS 18001, etc.) indican que los recursos humanos que realicen actividades que afecten a la conformidad con los requisitos de los productos, procesos y/o sistemas de gestión, deben ser competentes con base en la educación, formación, habilidades y experiencia apropiadas. Por tal razón, es responsabilidad del sistema educativo en general, y en particular de la educación técnica y universitaria, aportar los recursos humanos que necesitan los elementos constitutivos de la IC, con la formación y experticia suficiente para asegurar su correcto desempeño. Esta última afirmación implica un compromiso, no solo para las universidades de Latinoamérica, sino también para las asociaciones profesionales de ingenieros, de manera de constituirse en un sólido cimiento para los SNC. Un SNC establecido y reconocido internacionalmente representa el corazón de la Política de la Calidad como política pública de un país, y contribuye al cumplimiento de los aspectos técnicos y comerciales contenidos en los acuerdos regionales e internacionales. En tal aspecto, los procesos de integración económica regional vienen actuando como impulsores del afianzamiento de los SNC en Latinoamérica, como puede observarse en las acciones y programas promovidos, entre otros, desde el Mercado Común del Sur (MERCOSUR), la Secretaría de

!

+ A nivel internacional, existe un conjunto de organizaciones que tienen como miembros a las organizaciones nacionales autorizadas (tales como ISO, COPANT, OMC, BIPM, OIML, IAAC, ILAC, IAF). Estos foros se constituyen como espacios a través de los cuales se establecen condiciones y criterios recomendados para el fortalecimiento de los diferentes ámbitos que conforman la IC; contribuyen además, generando referencias que son mayormente adoptadas y aceptadas por los países, de manera que los SNC que las atienden consolidan un perfil de transparencia y reconocimiento internacional. De esta manera es posible fomentar el entendimiento común y el reconocimiento mutuo de los SNC en todo el mundo. Derechos reservados COPIMERA 2015

175


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Integración Económica Centroamericana (SIECA) y la Comunidad Andina (CAN). Si tal como lo expresa Eugenio Lahera, “una política pública de excelencia corresponde a aquellos cursos de acción y flujos de información relacionados con un objetivo político definido en forma democrática; los que son desarrollados por el sector público y, frecuentemente, con la participación de la comunidad y el sector privado”, el rol de los ingenieros y de sus asociaciones profesionales, aportando la mirada tecnológica en la definición e implementación de la política pública de la Calidad de nuestros países, es fundamental para conseguir la consolidación de los SNC Latinoamericanos.

7.! Gutiérrez Pulido, Humberto. Calidad Total y Productividad. Segunda Edición. Mc Graw Hill Interamericana S.A. México. 2005. 8.! IAAC. Introducción a IAAC. Fecha 03/08/2015. Disponible http://www.iaac.org.mx/Spanish/Intro.php.

consulta: en:

9.! ISO. Plan de Acción de la ISO para los países en desarrollo 2011-2015. Ginebra, Suiza. 2011. 10.! Lahera, Eugenio. Política y políticas públicas. Serie Políticas Sociales Nº 95. División de Desarrollo Social. Comisión Económica para América Latina y el Caribe (CEPAL). Naciones Unidas. Santiago de Chile. 2004.

+

Agradecimientos+

11.! Sanetra, Clemens y Marbán, Rocío. Enfrentando el desafío global de la calidad: Una Infraestructura Nacional de la Calidad. PTB OEA SIM. 2007. Fecha de Consulta: 23/07/2015. Disponible en: https://www.ptb.de/cms/fileadmin/internet/fachabteilungen /abteilung_q/q.5_technische_zusammenarbeit/q5_publikati onen/102_National_QI/PTB_Q5_National_QI_SP.pdf

Al maestro Prof. Ing. Tristán Alberto Malbran, quien fuera Director del Registro de Calidad Certificada de la Provincia de Córdoba - Argentina, Presidente de la Comisión Federal de la Calidad de Argentina, Consejero titular del Subgrupo 3 Normas Técnicas del MERCOSUR, Director de la Maestría en Ingeniería en Calidad de la Universidad Tecnológica Nacional Facultad Regional Córdoba, Profesor Consulto de la Universidad Nacional de Córdoba, y un destacado promotor y gestor del desarrollo del SNC argentino.

12.! Tavella, Marcelo. Control estadístico de procesos. Apuntes de cátedra. Departamento de Ingeniería Química. Universidad Tecnológica Nacional. Córdoba. Argentina. 2009.

+

13.! Tavella, Marcelo y Gasparini, José. Herramientas para la mejora de los procesos. Partes I y II. Apuntes de cátedra. Maestría en Ingeniería en Calidad. Universidad Tecnológica Nacional. Córdoba. Argentina. 2011.

Referencia+ 1.! Alcalde San Miguel, Pablo. Calidad. Ediciones Paraninfo S.A. Madrid. España. 2009 2.! Aldana de Vega, Luz Ángela et al. Administración por calidad. Alfa Omega Colombiana SA. Bogotá. Colombia. 2011. 3.! Álvarez García, Vicente. La normalización industrial. Universidad de Valencia. Valencia. España. 1999. 4.! Berlinches Cerezo, Andrés. Calidad. Sexta Edición. Thomson Editores S.A./Paraninfo S.A. Madrid. España. 2002. 5.! Cuatrecasas Rabos, Lluís. Gestión Integral de la Calidad: Implantación, Control y Certificación. Profit Editorial. Barcelona. España. 2010. 6.! Göthner, Karl, Christian y Rovira, Sebastián. Impacto de la Infraestructura de la Calidad en América Latina: instituciones, prácticas y desafíos para las políticas públicas. CEPAL GIZ PTB. Naciones Unidas. Santiago de Chile. 2011.

Derechos reservados COPIMERA 2015

de

176


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

177!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! !

Energía y Ambiente Articulos: 1.! 2.! 3.! 4.! 5.! 6.!

Simulación multi-escala del viento sobre terreno complejo para la evaluación del recurso eólico. Mejora la eficiencia de parques eólicos mediante el análisis de la información de los sistemas Scada. Potencial de biogas de los desechos agro-industriales en Honduras. Perspectiva de la energía fotovoltaica en guantanamo hacia el 2030. La sostenibilidad del biogás y el rol de la mujer en el contexto del MUB. Desarrollo de un instrumento de relevamiento para determinar la situación energética inicial de una organización con vistas a implementar la norma ISO 50001 de gestión y eficiencia energética. 7.! “Una mirada a las crisis globales y al desarrollo sostenible: retos y desafíos del cambio”. 8.! Proyecto para un sistema de bombeo usando energía solar. 9.! Avances de la red tecnológica nacional sobre eficiencia energética. 10.!Penetración de fuentes renovables en la generación distribuida utilizando redes eléctricas inteligentes. 11.!La eficiencia energética en edificios altos y los retos para el desarrollo sustentable. 12.!Creación de la comisión técnica de producciones más limpias de la construcción en la provincia de Cienfuegos. 13.!Estudio para la introducción de prácticas de PML limpia en la Unidad Empresarial de Base Equipos y Talleres. 14.!Fabricación de un generador universal para una turbina eólica, utilizando análisis de elementos finitos FEA y maquinado CNC. 15.!Eficiencia del carbón activado obtenido experimentalmente a partir de residuos agrícolas del Alto Mayo. ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

178!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

Derechos reservados COPIMERA 2015

!

179!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

SIMULACIÓN+MULTI#ESCALA+DEL+VIENTO+SOBRE+TERRENO+COMPLEJO+PARA+ LA+EVALUACIÓN+DEL+RECURSO+EÓLICO! A. Flores Maradiaga a,*, R. Benoit b, C. Masson b a

Departamento de Ingeniería Mecánica, Universidad Técnica Federico Santa María, Av. España 1680, Casilla 110V, Valparaíso, Chile b Département de Génie Mécanique, École de Technologie Supérieure, Université du Québec, rue Notre-Dame 1100, Montréal, Québec, Canada – H3C 1K3 *E-mail Autor: alex.floresm@usm.cl; Fono Autor: +56 32 2652970; +56 9 6682-6378

Resumen+

extiende desde pocos metros hasta varios kilómetros. Ésto requiere un mayor esfuerzo en el desarrollo de métodos computacionales de predicción numéricamente precisos y estables. Particularmente, el flujo del viento sobre terreno complejo genera interacciones no-lineales entre la CLA turbulenta y la superficie de la Tierra que agregan complejidad a la solución de los sistemas de ecuaciones y revelan ciertas limitaciones de los modelos numéricos convencionales. Los errores en los patrones del viento resultantes de estas simulaciones multi-escala afectan las evaluaciones del recurso eólico y la planificación para los parques eólicos.

Debido a la variabilidad natural del viento y su fuerte dependencia en las condiciones atmosféricas locales, es necesario realizar evaluaciones exhaustivas del recurso eólico para determinar cuanta energía se puede generar en un sitio determinado [1]. Habitualmente, se requiere utilizar modelos avanzados con capacidad de simulación multi-escala de alta resolución para los proyectos eólicos onshore instalados sobre terreno complejo. Para tal propósito se adaptó y validó un método mejorado de simulación a gran escala (large-eddy simulation, LES) en el modelo atmosférico no-hidrostático MC2 de Environment Canada [2,3]. Dicha implementación ha sido validada modelando numéricamente el viento estratificado para casos típicos sobre terreno plano y montañoso, a partir de los cuales se ha comprobado que el nuevo método multi-escala entrega muy buenos resultados al compararlos con otros modelos que cuentan con métodos computacionalmente intensivos [4,5]. Este modelo avanzado ahora cuenta con la capacidad de resolver estructuras multi-escala del viento utilizando nuevos esquemas de inicialización y discretización que permiten una modelación numérica precisa y estable en presencia de topografía de gran impacto [6,7]. El modelo resultante puede ser utilizado para la evaluación del potencial eólico a nivel local, nacional y regional asegurando la reducción del error numérico por sobre-estimación del viento en sitios montañosos, un problema común de este tipo de herramientas computacionales. Dichos avances científicos en modelación numérica del viento aportan al estudio detallado de la instalación de parques eólicos en acantilados y cordilleras donde se espera una aceleración natural del viento.

La comparación entre los resultados de las simulaciones computacionales y los experimentos realizados en túneles de viento y en terreno han demostrado que la predicción de la estructura promedio del viento sobre la topografía terrestre es independiente del modelo empleado y se logra con cierto éxito [8-13]. Sin embargo, dichas comparaciones también muestran que los resultados de los modelos de turbulencia se alteran en gran medida por las diferentes características del método seleccionado, así como por la anisotropía física de las estructuras del viento cerca de la superficie. Sobre todo se destacan los errores numéricos que surgen de los fuertes desequilibrios hidrostáticos debido a las deformaciones de la malla computacional en torno a las pendientes del terreno escarpado. La modelación precisa de la separación y recirculación de la CLA entre las montañas, acantilados y valles es actualmente uno de los principales retos en la investigación de la turbulencia atmosférica [14, 15]. Cuando el viento se modela en presencia de topografía compleja, es necesario seleccionar cuidadosamente los métodos numéricos para reproducir la separación del flujo, originada por los fuertes gradientes de velocidad y temperatura, así como la turbulencia cerca de la superficie. Estos fenómenos físicos a su vez interactúan con los errores computacionales de cálculo que degradan la precisión y causan inestabilidad numérica en el modelo [6, 16]. En [17] se revisaron las recientes mejoras implementadas en diversos modelos numéricos del viento y notaron que algunos de ellos generan errores significativos al simular el viento sobre terrenos con pendientes mayores de 0,2 ( ϑ = 11,3° ). Por tanto, se justifica el uso de modelos de

Keywords: Simulación multi-escala, viento, terreno complejo, modelo atmosférico, proyectos eólicos

1. Introducción+ La dinámica de la capa límite atmosférica (CLA) se rige por fenómenos físicos complejos cuya escala de influencia se Derechos reservados COPIMERA 2015

180


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

turbulencia más sofisticados y correctamente validados, siendo un factor preponderante en el contexto de terreno complejo.

compresible y no-hidrostático del viento sobre orografía con pendientes pronunciadas. Para probar estas mejoras se analiza la adaptación del método LES para terreno complejo en el modelo atmosférico mesoescala MC2, incluyendo el esquema clásico de Smagorinsky para escalas de sub-filtro (SFS) basado en la parametrización de viscosidad turbulenta (eddy-vicosity). Una descripción completa de la última versión disponible de MC2 (es decir, v4.9.8) se puede encontrar en [2], y los detalles de la primera implementación y validación sobre terreno plano del modelo MC2-LES v4.9.8 son presentados por [3, 27]. Además, este modelo se ha actualizado con el nuevo esquema semi-implícito (N-SI) de discretización y el filtro de frecuencia Robert-Asselin-Williams (RAW) descrito por [6, 28]. En lo sucesivo, esta versión mejorada se conoce como el modelo MC2-LES v4.9.9.

Coincidentemente, con el fin de aprovechar y extraer la máxima cantidad de energía del viento, los parques eólicos suelen ser instalados a la orilla de acantilados escarpados o en la cima de cadenas montañosas. En esos sitios la intermitencia e intensidad turbulenta del viento es mayor debido a la separación de la CLA lo que, a su vez, aumenta los esfuerzos de corte y la mezcla turbulenta en la capa de superficie. En esas condiciones, las alturas típicas de los aerogeneradores de envergadura encajan en la capa viscosa de superficie (10 a 20% de la CLA) y se ven afectados por los esfuerzos cortantes dominantes. La correcta ubicación de los aerogeneradores requiere entonces un método de predicción del viento más preciso, enmarcándose en los estándares industriales para el diseño de componentes mecánicos y estructurales que resistan la fatiga del material debido a las cargas dinámicas del viento turbulento [13].

Las ecuaciones básicas y las últimas mejoras se describen brevemente en la sección 2, que proporciona una visión general de la adaptación de los términos métricos adicionales en el cálculo del tensor de deformaciones para conformar el algoritmo LES a las mallas sobre terreno complejo. En la sección 3 se presentan los resultados del caso neutro sobre terreno plano para definir las constantes del esquema SFS, comprobando la sensibilidad del tamaño de malla y de los esquemas de discretización SI en el contexto del modelo MC2LES. Asimismo, se discuten los resultados de las pruebas canónicas sobre una montaña ideal Gaussiana, comparándolos con los resultados experimentales del caso RUSHIL3. Por último, en la sección 5 se presentan las conclusiones y se discuten ciertas recomendaciones para el trabajo futuro, proporcionando valoraciones para mejorar el método de simulación multi-escala MC2-LES.

Este es un tema de gran interés para la ingeniería de sistemas eólicos, ya que los modelos numéricos deben ser capaces de resolver la turbulencia de microescala cerca de la superficie sin necesidad de mallas excesivamente refinadas en los sitios de interés. Por tal motivo, en las últimas décadas las técnicas de modelación numérica como la simulación “Reynolds-Averaged Navier-Stokes” (RANS) y la simulación de grandes escalas “large-eddy” (LES) han sentado las bases para el modelado detallado del viento. Sin embargo, estas técnicas están limitadas por los supuestos de equilibrio local y las actuales capacidades de computo en paralelo [17, 18], lo cual restringe su aprovechamiento en modelos atmosféricos de mesoescala y microescala para reproducir las circulaciones estratificadas sobre pendientes topográficas pronunciadas sin generar inestabilidad numérica [3, 14, 15, 19-22].

2. Ecuaciones+ fundamentales+ y+ mejoras+

Las evidentes ventajas y alta fidelidad de la simulación multi-escala han llevado este método a convertirse en una de las tendencias dominantes del modelado del viento, con novedades interesantes como la simulación de la dinámica aero-estructural de turbinas eólicas [23]. Aunque los modelos multi-escala permiten una mayor flexibilidad en la elección de los esquemas numéricos y se amplía la gama de posibles escalas a resolver, se han reportado errores numéricos del orden de 20% a 30% debido a las limitaciones en los algorítmicos, las simplificaciones cerca de la superficie, el suavizado de la malla y la asimilación de datos para simulaciones de alta resolución [20, 21, 24-26]. Visiblemente, el mayor problema para el éxito de los métodos multi-escala son los errores en la capa de superficie sobre fuertes pendientes y la inestabilidad numérica asociada, que requiere algoritmos numéricamente robustos capaces de resolver fenómenos transientes en presencia de terreno de alto impacto.

realizadas+en+el+modelo+MC2#LES+ El presente estudio tiene como objetivo discutir algunas mejoras recomendadas para modelos multi-escala del viento, que se comprueban con la adaptación de MC2-LES v4.9.9 para simulaciones sobre terreno complejo de alto impacto. A continuación se explica cómo el sistema de ecuaciones de Euler en MC2-LES, ampliamente discutido por [3, 27] se ha modificado para obtener simulaciones más precisas y numéricamente estables en presencia de topografía escarpada. El sistema original de ecuaciones de Euler resuelto en la versión anterior MC2-LES v4.9.8 para un régimen de flujo compresible y no-hidrostático es el siguiente [2, 3]

Por lo tanto, el objetivo de este estudio es describir y validar las posibles mejoras que se pueden implementar en modelos atmosféricos multi-escala, que aplican una discretización semiimplícita a las ecuaciones de Euler para modelar el flujo Derechos reservados COPIMERA 2015

181


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

dv b + [∇ − γ *k ] P + k (b − γ A P) = − f k × v − (∇ − β Ak ) P + f , dt g ⎡ ⎤ d R (b − γ * P) + N*2 w = −b ⎢ β A w + ∇ ⋅ v ⎥ + γ AQ, dt c v ⎣ ⎦

estabilidad numérica del modelo en presencia de terreno escarpado. En términos generales, el modelo MC2-LES v4.9.9 resuelve las ecuaciones mediante la separación de las derivadas materiales de las variables principales ( dΨ dt ) y los términos lineales (L, tratados de forma implícita) de los términos nolineales (R, tratados explícitamente) y los términos fuente (F). Esta separación se expresa en forma matricial como sigue

(1)

d⎛P⎞ g Q , ⎜ ⎟+∇⋅v − 2 w = dt ⎝ c*2 ⎠ c* c pT

donde d dt = ∂ ∂t + v ⋅∇ representa la derivada material, v = (u, v, w) la velocidad, f el parámetro de Coriolis,

dΨ + L = R + F. dt

P = RT* ln( p ') la presión generalizada, p ' = p − p* la perturbación de la presión, b = g (T ' T* ) la flotabilidad,

Luego, siguiendo lo sugerido en [3], R y F se subdividen en dos porciones, la dinámica (dedicada a las principales estructuras del flujo) y la turbulenta (dedicada a la parametrización SFS de la turbulencia), debido a que la parte volumétrica del tensor de Reynolds ⎡ − 2 3δ µ S + ρk ⎤ se ij t ll

T ' = T − T* la perturbación de la temperatura, f = ( fu ,f v ,f w ) las fuentes no conservativas de cantidad de movimiento y Q las fuentes de calor. Las variables principales se complementan con la velocidad del sonido c*2 = c p cυ ( RT* ) y la frecuencia de

(

(3)

)

(

)⎦

oscilación gravitacional N*2 = gγ * = g ( β A + γ A ) = g 2 c p T* , que representan los dos parámetros fundamentales del sistema, junto con las constantes β A = ∂ ln T* ∂z y γ A = g c pT* .

extrae de F y traslada a R para ser procesados junto con la presión termodinámica. Con ello se facilita el cálculo explícito de la parte deviatórica del tensor ( 2 µt Sij ) utilizando el

En MC2-LES v4.9.8, el sistema de ecuaciones (1) se discretiza con el esquema original semi-implícito (O-SI), que Flores-Maradiaga et al. [6] demuestra ser una formulación numéricamente inestable y ruidosa en presencia de terreno complejo. Mediante la discretización con el nuevo esquema semi-implícito (N-SI) propuesto por Flores-Maradiaga et al. [6], el sistema (1) se reformula como sigue para el modelo MC2-LES v4.9.9

A saber, las porciones dinámicas RDYN y FDYN corresponden respectivamente a los términos no-lineales y términos fuentes originales de sistema (1). En cambio, las porciones turbulentas RTURB y FTURB contienen respectivamente la parte volumétrica y deviatórica del tensor de Reynolds después de aplicar el filtro implícito para el método LES. Adicionalmente, se agregó un filtro de frecuencia RAW, que permite una mayor estabilidad y precisión numérica [28].

(

algoritmo mejorado N-SI.

Por último, cabe resaltar que se amplía el cálculo de la difusión turbulenta para mallas que se conforman al terreno complejo, con la introducción de transformaciones del tensor métrico en la parte deviatórica del tensor de Reynolds incluidos entre los términos turbulentos (FTURB). Como se explica en [2, 3, 29], dicho sistema de seguimiento del terreno se define en términos de la siguiente transformación monótona de altura para coordenadas curvilíneas y la altura del dominio H [30]

)

t dv b + (α + 1) ∇P + k b − (γ * + γ A ) kP = − f k × v + β AkP + f , dt g t

N 2w d ⎡ α ⎞ 2 (α + 1) b − γ * P ⎤⎦ + * = − ⎛⎜ ⎟ N * w + γ AQ , ⎣ dt α +1 ⎝ α +1⎠

(2)

t

d⎛P⎞ g Q ⎛ α ⎞g w =⎜ , ⎜ ⎟+∇⋅v − ⎟ 2 w+ dt ⎝ c*2 ⎠ c pT (α + 1) c*2 ⎝ α + 1 ⎠ c*

donde las barras

t

[]

⎡ z − h ( X ,Y ) ⎤ Ζ ( X ,Y , z ) = ⎢ ⎥ H, ⎣ H − h ( X ,Y ) ⎦

denotan los términos promediados en el

tiempo y resueltos implícitamente en tres niveles de tiempo (3TL). Asimismo, α = T ' T* representa la relación de

necesaria para reconocer las pendientes orográficas y calcular correctamente los gradientes horizontales y verticales en los puntos de la malla. Así, los términos turbulentos horizontales quedan definidos como

perturbación de temperatura y b = T ' T es la nueva definición de la flotabilidad, en la cual la temperatura de referencia ( T* ) se sustituye convenientemente por la temperatura absoluta ( T = T '+ T* ). Con la aplicación del método N-SI la estructura de los términos no-lineales del sistema de ecuaciones (2), resueltos explícitamente, se modifica adecuadamente para recuperar la linealidad en la relación hidrostática y asegurar la

Derechos reservados COPIMERA 2015

(4)

182


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

H turb

F

⎧ 1 ⎡ ∂AUV G2 ∂AUV ⎫ 1 ∂BU ⎤ + + ⎪ ⎢ ⎪ ⎥ G0 ∂Z ⎦ ⎪ ρ ⎣ ∂YZ G0 ∂Z ⎪ ⎪ ⎡ ⎪ ⎤ ∂ A ∂ A ∂ B G 1 1 H V ⎪ ⎧ Fturb ⎫ ⎪ ⎢ UV + 1 UV + −U ⎥ ⎪ (5) G0 ∂Z ⎦ ⎪ H ⎪ ⎪ ρ ⎣ ∂X Z G0 ∂Z ⎪ ⎪ Fturb −V ⎪ ⎪ ⎪ H ⎪ ⎪ 1 ⎡ ∂Aw G1 ∂Aw ∂Bw G2 ∂Bw ⎤ ⎪ = ⎨ Fturb = + + + ⎨ ⎢ ⎥ ⎬ −w ⎬ ⎪ H ⎪ ⎪ ρ ⎣ ∂X Z G0 ∂Z ∂YZ G0 ∂Z ⎦ ⎪ ⎪ Fturb −T ⎪ ⎪ ⎪ ⎪0 ⎪ ⎪ gπ ⎡⎢ ∂AT + G1 ∂AT + ∂BT + G2 ∂BT ⎤⎥ ⎪ ⎩ ⎭ ⎪ ρT ∂X G0 ∂Z ∂YZ G0 ∂Z ⎦ ⎪ * ⎣ Z ⎪ ⎪ ⎪0 ⎪ ⎪ ⎪ ⎩ ⎭

3.1. Simulación del viento sobre terreno

plano

Con el objetivo de demostrar que este modelo multi-escala cumple con las expectativas planteadas, primero se presentan los resultados del experimento clásico de la capa de Ekman sobre una superficie plana [4 ,5, 21]. Esta prueba sirve para verificar si MC2-LES v4.9.9 reproduce correctamente los resultados esperados para el flujo promedio y la turbulencia de una atmósfera neutra. Igualmente, permite determinar los parámetros adecuados que aseguren simulaciones de mayor calidad con MC2-LES sobre terreno montañoso, y se examina su sensibilidad para controlar la disipación, inestabilidad y precisión numérica.

donde G0 ≡ ∂z ∂Ζ , G1 ≡ ∂z ∂X and G2 ≡ ∂z ∂Y son los gradientes jacobianos que permiten las transformaciones métricas y ( AΨ , BΨ ) corresponden a los flujos turbulentos de cantidad de movimiento y calor. Por ejemplo, empleando la regla de la cadena para derivación, se obtienen los flujos turbulentos de cantidad de movimiento

~ ~ ~ ~ ⎡ ∂V G1 ∂V ∂U G2 ∂U ⎤ AUV = ρ K M S ⎢ + + + ⎥, ⎣ ∂X Z G0 ∂Z ∂YZ G0 ∂Z ⎦ ~ G ∂w ~⎤ ⎡ ∂w BU = ρ K M ⎢ + 1 ⎥. ⎣ ∂X Z G0 ∂Z ⎦

Para allanar el camino de la discusión sobre las mejoras, se verifica que exista una suave transición entre la versión anterior y la versión mejorada de MC2-LES (i.e., v4.9.8 y v4.9.9, respectivamente) reproduciendo la prueba canónica de la CLA neutra rotacional sobre terreno plano análoga a la capa de Ekman. Para este caso se considera que el flujo es conducido principalmente por un gradiente de presión a gran escala para una latitud de 45° en el hemisferio norte, asignándole el valor clásico al parámetro de Coriolis de f = 10 −4 s-1, que mantiene el equilibrio con un viento geostrófico de (U G ,VG ) = (10.0,0.0) m s -1 . La inicialización se realiza con un perfil analítico de la capa de Ekman ligeramente perturbado con fluctuaciones aleatorias que oscilan entre ± 0.1 m s-1 , para generar suficientes inestabilidades en el campo de flujo turbulento completamente desarrollado.

(6)

Con estas mejoras se espera que el modelo multi-escala MC2-LES v4.9.9 sea capaz de simular eficientemente el viento turbulento sobre terreno escarpado con una malla suficientemente refinada sin perjudicar su precisión y estabilidad numérica.

Se utiliza una malla Arakawa tipo C, con niveles escalonados verticalmente. Los tamaños geométricos de las celdas son Δx = Δy = 32 m y Δz = 4 m, totalizando 4000 m × 2000 m × 2000 m . La malla se selecciona horizontalmente periódica y uniforme en todas las direcciones. Aunque el modelo permite un espaciamiento variable en el eje vertical, se prefiere utilizar una malla estructurada y uniforme para no violar la condición de estabilidad lineal. Las comprobaciones preliminares indican que se requiere de una adaptación especial del tensor métrico en este tipo de algoritmos para calcular correctamente los gradientes verticales con una malla irregular no estructurada, lo cual será parte de una etapa posterior de la investigación.

3. Validación+de+las+mejoras+para+el+modelo+ multi#escala+MC2#LES

La verificación de la calidad de los resultados y los ajustes paramétricos de las simulaciones LES, generalmente se han realizado sobre terreno plano con estratificación neutra o muy estable [5, 31-34]. Sin embargo, sólo algunos investigadores han informado sobre resultados exitosos a partir de simulaciones LES sobre terreno con pendientes pronunciadas [11, 19-21]. Por tanto, nuestro reto es simular una CLA estratificada en condiciones neutras tanto sobre terreno plano como escarpado.

En los límites laterales se emplean condiciones periódicas; en la superficie se impone una condición de no-deslizamiento (no-slip) con una longitud de rugosidad aerodinámica de z 0 = 10 −2 m , y en la parte superior del dominio se reservan 10 niveles para una capa artificial de absorción numérica, basada en la condición de contorno de Shuman [35], para evitar la reflexión espuria de ondas acústicas. Este conjunto de pruebas se realizó con un intervalo de tiempo de Δt = 4 s durante 300 000 s (equivalente a tf = 30 períodos), de tal forma que las oscilaciones inerciales debido al

Derechos reservados COPIMERA 2015

183


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

balance entre el gradiente de presión a gran escala y la fuerza de Coriolis llegan a un estado de equilibrio. Las estadísticas para la CLA neutra sobre terreno plano fueron promediadas en el tiempo (indicado por una barra superior) en los últimos diez períodos, y luego, promediados espacialmente (denotado con los corchetes) en cada nivel horizontal del modelo. La sensibilidad del campo de velocidades resuelto con este modelo multi-escala se mide para cada paso de tiempo con siguientes los parámetros de estacionariedad

(

)

f H ~ v − VG dz uw s ∫0 f H ~ Cv = u − U G dz vw s ∫0

Cu = −

(

)

(7a) (7b)

donde uws y vws representan los flujos totales de cantidad de movimiento de la superficie. En la Fig. 1 estos dos parámetros se presentan para una simulación preliminar, que resulta igual con ambas versiones MC2-LES v4.9.8 y v4.9.9. Se logra un estado cuasi-estacionario después de tf = 20 períodos, por lo que tomamos las estadísticas únicamente para los últimos 100 000 s en todas las simulaciones.

Fig. 1

Fig. 2

Gradiente vertical adimensional de la velocidad

Lo deseable es disminuir la magnitud de Φ M para que se aproxime a la unidad, a pesar que valores muy altos de cS corresponden a una disipación numérica excesiva. Sin embargo, se debe mantener el perfil de Φ M lo más próximo a la superficie (z/H < 0,1), lo que justifica menores valores de cS .

Parámetros de estacionariedad de la velocidad

Con el fin de determinar los parámetros de subfiltro, este ensayo se realizó con la misma configuración y condiciones de contorno utilizando dos esquemas clásicos de SFS, a saber, el Smagorinsky estándar y Deardorff. Se observaron resultados casi idénticos con ambos esquemas, por lo que sólo se discutirán los de Smagorinsky estándar. En la Fig. 2 se ilustra cómo el gradiente vertical adimensional de la velocidad promedio Φ M = (κz u* ) ∂U ∂z disminuye con mayores valores de la constante paramétrica cS .

Derechos reservados COPIMERA 2015

Fig. 3

Espectros de energía para el esquema Smagorinsky

Asimismo, en la Fig. 3 se aprecia que la disipación de energía turbulenta es mayor cuando aumenta la constante SFS. Por tanto, se definió que el valor más apropiado para las simulaciones subsiguientes es cS = 0,175 . Otro aspecto importante es el tamaño de la malla. Su efecto se examina en la Fig. 4 con la proporción entre los espaciamientos horizontal y vertical AR = Δx Δz . Con una proporción AR = 64m/4m = 16 o mayor se aumenta el Φ M y la disipación próxima a la superficie. Lamentablemente, también 184


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

al refinar la malla a AR = 16m/4m = 4 o menos, la altura del Φ M tiende a exceder la subcapa viscosa de superficie. Por ende, la mejor opción es AR = 32m/4m = 8.

Fig. 6

Fig. 4

Evidentemente, para el modo longitudinal del flujo se refleja que la energía cinética turbulenta se conserva con el modelo MC2-LES v4.9.9 y, particularmente, los perfiles esperados para el caso sobre terreno plano son independientes del tipo de discretización. Esto indica que se obtiene una mejora relativamente despreciable con una discretización más sofisticada como N-SI. A pesar de ello, se puede resaltar que con dicha implementación se reproduce eficientemente la solución clásica para la capa de Ekman.

Proporción de resoluciones AR = Δx Δz . Los tamaños son Δx = 16 m, 32 m y 64 m versus Δz = 4 m.

Este caso también se repitió empleando los dos métodos de discretización, O-SI y N-SI, para evaluar su influencia en el modelado de la difusión turbulenta. En las Figs. 5 y 6, a partir los espectros de energía y perfiles de varianza, se observa un comportamiento muy similar entre ambos salvo que MC2-LES v4.9.9 con N-SI es menos disipativo para las estructuras de microescala cerca de la superficie.

Fig. 5

3.2. Simulación del viento sobre una colina 2D Luego se valida el modelo con la CLA neutra sobre una colina gaussiana bidimensional, cuya altura es de h = 50 m, anchura de base de a = 512 m y con una inclinación aproximada de 0,3 ( ϑ ≈ 16.7° ). Dicho terreno, moderadamente escarpado, puede provocar una separación y recirculación de la CLA en condiciones neutras. Este caso se inicializa con la solución de la capa de Ekman del caso anterior, logrando así un perfil dinámico más cercano al de las simulaciones sobre una colina gaussiana 2D reportados por [5, 21], que usaron el modelo multi-escala WRF-LES con distintos esquemas SFS. Los resultados de Kirkil et al. [21] se etiquetan en las figuras con K12. Para este caso se emplea el mismo tamaño de malla, intervalo de tiempo, tipo de inicialización, condiciones de contorno y parámetros SFS para modelar la turbulencia. El modelo también cuenta con la transformación métrica necesaria para conformarse al relieve y reconocer los esfuerzos resultantes del balance de cantidad de movimiento entre el viento y la superficie. Lo único que se agrega es un descentrado semi-Lagrangiano en la discretización de los gradientes para filtrar las ondas gravitacionales y asegurar la estabilidad numérica en presencia de topografía.

Espectros de energía con O-SI y N-SI

Derechos reservados COPIMERA 2015

Varianzas de las fluctuaciones de velocidad

185


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

A continuación se analizan fundamentalmente la aceleración del flujo en la cima de la colina y la recirculación en la ladera de sotavento. En la Fig. 7 se comparan los perfiles de la velocidad promedio en tres puntos de interés, que ilustran cómo la CLA se acelera en la cima de la colina por efecto de la conservación de masa y de energía (Fig. 7a). Luego se separa el flujo debido a la estratificación térmica y al cambio en el gradiente de presión local a un estado desfavorable que produce la inversión en la dirección opuesta del viento cerca de la superficie (Fig. 7b). Finalmente, el flujo promedio con un gradiente de presión favorable logra restablecerse en el valle a sotavento (Fig. 7c).

Fig. 7

pequeño que refleja la energía cinética adicional de las estructuras más finas en el espectro total. Por otra parte, para apreciar la mejora sobre terreno complejo, en la Fig. 8 se muestran los flujos turbulentos del viento para la componente longitudinal en la dirección predominante del flujo. Se observa que en la cima (Fig. 8a), donde el flujo se acelera, la combinación con N-SI resuelve mejor las estructuras turbulentas. El cruce entre los perfiles de las partes resueltas y de sub-filtro modeladas se produce más próximo a la superficie en los resultados de N-SI. Es decir, se logra resolver más estructuras finas y no se depende tanto del modelo aproximativo SFS sobre la topografía.

Velocidad promedio en (a) la cima, (b) la ladera de sotavento y (c) el valle a sotavento.

Fig. 8 Flujos turbulentos verticales del viento zonal. La parte resuelta (perfil izquierdo) y la de sub-filtro (perfil derecho) se muestran para la cima, ladera y valle.

A partir de estas estadísticas de primer orden se comprueba que las grandes estructuras del viento sobre la colina resultan muy similares entre ambos métodos de discretización semiimplícita. Sin embargo, en la cima se observa un gradiente de velocidad menos pronunciado con N-SI, lo cual es deseable cuando se emplea la parametrización turbulenta de viscosidad turbulenta. Asimismo, los perfiles resultantes se comparan con los reportados por K12 [21], quienes utilizaron el mismo modelo SFS de Smagorinsky clásico (SMAG) y uno más sofisticado conocido como DRM para la reconstrucción espectral de las estructuras finas, filtradas explícitamente en el rango inercial de energía.

Tal como se indicó en la introducción, se ha observado que el terreno complejo complica el modelado de sub-filtro, por lo que es recomendable reducir su influencia en la simulación de flujos turbulentos. Por tanto, la adaptación del modelo MC2LES v4.9.9 con N-SI para modelación del viento sobre topografía escarpada recupera la eficiencia necesaria en estos casos. Para visualizar las estructuras en la capa de superficie obtenido con ambas versiones, en la Fig. 9 se muestran imágenes instantáneas del viento obtenidas con ambos esquemas de discretización SI a una altura de 10 m sobre el terreno.

En la Fig. 7a se aprecia un déficit de velocidad de superficie con respecto a los perfiles de viento K12. Posiblemente la desaceleración se deba a una excesiva disipación de energía cinética turbulenta de sub-filtro. En la Fig. 7b se observa una inversión menos pronunciada en la ladera de sotavento, indicando que la distancia de separación y recirculación de la CLA es menor que en las simulaciones K12. Y, en la Fig. 7c se obtienen perfiles muy cercanos a K12, mostrando una rápida recuperación del régimen promedio de la CLA. Dichos resultados indican que la turbulencia atmosférica de superficie es más activa en K12, producto de la aplicación de un filtro más Derechos reservados COPIMERA 2015

186


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

el gradiente vertical de la velocidad promedio y se previene la sobre-estimación del viento en la cima de las colinas. Aunque modestas, dichas mejoras reflejan un avance en la correcta definición del flujo a lo largo de una cadena montañosa permitiendo evaluar el recurso eólico con mayor precisión sobre topografía de alto impacto. Se recomienda investigar más a fondo la adaptación del tensor métrico en el cálculo de la difusión turbulenta para mallas irregulares no estructuradas. Además, se deben examinar los esquemas de sub-filtro en presencia de terreno complejo y el efecto de la estratificación térmica de la CLA.

Agradecimientos+

Fig. 9

Los autores reconocen el valioso aporte del Dr. Nicolas Gasset en la adaptación del método LES para MC2-LES v4.9.9. También, se agradece al Dr. Claude Girard y al equipo de Recherche en Prévision Numérique (RPN), del Servicio Meteorológico de Canadá, por proporcionar el asesoramiento, el apoyo técnico y las bibliotecas de MC2 para implementar las mejoras propuestas.

Viento (ms-1) de superficie a 10 m sobre el suelo.

Aunque similares, se reconocen ciertas diferencias cualitativas producto de las mejoras en MC2-LES. En ambos se visualiza el viento de la magnitud esperada y con una inclinación generada por el efecto rotacional de Coriolis, lo que se ajusta bien a los resultados de Kirkil et al. [21]. Sin embargo, con N-SI el flujo sobre la colina está correctamente confinado a la zona donde interactúa el viento con la pendiente topográfica; en cambio, con O-SI se expande fuera de esa zona de influencia, mostrando alguna aceleración espuria en la ladera de barlovento. Esto tiene relación con la sobre-estimación del viento de superficie mostrada en la Fig. 7a. También, es evidente que el viento forma una burbuja de separación y recirculación mejor definida en la ladera de sotavento con N-SI en relación a O-SI.

Asimismo, agradecemos a la Fundación WESNet y a la Universidad Técnica Federico Santa María por la financiación respectiva de la investigación a través de los proyectos WESNet 1.1-a y USM 25-15-11.

Referencias+ [1]!J. Manwell, J. McGowan and A. Rogers, Wind energy explained: theory, design and application. John Wiley & Sons, London (2010). [2]!C. Girard, R. Benoit, M. Desgagné, Finescale topography and the MC2 dynamics kernel, Monthly Weather Review 133 (2005) 1463–1477. [3]!N. Gasset, R. Benoit, C. Masson, Implementing large-eddy simulation capability in a compressible mesoscale model, Monthly Weather Review 142 (2014) 2733-2750. [4]!F. K. Chow, M. Xue, J. H. Ferziger, Explicit filtering and reconstruction turbulence modeling for large-eddy simulation of neutral boundary layer flow, Journal of Atmospheric Sciences 62 (2005) 2058–2077. [5]!G. Kirkil, J. Mirocha, E. Bou-Zeid, F. K. Chow, B. Kosović, Implementation and evaluation of dynamic sub-filter scale stress models for large-eddy simulation using WRF, Monthly Weather Review 140 (2012) 266–284. [6]!A. Flores-Maradiaga, R. Benoit, C. Girard, C. Masson y M. Desgagné, On the enhancement of numerical stability and noise control for mesoscale modelling over steep complex terrain. En revisión editorial en Monthly Weather Review, American Meteorological Society (2015). [7]!A. Flores-Maradiaga, P. Pham, R. Benoit and C. Masson, Statistical dynamical downscaling of strongly stratified surface wind over steep complex terrain with the enhanced MC2 mesoscale model. En revisión editorial en Wind Engineering, University of Massachusetts Press (2015).

4. Conclusiones A partir de las estadísticas de primer y segundo orden se observa que no hay variaciones significativas entre las dos versiones de modelo, con y sin las mejoras, para simulaciones de la CLA neutra sobre terreno plano. Es decir, las mejoras numéricas no tienen un efecto notable en el modelado LES de la difusión turbulenta sobre terreno plano. Sin embargo, con estas mejoras para métodos multi-escala se logra reproducir eficazmente los resultados obtenidos con el modelo MC2-LES v4.9.8, previamente validado por Gasset et al. [3]. Es decir, se comprueba que los cambios implementados en el código no perjudican su rendimiento. Para las simulaciones sobre topografía escarpada, donde la CLA neutra se separa produciendo una zona de inversión y recirculación turbulenta en la ladera de sotavento, el método multi-escala mejorado es capaz de resolver mejor las estructuras finas especialmente en la capa de superficie sin necesidad de refinar localmente la malla. Asimismo, se reduce Derechos reservados COPIMERA 2015

187


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

[8]!H. Kim, V. Patel, Test of turbulence models for wind flow over terrain with separation and recirculation, BoundaryLayer Meteorology 94 (2000) 5 – 21. [9]!Y. Nagano, H. Hattori, T. Irikado, Prediction of flow over complex terrain using turbulence model, Proceedings of the TDE-Conference (2001) JSME. [10]! F. Castro, J. Palma, A. Silva Lopes, Simulations of the Askervein flow. Part 1: Reynolds averaged Navier-Stokes equations (k-ε turbulence model), Boundary-Layer Meteorology 107 (2002) 501 – 530. [11]! A. Weigel, F. K. Chow, F. K., M. Rotach, R. Street, M. Xue, High resolution large-eddy simulations of flow in a steep Alpine valley. Part 2: flow structure and heat buodget, Journal of Applied Meteorology and Climatology, 45 (2006) 87 – 107. [12]! A. Silva Lopes, J. Palma, F. Castro, Simulations of the Askervein flow. Part 2: Large eddy simulations, BoundaryLayer Meteorology, 125 (2007) 85 - 108. [13]! K. Ayotte, Computational modeling for wind energy assessment, Journal of Wind Engineering and Industrial Aerodynamics, 96 (2008) 1571 - 1590. [14]! T. Allen, A. Brown, Large-eddy simulation of turbulent separated flow over rough hills, Boundary-Layer Meteorology, 102 (2002) 177 – 198. [15]! K. Lundquist, F. K. Chow, J. Lundquist, An immersed boundary method for the Weather Research and Forecast model, Monthly Weather Review, 138 (2010) 796 – 817. [16]! P. Bénard, J. Mašek, P. Smolíková, Stability of leapfrog constant-coefficients semi-implicit schemes for the fully elastic system of Euler equations: case with orography, Monthly Weather Review, 133 (2005) 1065–1075. DOI: 10.1175/MWR2907.1 [17]! J. Sumner, C. Sibuet, C. Masson, CFD in wind energy: The virtual, multiscale wind tunnel, Energies, 1 (2010) 1– 26. [18]! P. Mason, D. Thomson, Stochastic backscatter in large eddy simulations of boundary layers, Journal of Fluid Mechanics, 242 (1992) 51 – 78. [19]! F. K. Chow, R. Street, Modeling unresolved motions in LES of field-scale flows, 15th Symposium on Boundary Layers and Turbulence (2002). [20]! A. Bechmann, N. Sorensen, Hybrid RANS/LES method for wind flow over complex terrain. Wind Energy, 13 (2010) 36 – 50. [21]! J. Mirocha, F. Chow, J. Lundquist, K. Lundquist, Immersed improved subfilter turbulence modeling for large eddy simulation using WRF, 7th Symposium on the Urban Environment, American Meteorology Society (2007). [22]! K. Lundquist, F. K. Chow, J. Lundquist, An immersed boundary method for the Weather Research and Forecast model, Monthly Weather Review, 138 (2010) 796 – 817. [23]! P. Fleming, M. Churchfield, A. Scholbrock, J. Michalakes, K. Johnson, P. Moriarty, The SOWFA supercontroller: a high-fidelity tool for evaluating wind plant

Derechos reservados COPIMERA 2015

control approaches, National Renewable Energy Laboratory, NREL/CP-5000-57175, (2013). [24]! J.P. Pinard, R. Benoit, W. Yu, A WEST wind climate simulation of the mountainous Yukon, Atmosphere-Ocean, 43 (2005) 259–282. [25]! J.P. Pinard, R. Benoit, J. D. Wilson, Mesoscale wind climate modelling in steep mountains, Atmosphere-Ocean, 47 (2009) 63–78. DOI:10.3137/AO922.2009 [26]! N. Gasset, M. Laudry, Y. Gagnon, A comparison of wind flow models for wind resource assessment in wind energy applications, Energies, 5 (2012) 4288-4322. DOI:10.3390/en5114288 [27]! N. Gasset, Refinement of a mesoscale model for largeeddy simulation, PhD Thesis, École de Technologie Supérieure, (2014). [28]! P. D. Williams, The RAW filter: an improvement to the Robert-Asselin filter in semi-implicit integrations. Monthly Weather Review, 139 (2011) 1996-2007. DOI: 10.1175/2010MWR3601.1 [29]! S. J. Thomas, C. Girard, R. Benoit, M. Desgagné, P. Pellerin, A new adiabatic kernel for the MC2 model, Atmosphere-Ocean, 36 (1998) 241-270. [30]! T. Gal-Chen, R. C. Somerville, On the use of a coordinate transformation for the solution of Navier-Stokes equations, Journal of Computational Physics, 17 (1975) 209-228. [31]! B. Kosović, J. Curry, A large-eddy simulation study of a quasi-steady, stably stratified atmospheric boundary layer, Journal of Atmospheric Science, 57 (2000) 1052-1058. [32]! P. Drobinski, P. Carlotti, J. Redelsperger, Numerical and experimental investigation of the neutral atmospheric surface layer, Journal of Atmospheric Science, 64 (2007) 137-149. [33]! J. Redelsperger, F. Mahé, P. Carlotti, A simple and general subgrid model suitable both for surface layer and free-stream turbulence, Boundary-Layer Meteorology, 101 (2001) 375-408. [34]! I. Senocak, A. Ackerman, M. Kirkpatrick, D. Stevens, N. Mansour, Study of near-surface models in large eddy simulations of a neutrally stratified atmospheric boundary layer. Annual Research Briefs. Center for Turbulence Research, NASA – Ames/Stanford University (2004, Part I). [35]! F. Shuman, Numerical methods in weather prediction: (II) smoothing and filtering. Monthly Weather Review, 85 (1957) 357-361.

188


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Derechos reservados COPIMERA 2015

!

!

189


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ +

MEJORA+LA+EFICIENCIA+DE+PARQUES+EÓLICOS+MEDIANTE+EL+ANÁLISIS+DE+LA+ INFORMACIÓN+DE+LOS+SISTEMAS+SCADA! Ana P. Talayero1, Carlos Pueyo1 Julio J. Melero1,2, Javier Beltran1, Roberto Lázaro1 2

1 Fundación CIRCE C/ Mariano Esquillor 15, 50018 Zaragoza Departamento de Ingeniería Eléctrica, Universidad de Zaragoza C/ María de Luna 3, 50018 Zaragoza

! la explotación del parque que informan del rendimiento, de la disponibilidad y del comportamiento de la curva de potencia durante ese periodo.

Resumen! La búsqueda de la mejora de la eficiencia de los parques eólicos ha llevado a la necesidad de profundizar en su funcionamiento realizando estudios de los mismos con el fin de optimizar el rendimiento.

Para llevar a cabo estas tareas se ha desarrollado una metodología de trabajo con software específico que, por su flexibilidad, permite evaluar el funcionamiento de cada aerogenerador, su disponibilidad, estimar las carencias de producción y por tanto, calcular un rendimiento operativo de cada aerogenerador así como estudios más específicos.

En este artículo se describe una metodología de trabajo, partiendo de los datos almacenados en los sistemas de adquisición de datos del parque (SCADA), con la que se calcula principalmente el rendimiento y disponibilidad del parque eólico y se muestran algunos resultados.

Descripción+del+método+de+trabajo!

Se concluye que el estudio de los datos SCADA puede utilizarse como una potente herramienta de ayuda para conocer cómo ha funcionado el parque, detectar deficiencias, y tener una referencia adicional en la toma de decisiones de explotación.

El punto de partida son los datos almacenados en los sistemas SCADA. Se utilizan, principalmente, los datos diezminutales de velocidad de viento y potencia media, añadiendo además las alarmas registradas en todos los aerogeneradores con indicación de sus tiempos de inicio y final. Esta información se procesa para, al final, estimar las variables que nos indican el estado del funcionamiento del parque: pérdidas, disponibilidades, y rendimiento.

Introducción! La energía eólica, desde mediados de los años noventa, ha tenido un gran incremento en su desarrollo fomentado especialmente por la tendencia política, la legislación y las mejoras tecnológicas de los aerogeneradores.

Como complemento a los datos principales mencionados anteriormente, son también necesarios otros datos como, por ejemplo, referencia del funcionamiento correcto de la máquina, relaciones entre velocidad de viento libre y velocidad de viento en góndola, ángulo de pich de la máquina, temperaturas, densidad, datos de la torre meteorológica del parque, datos de producciones esperadas, etc… Algunos de estos datos complementarios son imprescindibles para realizar el estudio, como es el caso de la referencia de funcionamiento. Otros, sin embargo, no son imprescindibles y, en algunos casos no se dispone de ellos, como puede ser el caso de los datos de la torre de medida del parque, por lo que no siempre intervienen en el estudio.

Las sucesivas modificaciones de la legislación, el previsto recorte de primas y la madurez tecnológica alcanzada, hacen que surja el interés de mejorar el rendimiento de los parques eólicos, para llegar a una explotación óptima de los mismos. Una forma rápida de conocer mejor el rendimiento y, por tanto, el funcionamiento de un parque eólico puede realizarse mediante un estudio a partir de los datos disponibles, registrados en los sistemas de adquisición de datos (SCADA). Utilizando los datos SCADA, se pueden realizar estudios siguiendo dos líneas de trabajo:

En la figura 1 se muestra esquemáticamente el proceso de trabajo. Cada uno de los pasos representados en dicha figura se explica a continuación.

1.! Informes de carácter periódico, cuya finalidad consiste en conocer el funcionamiento del parque de forma continuada y poder mejorar el rendimiento del mismo. 2.! Auditorías de funcionamiento de un periodo de Derechos reservados COPIMERA 2015

190


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+ AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ Otros!datos!

Datos!P!–!V!gond!

Alarmas!

Pretratamiento!

Pretratamiento!

Pretratamiento!

Otros!datos!

Datos!P2Vgong!

Alarmas!

Procesado!

Análisis!

Fichero!TDF!

se requiera un tratamiento previo de los datos para adecuarlos a un formato común y único. Una vez que los datos originales han sido adecuados a un formato común, es posible comenzar su tratamiento aplicado a cada tipo de información de forma independiente. El primer paso a realizar consiste en una revisión visual de los datos de velocidad, potencia y alarmas, con una identificación de posibles errores de almacenamiento o huecos de información. Las alarmas registradas tienen un tratamiento específico ya que en la mayoría de los modelos de aerogeneradores, un fallo o suceso puede desencadenar un conjunto de alarmas dentro de la misma parada de la máquina. Por tanto, si se requiere conocer específicamente los fallos de cada máquina, se deben definir criterios de prioridad, que organicen las alarmas y las clasifiquen. Estos criterios aunque se definen de forma específica para cada trabajo y reflejan el objetivo concreto del mismo, tienen un fundamento común que es lograr una única alarma en un espacio de tiempo.

Resultado!1!

Análisis!

Resultado!2!

Realización3de3informe!

Procesado de datos En esta fase se relaciona toda la información disponible, cruzándola y uniéndola para su posterior análisis e interpretación.

Informe+específico!

Figura 1. Diagrama de proceso de un estudio

El cruzado de información consiste principalmente en identificar todas las alarmas sobre los datos de velocidad y potencia; diferenciando en ellos todos los diezminutales afectados por una alarma.

El tratamiento de datos realizado se base en la aplicación de varios métodos complementarios que permiten localizar de una manera efectiva los datos erróneos registrados por el SCADA y, en algunos casos, aumentar los datos disponibles para el análisis del comportamiento de parque mediante métodos de regeneración de datos.

Las alarmas pueden ser de dos tipos, avisos que no provocan la parada de la máquina, y errores que provocan una disminución de potencia en el aerogenerador o la parada del mismo. A su vez, estos errores pueden estar justificados o no justificados por el propio funcionamiento de la máquina. Un error justificado sería, por ejemplo, una temperatura ambiente demasiado alta que superase el rango de funcionamiento del aerogenerador. Los errores no justificados serían todos aquellos que se derivan de un fallo del aerogenerador, bien por un problema en uno de sus componentes principales, o como prevención para evitar posibles daños. El tratamiento de los datos identificados con alarma dependerá del tipo de alarma y del objetivo específico del estudio.

El software utilizado en los análisis está formado por pequeños módulos programáticos que se adaptan específicamente para cada uno de los estudios en función de las características del mismo. La utilización de esta metodología en lugar de un solo programa global permite mejorar el rendimiento en cada uno de los pasos que forman parte del tratamiento de datos. El método se aplica tanto a los datos de viento, como a los de potencia y alarmas, asegurando así su coherencia en tiempo y espacio.

Una vez que se ha unido toda la información, es necesario realizar una revisión exhaustiva de todos los datos. Para ello se aplican técnicas de filtrado que ayudan a identificar datos erróneos. En el caso de que existan numerosos datos erróneos o huecos de información se valora la regeneración de datos, mediante aplicación de técnicas de correlación, con el fin de aumentar la disponibilidad de la información.

Pretratamiento de datos Los diversos fabricantes de aerogeneradores han dotado a sus máquinas de sistemas SCADA distintos entre sí que incluso difieren según modelos y sistemas de control para un mismo fabricante. Esta gran casuística no facilita su interpretación y ello hace que Derechos reservados COPIMERA 2015

191


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+ AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Esta regeneración se realiza porque un factor importante en los estudios es la disponibilidad de datos grabados, puesto que las conclusiones que se obtienen del funcionamiento del parque son respecto de los datos existentes. Si la disponibilidad de datos grabados es baja, la representatividad del estudio será solo parcial.

detectarlo. Para solucionarlo, se recurre a otro tipo de análisis basado en correlaciones entre los anemómetros de góndola más próximos, de manera que si algún dato de velocidad presenta un valor no coherente con los registrados en los anemómetros próximos se evalúa su permanencia en el estudio. Los anemómetros de góndola de aerogeneradores próximos también se utilizan para la regeneración de datos. En primer lugar se estudia la correlación entre la velocidad medida en el aerogenerador bajo estudio y la velocidad medida en los aerogeneradores más cercanos. Dicha correlación no suele ser perfectamente lineal debido principalmente a la distancia entre aerogeneradores y a la orografía. Una forma en la que se mejora la correlación se realiza aplicando el método de los bines, bien definido en la norma de curva de potencia y que ya ha sido verificado para este tipo de funciones [3]. Si existen errores de grabación o huecos de información que se producen de forma aislada en uno o varios aerogeneradores, es posible regenerar los valores aplicando el método mencionado anteriormente. Para ello, se utiliza siempre como referencia el aerogenerador cuya correlación presenta un menor error. En la figura 3 se muestra la correlación entre los anemómetros de góndola de dos aerogeneradores contiguos en un parque eólico.

A continuación se describe como se filtran y regeneran los datos de velocidad y potencia y como se regenera la información de las alarmas. La metodología de filtrado y regeneración de datos se fundamenta en un filtro de datos temporales basado en las ecuaciones de Kalman [1], un filtro de curva de potencia del aerogenerador basado en técnicas robustas [2], un análisis de los resultados mediante un interface visual y una regeneración global de los datos basado en el método de los bines [3]. Filtrado y regeneración en velocidad Es perfectamente conocido y asumido que los datos de velocidad de viento en un emplazamiento tienen un carácter aleatorio. Sin embargo, cuando se analizan series temporales se observa cierta dependencia entre instantes actuales e instantes anteriores [4]. Uno de los métodos más utilizados para analizar series temporales en sistemas dinámicos como el viento es el filtro de Kalman. Resumiendo la metodología, las ecuaciones de Kalman se dividen en dos grupos, ecuaciones de pronóstico y ecuaciones de corrección [1] siguiendo el esquema representado en la Figura 2.

1.2!

!

0.8!

+ +

0.6!

+

1!

0.4! 0.2! 0! 0!

0.2!

0.4!

0.6!

0.8!

1!

1.2!

V+ ae ro+1+(m+/s )!

Figura 3. Correlación en velocidad de las velocidades medidas por anemómetros de góndola de dos aerogeneradores contiguos.

Si el error de información se da en todos los aerogeneradores e incluso en la torre de medición del parque la recuperación de datos no es posible y la disponibilidad de datos útiles para realizar el estudio disminuye, aumentando la incertidumbre del mismo.

Figura 2. Ecuaciones de pronóstico y corrección de Kalman.

Si los datos de velocidad de viento medidos en góndola y mástil presentan unos cambios de velocidad que no se corresponden a los estimados con las ecuaciones de Kalman se identifican como anómalos y se valora su consideración en el estudio.

Filtrado y regeneración en Potencia Para el filtrado de los datos de potencia se utilizan dos técnicas distintas. La primera de ellas se basa en la comparación de los datos de producción en cada aerogenerador con los de aerogeneradores próximos, tal y como se realiza con los datos de velocidad de

En el caso de existir una degradación temporal en el anemómetro, el filtro de Kalman no es capaz de Derechos reservados COPIMERA 2015

192


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+ AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

viento. De igual forma, el método utilizado para esta comparación es el de los bines [3].

huecos o datos erróneos se encuentran en situaciones en que la velocidad de viento esté por debajo de la velocidad de arranque o por encima de la velocidad de corte, no podrán ser identificados.

La segunda técnica hace uso de un filtro robusto aplicado a la curva de potencia de cada aerogenerador. Este filtro robusto parte de los valores estadísticos ajustados por la mínima mediana (LMedS) lo que permite eliminar los valores residuales de potencia en función de unos umbrales definidos previamente [2].

Como resultado del procesado de datos se obtiene un archivo que se denomina TDF. Este archivo junto con los datos de las alarmas, contienen toda la información necesaria para analizar el funcionamiento del parque.

Una vez aplicadas las dos técnicas anteriores, se realiza un último análisis del comportamiento de la potencia registrada en función de otras variables como por ejemplo, la temperatura o la dirección del viento. De esta forma se pueden realizar análisis específicos del funcionamiento del parque eólico.

Análisis de la información

Al igual que en velocidad es posible, en el caso de tener un error de grabación en potencia, aumentar la disponibilidad de datos, regenerando mediante correlaciones con otros aerogeneradores, siempre y cuando la relación entre ambos sea buena, y exista alguna máquina con datos correctos.

Análisis del archivo TDF Este archivo contiene la información necesaria para caracterizar el funcionamiento de todos y cada uno de los aerogeneradores. La relación entre los valores diezminutales de la velocidad de góndola y la potencia media representada en un gráfico de dispersión, refleja el comportamiento del aerogenerador. Esta representación permite identificar comportamientos anómalos en diferentes periodos temporales y cambios en la curva de potencia del aerogenerador que son debidos a diversas causas: comportamientos direccionales, errores en el anemómetro de góndola, problemas en las palas o a la intensidad de turbulencia. En la figura 5, se representa una gráfica de este tipo para un aerogenerador de paso variable. Los valores han sido normalizados a potencia nominal y velocidad de corte.

El siguiente paso en el estudio es analizar la información tanto del archivo TDF como de las alarmas procesadas para obtener los resultados que, interpretados, conformarán el informe final

En la figura 4 se muestra la correlación, en potencia, de dos aerogeneradores cercanos en un parque eólico.

1.2!

Paero+2+(kW)!

1! 0.8! 0.6! 0.4! 0.2! 0! 0!

0.2!

0.4!

0.6!

0.8!

1!

1.2!

P+aero+1+(kW)!

Figura 4. Correlación en potencia de dos aerogeneradores contiguos Figura 5. Relación Producción – Velocidad de góndola

Regeneración de alarmas En el caso de detectar alarmas no registradas, se valora aumentar la disponibilidad de datos de igual forma que se hace con los datos de velocidad de viento y potencia.

En la Figura 5 se observan los siguientes sucesos: •!

La regeneración de las alarmas sólo es posible si el error de grabación es parcial. Para ello es necesario que existan máquinas con datos disponibles y que además la velocidad en ese instante se encuentre en el rango en el que el aerogenerador debería estar en marcha. Si los Derechos reservados COPIMERA 2015

•! •!

193

Periodos en los que el aerogenerador está afectado por alarmas. Periodos en los que presenta un comportamiento anómalo. Periodos con errores en el registro de la potencia o velocidad de góndola.


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+ AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

•!

Periodos afectados por comportamientos sectoriales o parámetros ambientales.

Dependiendo de si el análisis se hace para un estudio periódico o si es una auditoría, los valores serán calculados de forma más desglosada o conjunta. Se tendrán en cuenta también los objetivos concretos del informe, calculando así las pérdidas asociadas a las diferentes alarmas y rendimientos necesarios para poder llegar a obtener el resultado objeto del informe.

Si se dispone de datos de temperatura, puede aplicarse la corrección propuesta por la norma [5] de forma que se obtiene la curve de potencia para la densidad a la que el fabricante garantiza como comportamiento válido del aerogenerador.

Análisis de las alarmas De igual forma, cuando se ha realizado verificación de curva de potencia en un aerogenerador [6], se pueden obtener coeficientes que para ese aerogenerador, de forma aproximada, relacionen el viento libre con el viento medido en góndola. Así se puede obtener una relación entre la potencia generada y la velocidad en viento libre. Esta relación aun sin haberse obtenido bajo las recomendaciones de la norma [5], se puede aproximar más a la relación que se entiende como curva de potencia del aerogenerador.

El análisis de las alarmas consiste en realizar un estudio estadístico de las mismas, analizando diversos factores como son: •! •! •! •!

Además de la representación gráfica de la potencia frente a la velocidad de góndola, la información de este archivo permite conocer la producción generada en cada una de las máquinas como suma de potencias diezminutales.

Estos factores revelan las incidencias más relevantes, bien por su frecuencia o por ser alarmas que suelan suceder durante periodos de vientos medios altos teniendo gran repercusión sobre la producción del parque. Con esta información también es posible encontrar relaciones con factores climatológicos o de estado de la red eléctrica. Este conocimiento puede ayudar a establecer políticas que minimicen la aparición de estas alarmas, consiguiendo así aumentar las horas de funcionamiento del aerogenerador y por tanto su producción.

La falta de producción o pérdidas en cada aerogenerador se estima mediante comparación del dato afectado por una alarma, con una referencia establecida. Esta referencia, es un dato de partida en el informe y es creada de forma individual para cada aerogenerador, previo a comenzar el análisis, con los datos de periodos en los que el aerogenerador haya estado funcionando correctamente. Estos periodos son lo suficientemente extensos como para definir el comportamiento del aerogenerador teniendo en cuenta los efectos estacionales.

El análisis de las alarmas permite también calcular la disponibilidad de funcionamiento del aerogenerador. Para ello se comienza valorando el tiempo en el que han existido errores no justificados y la falta de producción que han generado. La duración del tiempo de un error se calcula como la diferencia entre la fecha y hora de final y comienzo de la alarma, teniendo este cálculo una exactitud en segundos. El resultado de este cálculo es el tiempo en el que la máquina no está en las condiciones adecuadas para producir energía por fallo no justificado en la misma. La disponibilidad se estima como una relación de tiempos, tiempo que se considera que ha estado disponible, entre tiempo total que debería haber estado disponible.

Las pérdidas pueden estimarse además de forma colectiva para un grupo de alarmas de un mismo concepto, como por ejemplo las asociadas a mantenimiento o las pérdidas por paradas obligadas por REE para ajustes de demanda según el decreto 667/2007 [7], etc…. El rendimiento se calcula como el cociente entre la producción de cada aerogenerador, y la producción esperada, entendiendo como producción esperada la suma de la producción y las pérdidas estimadas asociadas a las alarmas que se consideren no justificadas. Rendimiento (%) =

Siendo

t error no justificado . 100 Disponibilidad (%) = 1- t total de funcionamiento

Cabe decir que no existe una única fórmula aceptada, ya que el término tiempo total puede o no englobar todo el rango de velocidad o sólo el rango de funcionamiento de la máquina, de igual forma que el tiempo que se considera disponible un aerogenerador depende de los errores que sean o no justificados y estos cambian según el estudio.

P . 100 P + pp

P: la producción generada pp: las pérdidas de producción no justificadas

Derechos reservados COPIMERA 2015

Frecuencia de aparición Duración de las mismas y duración del espacio de repetición Velocidad a la que suceden Temporalidad (si suceden con mayor frecuencia a una hora del día o durante un mes del año)

194


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+ AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Aplicación+del+método+y+resultados! 100% !

La metodología descrita en los apartados anteriores se aplica de forma semejante tanto si se está realizando un trabajo periódico como una auditoría, y permite obtener de forma directa la falta de producción, el rendimiento y la disponibilidad.

80% !

!

80% !

!

60% !

40% !

40% !

20% !

La diferenciación de los trabajos reside en el volumen de datos trabajados, en la definición de los periodos de tiempo de estudio, y en el tratamiento y análisis de las alarmas, que hacen que los resultados buscados varíen, y las conclusiones sean específicas de cada informe.

0% !

0% ! T1 !!!!! T2 !!!!!T3 !!!!! T4 !!!!! T1 !!!!! T2 !!!!!T3 !!!!! T4 !!!!!T1 !!!!! T2 !!!!! T3 !!!!! T4 !!!!!T1 !!!!!T2 !!!!! T3 !!!!!T4 !!!!! T1 !!!!! T2 !!!!! T3 !!!!!T4 !!!!! T1 !!!!!T2 !!!!! T3 !!!!!T4 !!!!! T1 !

Dis ponibilidad !!!!!!!!!!!Dis ponibilidad !c ontr ac tual!

Figura 7. Disponibilidad por aerogenerador comparada con la disponibilidad contractual.

Como ejemplo se ha aplicado el método de trabajo a un periodo de un año en un parque eólico de 25 aerogeneradores. A continuación se presentan algunos de los resultados que se pueden obtener.

En la figura 8, se representa la evolución para un proyecto del rendimiento y disponibilidad del mismo.

En la figura 6 se presentan los datos, normalizados a la producción total del parque, de la producción, pérdidas y rendimiento por aerogenerador del parque eólico. En la gráfica se puede observar claramente el aerogenerador que durante el periodo de estudio ha tenido un fallo relevante, y también se observan otros aerogeneradores, que sin presentar un fallo importante, poseen pérdidas significativas. Esto es debido en algunos casos a una gran frecuencia de paradas a bajas velocidades de viento, y en otros, en los que apenas hay paradas, a que en estas el viento medio era muy alto.

100%!

90%!

!

80%!

70%!

60%!

50%!

40%! ene!!!!! feb!!!!! mar!!!!!abr!!!!!may!!!!!jun!!!!!! jul!!!!!!ago!!!!!sep!!!!!oct!!!!!!nov!!!!!dic!!!!! ene!!!!! feb!!!!! mar!!!!!abr! Disponibilidad!(%)!

Rendimiento!(%)!

Figura 8. Evolución del rendimiento y la disponibilidad. 100% !

8% !

80% !

6% !

60% !

4% !

40% !

2% !

20% !

!

10% !

! !

!

!

!

La obtención del funcionamiento promedio real de un aerogenerador o de todo el parque permite detectar comportamientos deficientes y ajustar predicciones de producción exigidas por la legislación [7]. En la figura 9 se representa, para una máquina, el promedio de la curva para cada bin corregida en densidad y a velocidad de viento libre comparada con la curva del fabricante. Se observa claramente en la gráfica como en el caso considerado existe una divergencia entre la curva del fabricante y la curva media del parque en las velocidades medias-altas, si estas velocidades son las más frecuentes del emplazamiento esto ocasiona una pérdida continuada de producción.

0% !

0% ! T1 !!!!! T2 !!!!! T3 !!!!!T4 !!!!! T1 !!!!! T2 !!!!!T3 !!!!! T4 !!!!! T1 !!!!! T2 !!!!! T3 !!!!! T4 !!!!! T1 !!!!!T2 !!!!! T3 !!!!! T4 !!!!!T1 !!!!! T2 !!!!! T3 !!!!!T4 !!!!! T1 !!!!! T2 !!!!!T3 !!!!! T4 !!!!! T1!

Produc c ión !útil!!!!!!!!!!! pérdidas!!!!!!!!!!!Rendimiento!

Figura 6. Producción, pérdidas y rendimiento por aerogenerador en un parque eólico.

La figura 7, por otra parte, muestra la disponibilidad por aerogenerador frente a la disponibilidad contractual para el mismo parque eólico. En ella se ve como no todos los aerogeneradores cumplen la disponibilidad contractual, existiendo una mayor divergencia en aerogeneradores que presentan mayores pérdidas. Es reseñable el caso del aerogenerador 3, que pese a tener una mayor pérdida que el 2, su disponibilidad es mayor, esto es debido a que en el aerogenerador 3 se encuentra menos tiempo parado que el 2 pero con una velocidad media de viento más alta

Derechos reservados COPIMERA 2015

195


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+ AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

seguimiento del rendimiento y de la disponibilidad del proyecto. Esto permite detectar problemas con mayor rapidez y por tanto agilizar su solución, aumentando así la eficiencia de los proyectos. Adicionalmente a todo lo mencionado anteriormente, se pueden realizar cálculos específicos, incluyendo parámetros nuevos, como son valores económicos de venta de energía, producciones previstas etc… adaptando el alcance de los informes a los requerimientos de cada estudio.

Conclusiones!

Figura 9. Relación Producción media por bin – Velocidad de góndola corregida.

La realización de informes periódicos o auditorias que controlen el funcionamiento del parque basados en el tratamiento e interpretación de los datos de los SCADA, supone una gran ayuda para el conocimiento del funcionamiento del parque, sus puntos críticos y para la toma de decisiones en la explotación. La caracterización del funcionamiento del parque eólico detallando la operación máquina a máquina facilita enormemente el seguimiento del rendimiento y viabilidad del mismo. Con la información obtenida del estudio se detectan cambios de comportamiento que pueden ser debidos a deterioro de componentes o sustitución de los mismos, problemas en sensores, pérdidas de producción, etc.

Del estudio de alarmas, se pueden obtener estadísticos e información de su frecuencia de aparición, de su duración, de la hora o estación del año donde aparecen con más frecuencia, permitiendo en algunos casos tomar medidas que aumenten la disponibilidad de las máquinas. En la figura 10 se representa una gráfica donde se representa la frecuencia de aparición de las 10 alarmas (A1…A10) más registradas en un parque durante el periodo de estudio. Tal y como se aprecia en la gráfica se detectan alarmas con una alta frecuencia de aparición, cuando esto ocurre hay que analizarla para intentar conocer la causa y solucionarla en la medida de lo posible.

La realización de este tipo de estudios de forma continuada permite corregir rápidamente desviaciones en los mismos y por tanto mantener el parque en un margen de rendimiento.

35%!

25%!

20%!

Económicamente, el tratamiento de los datos ya almacenados, es relativamente asequible ya que no requiere la instalación de nuevos dispositivos. Se puede considerar que la inversión en el estudio de los datos, respecto a los beneficios que se pueden obtener continuada en el tiempo, es posible realizar el suponen un balance positivo y una acción básica a la hora de mejorar la eficiencia de los parques.

!

!

!

!

30%!

15%! 10%! 5%! 0%! A1!

A 2!

A 3!

A 4!

A5!

A 6!

A 7!

A8!

A 9!

A10!

Figura 10. Frecuencia de aparición de alarmas durante 1 año por aerogenerador

Si se dispone de la información adecuada, se pueden establecer comparaciones entre la producción obtenida y la producción estimada en la evaluación de recurso del parque. A partir de estas comparaciones, se estudian posibles desviaciones, que sirven para ajustar las previsiones de ingresos del proyecto.

Bibliografía! [1] G. Welch and G. Bishop. An introduction to the Kalman filter. In ACM SIGGRAPH Intl. Conf. on Computer Graphics and Interactive Techniques, Los Angeles, CA, USA, August 2001

En el caso concreto de una auditoría, en la que el periodo de tiempo estudiado es largo, además de verificar de forma global el funcionamiento del parque, se puede obtener ayuda en la toma de decisiones del futuro del parque. Ejemplos de estas decisiones pueden ser la planificación de un “repowering”, el cambio de condiciones en la renovación de garantías, o la renovación de un contrato de mantenimiento.

[2] Sainz, E., A. Llombart and J.J. Guerrero, 2009. Robust filtering for the characterization of wind turbines: Improving its operation and maintenance. Energy Conversion and Management, 50(9): 21362147 [3] J. Beltrán, A. Llombart and J.J.Guerrero “A bin method with data range selection for detection of nacelle anemometers faults”, EWEC 2009

Si los estudios son periódicos y se realizan de forma Derechos reservados COPIMERA 2015

196


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+ RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

[4] HUANG, Z. and CHALABI, Z.S. “Use of timeseries analysis to model and forecast wind speed” 1995 J. Wind Eng. Ind. Aerodyn., 56: 31 l-322 [5] IEC 61400-12-1 Wind turbines - Part 12-1: Power performance measurements of electricity producing wind turbines Ed. 1 [6] A. Llombart , C. Pueyo, J.M. Fandos J.J. Guerrero. Robust data filtering in wind power Systems. [7] REAL DECRETO 661/2007, de 25 de mayo, por el que se regula la actividad de producción de energía eléctrica en régimen especial. BOE nº 126 pp2284622873de 26 de Mayo de 2007 [8] S. Li, D. C. Wunsch, E. A. O’Hair and M. G.Giesselmann, “Using Neural Networks to Estimate Wind Turbine Power Generation”, IEEE trans. On Energy Conversion, Vol. 16, Nº 3, pp 276-282, September 2001 [9] P. Rousseeuw and A. Leroy, Robust Regression and Outlier Detection (John Wiley, New York, 1987). [10] A. Llombart, S. J. Watson, D. Llombart and J.M. Fandos; “Power Curve Characterization I: improving the bin method” ICREPQ, 2005. [11] M. Sanz-Badía, F. J. Val, A. Llombart, 2001. Método para el control de producción en aerogeneradores eléctricos. Patent NºS2198212. Extended to PCT, Argentina and Chile.

Derechos reservados COPIMERA 2015

197


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

POTENCIAL+DE+BIOGAS+DE+LOS+DESECHOS+AGRO#INDUSTRIALES+EN+HONDURAS+ Carlos G. Talavera Williams CONTECNICA, S.A. de C.V. contecnica@cablecolor.h

Resumen:+++

reducción de las emisiones de gases de efecto de invernadero vinculados a esas fuentes, para también ponderar formas para una inserción más beneficiosa de los productores agroindustriales nacionales generadores de biogás de desecho en el esquema del mercado internacional de Carbono logrando la captura, valorización y aprovechamiento del potencial energético de este combustible renovable, se desarrolló una investigación que envolvió el análisis de las cantidades y composiciones de las corrientes de desechos líquidos y sólidos biodegradables generadores de metano por descomposición anaeróbica en nueve centros de producción escogidos como referencia y representativos de las principales actividades agroindustriales desarrolladas a pequeña, mediana y gran escala en el país para proyectar el potencial de biogás derivado de tales sustratos a nivel nacional, empleando las estadísticas nacionales de producción en cada una de las actividades analizadas en el estudio.

Las emisiones de gases de efecto de invernadero (GEIs) son la fuente primaria del incremento del calentamiento global generado por humanos, y motivo de mucha preocupación en el combate al cambio climático. El metano es un gas producido por descomposición anaeróbica de la materia orgánica de muchos desechos agroindustriales y emitido con dióxido de carbono, formando biogás. Su potencial de calentamiento global (PCG) a 100 años es de 25 veces el del CO2 por lo cual interesa su control. Para estimar el biogás producible por los desechos agroindustriales de las nueve ramas más significativas de tales actividades en Honduras, se realizó una investigación usando un centro de producción representativo por actividad, midiendo los desechos producidos y caracterizando su composición para estimar las cantidades de biogás por unidad de producto producido o materia prima empleada. La proyección del potencial nacional de biogás a todas las unidades de producción existentes a nivel nacional se realizó usando las estadísticas agregadas de producción por actividad.

Nomenclatura+ GEI PCG MWe MWt DQO Nm3

El potencial bruto de biogás derivable de los 19 sustratos distintos encontrados para las 9 actividades productivas analizadas se estimó en 430 MNm3/día de biogás al 60% CH4, que producirían 448.4 MWt, equivalentes a 180.8 MWe a una eficiencia asumida de conversión térmica a eléctrica del 40%. 5 de dichos sustratos presentaron precios actuales de venta superiores a los retornos de su conversión a biogás, dejando los 14 netos aprovechables con una producción de 366.1 MNm3/día equivalentes a 365.8 MWt y 146.7 MWe.

2.+Actividades+y+metodos+ Las acciones emprendidas y los métodos observados se resumen a continuación: Se realizaron visitas preliminares a los centros de producción pre-selectos por su disposición a cooperar con el estudio, para identificar los desechos (sustratos para la producción de biogás), relevantes a medir, analizar la factibilidad del monitoreo en el sitio, y definir la logística del monitoreo. La medición de caudales y cantidades de desechos sólidos se realizó durante tres días en seis centros de producción empleando los métodos de cuantificación señalados en la Tabla 2.1. En tres centros las corrientes de desechos habían sido cuantificadas y caracterizadas previamente y accedieron amablemente al uso de dichos datos. Tabla 2.1.: Métodos usados para la cuantificación de los desechos sólidos y líquidos

De los 9 sectores analizados, tres, las granjas avícolas, las salas de ordeño y los beneficios húmedos de café serían capaces de generar el 70% del potencial nacional, aprovechable empleando tecnologías de mediana y pequeña escala con un enfoque preferencial en satisfacer la propia demanda energética. Las actividades de mejor potencial para la producción de electricidad comercial son las extractoras de aceite de palma y los ingenios azucareros, por la naturaleza más concentrada de sus operaciones y las características de sus efluentes. 1. Introduccion A fin de establecer la cantidad total de biogás derivable de la descomposición natural de los principales desechos agroindustriales generados en Honduras y el potencial de

Derechos Reservados COPIMERA 2015

Gases de efecto invernadero Potencial de calentamiento global MegaWatts eléctricos MegaWatts térmicos Demanda Química de Oxígeno metro cúbico normal (293 °K, 1 atm)

198


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! Sector/actividad

Sustrato

Beneficio húmedo de café

1. Aguas residuales del beneficiado 2. Pulpa del café

Extractora de aceite crudo de palma africana Ingenio productor de azúcar de caña

3. Aguas residuales de la extracción de aceite 4. Aguas residuales del ingenio 5. Melaza de azúcar

Empacadora de carne bovina y porcina

6. Aguas residuales del matadero 7. Harina de carne y hueso

8. Sebo

Sala de ordeño

Procesadora de leche y lácteos

Granja porqueriza

9. Aguas residuales de la sala 10. Estiércol no diluido 11. Aguas residuales de la planta procesadora 12. Aguas residuales de la granja 13. Cerdaza recuperada de las aguas residuales

Granja avícola

14. Estiércol de las aves (gallinaza)

15. Aves muertas Empacadora de carne de pollo

Vertedero Parshall

Balance estándar de materia Volumetría en caja de recepción de efluentes Peso del sustrato reportado por el centro de producción Peso del sustrato reportado por el centro de producción Cubeta y cronometro; volumetría en canal de efluentes Pala y balde calibrado Vertedero en V Cubeta y cronómetro; volumetría en caja de recepción de efluentes (caudales pico) Volumetría en carreta de colección, al ras Volumetría en sacos, con volumen medio por saco determinado en 5 repeticiones Volumetría de la fosa de compost de aves muertas Vertedero en V

17. Estiércol, transporte de las aves

Pesaje del estiércol colectado en el piso del área de recepción

19. Harina de carne

En aguas residuales se tomaron muestras puntuales cada dos horas para la producción de una muestra compuesta ponderada por caudales en aquellas corrientes con alta variación, y una muestra compuesta simple en aquellas con caudales poco variables. Las muestras fueron preservadas en hielo hasta su entrega al laboratorio. Se realizaron mediciones in situ del pH y la temperatura. La base principal para la estimación del potencial de biogás en efluentes fue la Demanda Química de Oxígeno (DQO). Para analizar la distribución de la carga orgánica entre la fracción particulada y la fracción disuelta y sustanciar decisiones sobre tipo de tecnología aplicable, se evaluó Demanda Química de Oxígeno soluble (filtrada), los sólidos suspendidos volátiles, y los sólidos disueltos volátiles. La disponibilidad de nutrientes y decisión sobre la posible necesidad de fertilizar el sustrato previa fermentación, como la ponderación de posibles efectos inhibidores del amoníaco se realizó midiendo el Nitrógeno total de Kjeldahl, Nitrógeno amoniacal y Fósforo total. Para ponderar la posible necesidad de operaciones de desulfuración del biogás se midieron los sulfatos. Todos los métodos de laboratorio empleados fueron conforme el Standard Methods for the Examination of Water and Wastewater, 21 edición.

Vertedero Parshall

16. Aguas residuales del matadero

18. Harina de plumas

densidad aparente del desecho para estimar la masa. Se cuantificó la producción del, o de los productos producidos, y/o materias primas consumidas en el centro de producción durante los tres días del monitoreo para estimación de las cantidades especificas de desechos generados (masa desechos/unidad de producto o materia prima).

Método de medición Cubeta y cronómetro Cubicación del volumen de la pila de pulpa

Se tomaron muestras representativas de los desechos sólidos en seis centros de producción. Para sustanciar las decisiones sobre tecnología de fermentación a emplear y ponderar las eficiencias de conversión en función del estado de agregación del sustrato se midió la humedad y materia seca; la base principal para la estimación del potencial de biogás fue el contenido de materia orgánica; la disponibilidad de nutrientes en el sustrato se evaluó mediante la medición del Carbono, Nitrógeno, relación C:N y Fósforo. Los potenciales inhibidores a la fermentación se evaluaron midiendo Boro, Zinc, Cobre, Manganeso, Hierro, Magnesio, Calcio, y Potasio. Para valorar la posible necesidad de operaciones de desulfuración del biogás y el potencial inhibidor, se midió el Azufre.

Peso del sustrato reportado por el centro de producción Peso del sustrato reportado por el centro de producción

Para los centros de producción analizados, se procedió a la estimación del potencial de biogás en base a los rendimientos mínimos seguros documentados en la literatura técnica abierta y los resultados de los monitoreos. Se empleó el lineamiento de 0.21 kg CH4/kg DQO removido, equivalente a 0.35 Nm3 gas metano/kg DQO removido, y a 0.53 Nm3 biogás al 60% CH4/kg DQO removido como indicador del 'rendimiento seguro' (Deublin y Steinhauser, 2009, Hall 1992) de la producción de biogás en la digestión de desechos líquidos.

Fuente: Elaboración propia.

Para la cuantificación de las corrientes de desechos sólidos se emplearon los registros gravimétricos tenidos por el centro de producción; donde no se mantenían registros las cantidades fueron medidas durante tres días mediante métodos gravimétricos y/o volumétricos, según posibilidades. Donde solo métodos volumétricos fueron posibles se midió también la

Derechos Reservados COPIMERA 2015

199


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! Para sustratos sólidos, se estimó el potencial de biogás usando el rendimiento específico del sustrato sólido de interés, expresado en función de la materia orgánica biodegradable del sustrato, (‘sólidos orgánicos totales’ o ‘sólidos volátiles’). Los rendimientos específicos empleados (Nm3 biogás a 60% CH4/kg materia orgánica1), fueron documentados en la literatura abierta (principalmente Deublin y Steinhauser, 2009, con referencias a Hoffman, 2003 y Kashani, 2009). Son mediciones del biogás que se puede obtener de la fermentación del sustrato en consideración, y no se refieren a rendimientos teóricos, sino medidos por experimentación. Se suelen expresar como un rango de valores. El potencial de biogás de los sustratos sólidos se calculó usando el promedio de los dos valores extremos del rango cuando se cita más de un único valor (Tabla 2.2).

El potencial nacional de biogás se estimó con base en las estadísticas nacionales de producción disponibles de fuentes oficiales, o de otras (e.g. asociaciones de productores avícolas. El potencial nacional de biogás se estimó con base en las estadísticas nacionales de producción disponibles de fuentes oficiales, o de otras (e.g. asociaciones de productores avícolas). Se realizaron visitas a instalaciones en el país que operan plantas de biogás para conocer los tipos de tecnología usados, capacidades instaladas de planta y órdenes de magnitud de sus costos de inversión, usos dados al biogás, problemas tenidos en el desarrollo y la operación de sus proyectos, etc.

3.+Resultados+ 3.1. Sustratos identificados y manejo Se resumen a continuación para cada centro de producción por sector/actividad analizado, las corrientes de desechos y/o subproductos identificadas que sirvieron de base para nuestras mediciones y su forma actual de manejo.

Tabla 2.2 Rendimientos específicos empleados en la estimación del potencial de biogás de los sustratos sólidos

Sector/actividad Beneficio húmedo de café Ingenio productor de azúcar de caña Empacadora de carne bovina y porcina

Sala de ordeño Granja porqueriza

Granja avícola

Sustrato Pulpa del café Melaza de azúcar

Hoffman

0.3 a 0.7

Deublin y Steinhauser

Harina de carne y hueso

0.8 a 1.2

Deublin y Steinhauser

Sebo

1.0

Estiércol no diluido Cerdaza recuperada de las aguas residuales Estiércol de las aves (gallinaza)

0.6 a 0.8 0.24 a 0.32**

Estiércol, transporte de las aves Harina de plumas Harina de carne

El más común manejo de los efluentes es su tratamiento en lagunas de estabilización, la mayoría de estas trabajando en metabolismo anaeróbico, generando con ello gas metano, emitido a la atmósfera si la laguna no está cubierta. Típicamente descubiertas, presentan a veces problemas como subdimensionamiento y/o sobrecarga, desequilibrio y 'trabe ácido', malos olores, mal manejo de lodos y azolvamiento, canalización y zonas muertas, sangrado de bacterias y/o algas, combustión del gas en la superficie y otros, resultando en subóptima calidad del efluente.

Fuente

0.38

Aves muertas Empacadora de carne de pollo

Rendimiento específico (Nm3/kg MOT*)

Deublin y Steinhauser Deublin y Steinhauser

0.27 a 0.45

Deublin y Steinhauser

0.3 a 0.8

Deublin y Steinhauser

0.3 a 0.8***

Deublin y Steinhauser

0.3 a 0.8

Deublin y Steinhauser

0.14 a 0.48

Kashani

0.8 a 1.2

Deublin y Steinhauser

Las dos primeras anteriores imágenes son, sin embargo, la negación de esa situación y prueba que no todos los sistemas presentan los anteriores problemas; existen sistemas lagunares equilibrados y logrando reducciones notables en las cargas orgánicas, permitiendo reutilización del efluente tratado o descarga a cuerpos receptores. En palma africana, ha habido un desarrollo notable de proyectos de biogás, en tanto sus efluentes, ricos en materia orgánica degradable, presentan altos potenciales de biogás y permiten digestiones más estables sin necesidad de recurrir a adjuntos químicos, que tienen un costo. Después de haber liderado la descontaminación de los efluentes industriales mediante lagunas de estabilización inicialmente descubiertas, la industria de palma africana hondureña está implementando lagunas anaeróbicas cubiertas que le permiten la captura y utilización del biogás generado. Ello ahorra los costos ambientales de la descarga a la atmosfera de un gas de efecto invernadero y permite cosechar el valor de su poder calorífico. En esta rama agroindustrial se han desarrollado la mayoría de proyectos de biogás con orientación a la generación comercial de electricidad, empleándose también para la generación de vapor y calor industrial de uso en los centros de producción mismos, ahorrando con ello costos de combustibles

Fuente: Elaboración Propía.

* MOT = materia orgánica total, en base seca; ** valores corregidos para el estiércol de corral en atención a la contaminación de la muestra con material inorgánico del suelo: ***compost hecho a partir de una mezcla de cuerpos de aves muertas y gallinaza.

!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! 1

3

!Nm !a!1!atm!y!293!K!

Derechos Reservados COPIMERA 2015

200


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! exógenos. No todos las plantas extractoras de aceite de palma operan tales sistemas, sin embargo, y en las otras áreas agroindustriales el impulso al tratamiento de los efluentes ha sido quizá menos vigoroso, y orientado por la conciencia de los impactos de los malos manejos ambientales y de los beneficios logrables, incluyendo ahorros en costos, para aquellos empresarios y productores visionarios que a diversas escalas han implementado soluciones de tratamiento de desechos con aprovechamiento de subproductos. Es importante sistematizar mejor las experiencias realizadas, identificar los posibles problemas y crear los procesos de investigación, aprendizaje y interacción que ayuden a consolidar la capacidad-país en el tema de la digestión de los desechos agroindustriales nacionales.

Se identificó cinco corrientes de subproductos que ya presentan un valor comercial vía venta, o utilización como insumo para otros procesos, a saber, la melaza derivada de la producción de azúcar de caña, la harina de plumas y la harina de carne proveniente de los mataderos de aves, y la harina de carne y hueso y el sebo de los mataderos bovino-porcino. En estos casos, los estimados indicaron que el retorno de su conversión a biogás no excedería los ingresos por su venta.

Tabla 3.1. Sustratos identificados y formas actuales de manejo Sector/actividad Beneficio húmedo de café

Sustrato 1 Aguas residuales del beneficiado 2 Pulpa del café

Extractora de aceite crudo de palma africana

3 Aguas residuales de la extracción de aceite

Ingenio productor de azúcar de caña

4 Aguas residuales del ingenio

Empacadora de carne bovina y porcina

5 Melaza de azúcar 6 Aguas residuales del matadero

Sala de ordeño

Procesadora de leche y lácteos Granja porqueriza

7 Harina de carne y hueso 8 Sebo 9 Aguas residuales de la sala 10 Estiércol no diluido 11 Aguas residuales de la planta procesadora 12 Aguas residuales de la granja 13 Cerdaza recuperada de las aguas residuales

Granja avícola

Empacadora de carne de pollo

14 Estiércol de las aves (gallinaza) 15 Aves muertas 16 Aguas residuales del matadero 17 Estiércol, transporte de las aves 18 Harina de plumas 19 Harina de carne

Manejo actual Laguna de estabilización o descarte directo a cuerpo receptor Apilado y posterior venta para hacer compost Lagunas anaeróbicas cubiertas para producción de biogás, lagunas anaeróbicas descubiertas y lagunas facultativas, o descarte directo a cuerpo receptor Lagunas de estabilización o descarte directo a cuerpo receptor Almacenamiento y venta Lagunas de estabilización o descarte directo a cuerpo receptor Almacenamiento y venta

a)

c)

d)

Fig. 1

Almacenamiento y venta Lagunas de estabilización o descarte directo a cuerpo receptor Producción de compost

3.2. Estudio de caso: Analisis de beneficios húmedos de café A.! Cuantificación y caracterización de desechos; estimación del potencial de biogás del centro de producción de referencia Las mediciones y caracterización de desechos se realizaron en un centro de producción operando desmucilaginado mecánico y pulimento del café desmucilaginado por fermentación. El café cereza del campo se recibe y pesa, y se alimenta al proceso. Se lava con una corriente de agua antes de alimentarse a la despulpadora, máquina que previo al despulpado separa los granos verdes empleando agua. Las aguas del primer lavado del café cereza y de separación de verdes se recogen en una pileta de recirculación para tal uso posterior hasta el momento en el cual, habiendo acumulado mucha materia orgánica, se descartan a una laguna de estabilización, reemplazándose con agua fresca. La intermitencia de dichas descargas se podría disminuir operando una purga continua con una corriente pequeña graduada de agua fresca. El café despulpado se alimenta a la desmucilaginadora mecánica, máquina que opera con agua y remueve el mucilago del café, usando mucho menos agua que la técnica convencional

Lagunas de estabilización o descarte directo a cuerpo receptor Lagunas de estabilización o descarte directo a cuerpo receptor Alimento concentrado

Apilado y venta para abono; producción de compost Compost Lagunas de estabilización Apilado y compost Alimentos concentrados Alimentos concentrados

Fuente: Elaboración propia.

La forma más usual de manejo de los desechos sólidos agroindustriales en el país es su conversión a compost, cosa que permite en alguna medida su valorización.

Derechos Reservados COPIMERA 2015

b)

201


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! de desmucilaginado por fermentación solamente. Esta agua, que contiene el mucílago, se descarta a la laguna de estabilización. Después del desmucilaginado, el café se deja un día en una pileta de fermentación, en contacto con agua, para remover los rastros de mucilago que pudieren haber quedado en el grano. La pulpa se maneja como un desecho sólido, por compostaje.

motores de combustión interna produciendo potencia mecánica para mover la despulpadora y desmucilaginadora, fuere alimentando un conjunto motor/generador de escala apropiada para la producción de electricidad para operarlas. B.! Estimación del potencial sectorial de biogás Con sustento en los anteriores datos y las estadísticas de la producción agregada de café cereza en el país (cosecha 20092010), la Tabla 3.4 presenta el potencial sectorial y energético de biogás para la actividad de beneficio húmedo de la cosecha 2009-2010 de café producido en el país. Se presentan, integrados en una sola tabla, los resultados de los cálculos para ambos sustratos, efluentes y pulpa. Se indica un potencial de biogás de 44.3 MNm3/cosecha, equivalente a 94.1 MWt y 37.6 MWe, que debe apreciarse atendiendo a la composición del sector cafetalero y la duración de la cosecha.

Se identificaron tres corrientes de aguas residuales, a saber, las aguas de descarte de la pileta de recirculación, las aguas de la desmucilaginadora y las aguas de lavado del café postdesmucilaginado. Los volúmenes totales de las aguas de lavado del café post desmucilaginado y aguas de las desmucilaginadora se determinaron midiendo los caudales y registrando la duración de la operación que generaba la corriente. Las aguas de la pileta de recirculación se midieron determinando el volumen neto del agua contenida, previo al descarte. En base a los anteriores datos, se estimó el volumen de efluentes generado en cada corriente. Con sustento en los resultados de laboratorio se estimó la carga orgánica por corriente y la carga orgánica total para la estimación del potencial de biogás.

Tabla 3.2 Cargas orgánicas diarias y biogás equivalente, efluentes, centro de producción de referencia, café

En la Tabla 3.2 se resumen los datos promedio calculados para las corrientes analizadas, y se presentan los estimados del potencial diario y promedio de biogás del centro de producción analizado, al igual que los estimados de potencia térmica y eléctrica equivalente, y los indicadores de producción de efluentes y carga orgánica asociada por unidad de producción de café cereza. La Tabla 3.3 resume los estimados de las cantidades de materia orgánica generada en la pulpa, y el potencial de biogás y energético de este sustrato, para el centro de producción de referencia. Se midió la producción de pulpa en el beneficio húmedo y se encontró que los datos no eran totalmente consistentes debido a la contracción en volumen de la pulpa acumulada al día. Se decidió emplear los datos de rendimientos del balance estándar de materia para el beneficiado húmedo del café y caracterización del contenido de materia seca y materia orgánica seca citados por Steiner (2006) y Hoffman (2003). Bajo un rendimiento supuesto de 0.38 Nm3 biogás al 62%/kg materia orgánica seca, este centro estará produciendo, como promedio de tres días, unos 53.8 Nm3 de biogás al 62% por día de su desecho sólido, la pulpa. Esto se traduce en una potencia equivalente media de 13.9 kWt y, a una eficiencia de conversión térmica a eléctrica del 40%, en unos 5.6 kWe. Considerando ambos sustratos, el potencial medio de biogás del centro de referencia se mide en 93.3 Nm3 de biogás al día (aproximadamente al 61% CH4) que equivalen a una potencia térmica de 23.8 kWt y de 9.6 kWe de potencia eléctrica.

unidades

feb 15

feb 16

feb 17

Gasto total efluentes DQO media, diaria Carga orgánica diaria DQO media, monitoreo

m3/día mg/l kg DQO/día

5.26 10,257 55.4

8.52 14,643 124.8

5.04 13,584 68.5

mg/l

13,209

Eficiencia conversion Biogás diario Biogás promedio, monitoreo PCI biogás, 60% CH4 Energía térmica equiv Potencia térmica equiv Potencia térmica media, monitoreo Potencia eléctrica equiv Potencia eléctrica media, monitoreo Producción diaria Efluentes diarios Tasa producción efluentes Carga orgánica específica diaria Carga orgánica específica, monitoreo

%

90

Nm3/día

26.4

59.5

32.7

Nm3/día

39.5

MJt/Nm3

21.6

MJt/día

570.5

1,285.4

705.4

kWt

6.60

14.88

8.16

kWt

9.88

kWe

2.6

6.0

3.3

kWe

4.0

kg café uva litros l efl/kg café cer kg DQO/kg café cereza kg DQO/kg café cereza

2,388 5,260 2.2

2,204.5 8,520 3.9

2,342.1 5,040 2.2

0.023

0.057

0.029

0.0358

Fuente: Elaboración propia.

Un 41.5% del biogás se produciría a partir de las aguas residuales que cuando no se descartan sin tratamiento a los cauces naturales, se tratan por lagunas de estabilización. Un 58.5% de dicho gas se derivaría de la pulpa, siendo entonces este sustrato relativamente más importante en la producción de gas. La cosecha cafetalera dura solamente 4 meses al año,

Es altamente probable que la disponibilidad energética del biogás contribuya ostensible, sino totalmente, a la cobertura de la demanda energética del beneficio, fuere alimentando sendos

Derechos Reservados COPIMERA 2015

Parámetro

202


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! motivo por el cual si bien dicha potencia es significativa, la energía asociada será de 1/3 de la que se produciría de operar todo el año.

investigación entre las 9 actividades agroindustriales analizadas y se resume en la Tabla 3.5. Cinco de esos sustratos, marcados en rojo, tienen precios comerciales que hacen su venta más atractiva que su conversión a biogás, con lo cual el potencial nacional de biogás bruto debe corregirse por tal diferencia. A continuación se resumen los hallazgos más relevantes:

El sector cafetalero, de unos 92,700 productores al 2009/10, está notablemente segmentado. Cifras del IHCAFE (2011) para la cosecha 2009-2010 señalan que mientras que el 50% de la cosecha de café fue generada por 46,485 beneficios húmedos de entre 5 y 20 quintales café oro por cosecha (0.25 a 1 qq cereza/dia), 172 beneficios produjeron arriba de 1,000 quintales café oro por cosecha (50 qq cereza/día), contribuyendo con el 7.63% de la producción total. El segmento que produce entre 100 y 200 quintales café oro/cosecha (5 a 10 qq cereza/día) representa el 5.91% de los productores (5,480) y hace la contribución relativa más grande a la cosecha, el 17.87%.

El potencial bruto nacional de biogás de 430 MNm3 biogás a (60% CH4)/año representa un total de 448.4 MWt de potencia térmica, equivalentes a unos 180.8 MWe de potencia eléctrica, al supuesto de conversión térmica a eléctrica del 40% usado en el análisis. 105.6 MWt y 43.7 MWe de éstos estarían disponibles solamente en la duración de la zafra azucarera (6 meses); 133.2 MWt y 53.3 MWe de éstos estarían disponibles nada más durante la cosecha de café (4 meses). Lo anterior resulta en 1,081,443 MWh de energía eléctrica al año disponibles en un escenario de perfecto cumplimiento de los potenciales de producción y generación eléctrica implícitos, significando esos valores los potenciales máximos bajo los supuestos señalados. El valor total de mercado de la electricidad equivalente a dicho potencial bruto es del orden de 118.9 MUSD/año (unos 2,262 MLps/año) estimado a razón de US$ 110/MWh.

Tabla 3.3 Materia orgánica diaria y biogás equivalente, pulpa, centro de producción de referencia, café Parámetro Rendimiento en pulpa Pulpa producida Materia seca en pulpa Materia seca producida Materia orgánica en materia seca Materia orgánica seca total Potencial especifico de biogas Biogás diario Biogás promedio, monitoreo

unidades kg pulpa/kg café cereza kg pulpa/día kg materia seca/kg pulpa kg materia seca kg materia orgánica/kg materia seca kg materia orgánica/día Nm3 biogás @ 62% CH4/kg MSO Nm3 biogás/día 3 Nm biogás/día

PCI biogás @ 62% CH4 Energía térmica equivalente Potencia térmica equivalente Potencia térmica media, monitoreo Potencia eléctrica equivalente Potencia eléctrica media, monitoreo

feb 15

feb 16

feb 17

0.407 971.9

897.3

953.2

Tabla 3.4 Potencial nacional de biogás, café

0.1623 157.7

145.6

154.7

Parámetro Producción nacional de café cereza, 2009-2010 Carga orgánica total, efluentes derivados

0.928 146.4

135.1

143.6

0.38 55.6

51.3

Biogás equivalente, efluentes Duración cosecha Potencia térmica equivalente, efluentes Potencia eléctrica equivalente, efluentes

54.6

53.85 MJ/Nm3

22.3

MJ/día

1,240

1,145

1,217

kWt

14.4

13.3

14.1

kWt kWe

Pulpa producida Materia seca en pulpa Materia seca orgánica en pulpa Biogás equivalente, pulpa

13.9 5.7

kWe

5.3

Potencia térmica equivalente, pulpa Potencia eléctrica equivalente, pulpa

5.6

5.6

Fuente: Elaboración propia

Biogás total, efluentes + pulpa Potencia térmica equivalente, efluentes + pulpa Potencia eléctrica equivalente, efluentes + pulpa

Las anteriores cifras sugieren que en el sector cafetalero existe espacio para la implementación de tecnologías de pequeña y mediana escala para la producción de biogás principalmente. Es importante alentar la investigación en el sector cafetalero y otros para desarrollar e implementar tecnologías viables, sostenibles y más apropiadas para la digestión de los desechos orgánicos y la producción de biogás. 3.3 Potencial bruto y neto nacional de biogás El potencial bruto nacional de biogás se derivaría de la digestión de 19 sustratos líquidos y sólidos identificados por la

Derechos Reservados COPIMERA 2015

Unidades kg café cereza*

Valor 1,097,206,114

kg DQO/cosecha

39,333,092

3

Nm biogás @ 60% CH4/cosecha meses MWt

18,761,885 4 39.09

MWe

15.6

kg/cosecha kg MS/cosecha Kg MSO/cosecha

446,562,888 72,477,157 67,258,801

Nm3 biogás @ 62% CH4/cosecha MWt

25,558,345 55.0

MWe

22.0

Nm3/cosecha

44,320,230

MWt

94.1

MWe

37.6

Fuente: Elaboración propia.

* 5.75 kg café cereza = 1 kg café oro La energía total disponible de estos sustratos podría incrementar si los dispositivos de combustión y generación empleados lo

203


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! permitiesen. En tal sentido, la mayor eficiencia obtenible empleando calderas de vapor y turbinas eléctricas por sobre las obtenibles mediante motores de combustión interna acoplados a generadores eléctricos (este último, el modelo implícito en las estimaciones acá presentadas) debe considerarse a la hora de contemplar la inserción de sistemas de biogás en esquemas de co-generación existente o proyectados.

motores de despulpadora y desmucilaginadora en beneficios húmedos). En el sector ganadero (salas de ordeño), impulsar proyectos de biogás demandará toda una ‘revolución tecnológica’ siendo que la usanza generalizada es el pastoreo extensivo en potreros y el ordeño en corrales, cosa que impide, o dificulta, la colección del sustrato más interesante para biogás, el estiércol bovino. Hay que reconocer además que existen estas limitaciones en algunos sectores que se deben vencer para poder articular proyectos provechosos de biogás. La modificación de las prácticas habituales de manejo de ganado en el país podría acarrear consecuencias ambientales y socioeconómicas muy positivas. Un manejo mejor integrado y más provechoso de los desechos animales permitiría la producción de biogás para la generación eléctrica y/o térmica necesaria para el enfriamiento y manejo de la leche en centros de ordeño.

La melaza de la caña de azúcar, la harina de plumas del procesamiento de las aves para la producción de carne y pollos empacados, y la harina de carne y hueso y el sebo que se recuperan en las empacadoras de carne bovina y porcina, 5 subproductos, tienen actualmente precios de venta que no justificarían su conversión a biogás. Deducciones hechas, el potencial neto de biogás es de 366.1 MNm3 (biogás a 60% CH4)/año, equivalentes a 365.9 MWt y 146.7 MWe, que representan el 85.1% del potencial bruto original (920,308 MWh/año). La energía eléctrica asociada tendría un precio de mercado de unos 102.1 MUSD/año (1,942.9 MLps/año; 1 USD = 19.03 Lps) bajo el anterior supuesto, y representaría el 14.7% de la generación nacional al año 2010, reportada en 6,278.8 x 106 kWh (Banco Central de Honduras (2013): 'Honduras en cifras'). El potencial de biogás y sus equivalentes térmico y eléctrico, aunque no lucen muy grandes en relación a la demanda eléctrica nacional, son nada despreciables.

Las plantas extractoras de aceite de palma africana, las granjas porquerizas y los ingenios azucareros contribuirían con el 11.6, 9.3 y 5.3% del potencial neto nacional de biogás, respectivamente. De estas, la extracción de aceite de palma y los ingenios son candidatos para la digestión a más grande escala, siendo que estos sectores presentan una relativamente alta concentración de las unidades de producción a nivel nacional pues solo existen 7 ingenios azucareros y 12 plantas extractoras de aceite de palma africana en el país, mismos que operan a mayores escalas que sus pares en otras actividades. Trabajando a esas escalas, las extractoras e ingenios, que aparte de efluentes y otros desechos biodegradables que pueden emplearse para la producción de biogás producen biomasa en la forma de fibra de palma y bagazo, son energéticamente autosuficientes y pueden además generar excedentes energéticos comerciables. Estos centros de producción son los indicados para la generación eléctrica tanto con fines de consumo propio como de venta a la red nacional.

Las tres actividades productivas que mayores aportes harían al potencial nacional de biogás son las granjas avícolas (30.0 y 35.3% del potencial bruto y neto nacional resp., del cual la ‘gallinaza’ representa el 28.3 y 33.2% de dicho bruto y neto nacional, resp.), las salas de ordeño, (19.7 y 23.1% del neto bruto y neto nacional, el estiércol no diluido de salas y corrales representando el 17.8 y 20.9% del potencial bruto y neto nacional), y los beneficios húmedos de café (usando aguas de desmucilaginado y pulpa de café, un 10.3 y 12.1% del potencial bruto y neto nacional, aportes más o menos similares de ambos sustratos). Las tres anteriores actividades abonarían el 70.5 % del potencial neto nacional de biogás.

Por las características propias de sus residuos líquidos, las plantas extractoras de aceite significan un potencial muy interesante, en tanto generan aguas residuales que reportan las más altas concentraciones de materia orgánica de todos los desechos líquidos encontrados y producen efluentes que pueden generar, por las características propias de su composición y metabolismo, procesos digestivos estables. Es en este sector en el cual, principalmente, se han desarrollado los proyectos industriales de biogás existentes en el país. En buena medida dichos proyectos han operado sistemas de generación de biogás mediante lagunas anaeróbicas cubiertas. Esta tecnología, bien implementada, permite también el uso del efluente final es esquemas de ferti-riego de las plantaciones de palma. Se registra una unidad de producción que opera una tecnología de digestores mediante tanques agitados.

Para ponderar la concretización de proyectos de biogás hay que considerar la naturaleza y composición de los sustratos y la concentración de las unidades de producción en las diversas actividades agroindustriales -cosas que influencian el tipo de tecnología más apropiada y su escala de implementación. Las granjas avícolas y los beneficios de café presentan significativa segmentación en las escalas de producción de los centros productivos; en ambos sectores, con buen manejo, se permite la fácil colección para transformación a biogás de los desechos degradables. Este sector invocaría la necesidad de sistemas de digestión a pequeña y mediana escala, generando cantidades de biogás que podrían ser principalmente utilizadas para satisfacer, total o parcialmente, las necesidades energéticas del centro mismo (e.g. generación eléctrica de baja potencia para

Derechos Reservados COPIMERA 2015

El sector azucarero, si bien ha iniciado en alguna medida el tratamiento de sus efluentes en años recientes a través de

204


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! lagunas de estabilización, aun no implementa proyectos de recuperación y utilización de biogás. Se requiere de investigación aplicada en este sector a efectos de establecer la tecnología más apropiada para el propósito. Los efluentes azucareros, si bien de fácil digestión, pueden presentar problemas de estabilidad que pueden requerir sufragar costos de químicos alcalinizantes que deberían usarse para lograr digestiones estables. Las procesadoras de leche y productos lácteos, las empacadoras de carne de pollo y las procesadoras de carne bovina y porcina son las actividades que menores contribuciones relativas tienen que hacer al potencial neto nacional de biogás. Representarían el 2.1, 1.1 y 0.23% de dicho potencial, respectivamente, aunque la posibilidad de articulación de proyectos de captura y valoración del biogás, quizá con un enfoque en la sustitución parcial de combustibles empleados en la producción de vapor, o la producción de frío, no debe descartarse como opción para estos centros de producción.

energético nacional, en función de las dos variables principales que determinan la selección tecnológica, la escala de producción y la composición del sustrato. Cerca del 70% de dicho potencial se asociaría a unidades pequeñas y medianas de producción en el beneficiado húmedo de café, granjas avícolas y salas de ordeño, cosa que condiciona al uso de similares tecnologías de digestión, mismas que, obligadas por la propia escala, probablemente no generarían excedentes energéticos para la venta comercial por encima de sus propias necesidades, con lo cual el mejor enfoque para la utilización del biogás en estas actividades es en la respuesta a sus propias necesidades energéticas. Unidades de producción que operan a mayores escalas, como las plantas extractoras de aceite de palma y los ingenios azucareros, generarán cantidades totales de desechos (incluyendo biomasa para la combustión) que permitirían satisfacer sus propias necesidades energéticas y producir un excedente comerciable en esquemas de cogeneración en los cuales el biogás puede ser un combustible complementario. Mientras se han dado desarrollos interesantes de proyectos de aprovechamiento de biogás y los subproductos de su generación (fertilizante orgánico liquido) en palma africana, existe mucho espacio para mejoría en las otras actividades agroindustriales. Esta investigación no se enfocó en desarrollar un recuento de experiencias en tal sentido, y ese tema amerita investigación, como también lo amerita el análisis de las opciones tecnológicas para el mejor aprovechamiento del potencial de biogás de las varias posibles fuentes de su producción a nivel agroindustrial en el país.

Debe de notarse que en la actualidad, dados los patrones de manejo de efluentes agroindustriales, la vasta mayoría de las emisiones de metano derivado de la digestión de los desechos agroindustriales, ya sea que dichas emisiones ocurran desde unidades de tratamiento como lagunas de estabilización descubiertas, que son la forma mas común practicada en el país, ya sea que se generen de la descomposición natural, no controlada, de desechos vertidos al ambiente, tiene a la atmósfera como sumidero final; del total antes referido, solamente unos pocos proyectos existentes, principalmente en el sector palmero, estarían cosechando y quemando dicho metano, provechosamente o no. Estos, y otros posibles proyectos en otras áreas productivas, sumarian cerca del 10% de las emisiones estimadas. Es decir, cerca del 90% de la producción de biogás nacional de estos sustratos se está actualmente descartando a la atmósfera. De regularse lo anterior e implementarse proyectos viables de manejo y aprovechamiento del biogás, el país podría disminuir sensiblemente su contribución al calentamiento global de tales fuentes, a la vez que engendrar principalmente ahorros energéticos, y algunos ingresos por la venta de energía.

5.+Referencias+ 1.! Deublin, D. y Steinhauser, A. (2009): ‘Biogas from Waste and Renewable Resources, An introduction’, Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim 2.! Hoffman, M, Baier, U. (2003): ‘Vergarung von Pulpa aus der Kaffee Produktion’, HSW Hochschule Wadenswil, Bundesamtes fur Energie, Wadenswil

4. Conclusiones

3.! Kashani, A.K. (2009): ‘Application of Various Pretreatment Methods to Enhance Biogas Potential of Waste Chicken Feathers’, Tesis de maestría en Ingeniería Ambiental, Escuela de Ingeniería, Universidad de Boras, Suecia.

El potencial nacional de biogás derivado de la digestión de los desechos orgánicos biodegradables de las 9 principales actividades agroindustriales nacionales, estimado en unos 430 Nm3 biogás @ 60% CH4, y evaluado en unos 146.7 MWe como indicador medio, cosechado íntegra y provechosamente para ser convertido en electricidad, permitiría producir unos 920,308 MWh/año y responder a un 14.6% de la demanda nacional eléctrica del 2010. Aunque relativamente modesto, dicho potencial no es despreciable.

4.! Steiner, R., (2006): ‘Utilización energética de residuos orgánicos en la industria bananera, cafetalera y azucarera en Costa Rica’, Trabajo de tesis, Postgrado en Ingeniería Ambiental, Hochschule fur Life Sciences.

Las mejores formas de aprovecharlo deben ser investigadas y definidas en una estrategia para la racionalización del consumo

Derechos Reservados COPIMERA 2015

205


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! Tabla 3.5 A : POTENCIAL BRUTO DE BIOGAS NACIONAL Y POTENCIAS TERMICA Y ELECTRICA ASOCIADAS, actividades agroindustriales principales en la República de Honduras No.

Sector/actividad

Sustrato/desecho

1

Granjas avícolas

Estiércol de las aves (gallinaza) Compost, aves muertas TOTAL

2

3

4

5

Salas de Ordeño

Ingenios azucareros

Beneficios húmedos de café

Extractoras de aceite de

Potencial de biogás Nm3/año

% nacional por sustrato

Potencia disponible MWt MWe

121,499,530

28.25

83.22

33.29

7,680,324

1.79

5.26

2.10 35.39

129,179,854

30.04

88.48

Aguas residuales de la sala

8,010,777

1.86

5.49

2.19

Estiércol no diluido

76,534,512

17.80

52.42

20.97

TOTAL

84,545,289

19.66

57.91

23.16

Aguas residuales de ingenio

19,278,134

4.48

25.55

10.57

Melaza

60,453,706

14.06

80.13

33.14

TOTAL

79,731,841

18.54

105.68

43.71

Aguas residuales de beneficiado

18,761,885

4.36

39.09

15.63

Pulpa de café

25,558,345

5.94

94.06

37.62

TOTAL

44,320,230

10.30

133.15

53.26

Aguas residuales de extracción aceite crudo

42,347,089

9.85

29.00

11.60

Aguas residuales de la granja

33,028,778

7.68

22.62

9.05

935,452

0.22

0.64

0.26

palma africana 6

Granjas porquerizas

Cerdaza recuperada de las aguas residuales TOTAL

33,964,230

7.90

23.26

9.30

7

Procesamiento de lácteos

Aguas residuales de la planta procesadora

7,527,018

1.75

5.16

2.06

8

Empacadoras de carne

Aguas residuales del matadero

1,029,294

0.24

0.70

0.28

de pollo

Estiércol, transporte de aves

9

73,432

0.02

0.02

0.02

Harina de plumas

1,081,947

0.25

0.74

0.30

Harina de carne

2,974,884

0.69

2.04

0.82

TOTAL

5,159,557

1.20

3.50

1.41

854,984

0.20

0.59

0.23

2,224,784

0.52

1.52

0.61

230,958

0.05

0.16

0.06

3,310,726

0.77

2.27

0.91

430,085,833

100.00

448.41

180.81

Empacadoras de carne

Aguas residuales del matadero

bovina y porcina

Harina de carne y hueso Sebo TOTAL POTENCIAL BIOGAS y ENERGETICO TOTAL

Fuente:!Elaboración!!propia.!

Derechos Reservados COPIMERA 2015 ! !

206


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Derechos reservados COPIMERA 2015

!

!

207


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

!

PERSPECTIVA!DE!LA!ENERGÍA!FOTOVOLTAICA!EN!GUANTANAMO!HACIA!EL!2030! 1

Fernández Salva, Gustavo E. 2Torres Martínez Eric, 2Pérez Márquez Mario, 2Hermosilla Moreno Gabriel, Rustán Aspiazú Ana Liliet,. 6Toledano Gómez Inés María. 3Soto Agüero Rafael, 3Mustelier Pardo Ramón 3 Bayeux Quiroga Odelmys, 3García Infante Ernesto 4Blanco Domínguez Mara , 5Paruas Cuza Rafael.

2

1

!

ONURE. MINEM. Guantánamo. Cuba. E-mail: paruas@gtmo.copextel.com.cu, gfsalva@elecgtm.une.cu., 2 Estudiantes Facultad de Ingeniería Eléctrica. Universidad de Oriente. 3Empresa Eléctrica Guantánamo. MINEM. Cuba, 4 Instituto de Planificación Física. IPF. Cuba. 5 COPEXTEL S.A.

! !

Resumen! Se expone el potencial estudiado de energía fotovoltaica en la más oriental de las provincias cubanas. Se da a conocer la política trazada acerca de los grandes parques y de los sistemas pequeños con inyección a Red. Se traza la perspectiva de las viviendas aisladas con sistemas fotovoltaicos autónomos hasta el 2030.

Tabla 1. Potenciales estudiados en Fotovoltaica Guantánamo.

Introducción Cuba debe seguir la estrategia energética más segura, limpia y sustentable de energía, o lo que es lo mismo, escoger o involucrarse de lleno en el camino de las fuentes renovables lo cual constituye una necesidad de primer orden para sustituir las fuentes energéticas de combustibles fósiles expuestos a las subidas de precios en el mercado internacional, reduciendo así la dependencia de los combustibles importados. Es un hecho que las fuentes no renovables se agotarán, pero mientras tanto la dependencia de dichas fuentes estará provocando crisis en la economía del país. [5]

Potencia MWp

Santa Teresa –Los Guiros III

34

20

Energía a producir MWh/a 31369,6

2

El Peral

70

40

62739,2

3

Oeste Fábrica Conservas

58

30

47054,4

4

Este Fábrica de Conservas

68

35

54896,8

Sub Total

230

125

196060

Sub 110 kV –

10

7

10929,36

1,5

1

1568,48

8

5

7842,4

Área

1

5

Batería Diesel 6

Batería Diesel La Yaya

Una posible alternativa para atenuar esta situación es la transformación de la matriz energética cubana donde las fuentes renovables ocuparan el 24 % de dicha matriz y la energía solar representará el 3 % de toda la configuración energética propuesta, alcanzando el país para el 2030 los 700 MWp en dicha energía pudiéndole ahorrar a la economía cubana por concepto de combustible fósil dejado de quemar aproximadamente más de 3 000 millones de ton y generando una energía que sobrepasa los 10 000 GWh/año.[6]

7

Subestación Los Siguatos SAS

8

Subestación Imías

1,5

1

1568,48

9

12 Entidades

8,3

5,5

8626,64

Sub Total

29,3

19,5

TOTAL

259,3

144,5

directos a consumidores

DESARROLLO. MATERIAL Y METODO.

30535,36 226195,36

Fuente: Elaboración propia.

El Potencial estudiado en Fotovoltaica según Fernández Salva, Blanco Domínguez Mara, Soto Agüero Rafael, Toledano Gómez Inés María y otros en 2013 se muestra a continuación: Derechos reservados COPIMERA 2015

Superficie (hectáreas)

No.

La Ciudad de Guantánamo durante todo el año recibe una radiación solar promedio diaria de 5,76 kW-h/m2, un poco

208


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

mayor de la media anual, lo que la hace muy atractiva para el desarrollo de la energía fotovoltaica. En este sentido la provincia de Guantánamo jugará su rol en la matriz energética por sus favorables condiciones para el desarrollo de la fotovoltaica le corresponden 30 MWp, de los 144,5 MWp según el potencial descrito en la Tabla 1, estos 30 MWp representan el 71 % de la máxima demanda diurna de la cabecera provincial, teniendo como premisas fundamentales la no emisión de 40 171 ton/CO2/año pudiendo ahorrar 12 810 ton./año de combustibles fósiles y 17 070 MUSD/año pudiéndose apreciar el orden de prioridad de las obras en la provincia, tal y como se muestra en el Anexo 1. [7,8].

zona residencial, específicamente en edificios multifamiliares, dicho sistema estará interconectado a la red de la empresa distribuidora con el objetivo que en el momento en que exista un déficit entre la demanda de electricidad por los clientes, respecto a la generación fotovoltaica, esta diferencia sea cubierta por electricidad proveniente de la red eléctrica convencional. En caso contrario, cuando se presenta un excedente entre la demanda respecto a la generación fotovoltaica, éste es inyectado directamente a la línea de distribución del SEN.

Tabla 2. Orden de prioridad del programa de los 30 MWp aprobados. N o

Municipio

1

Guantánamo

2

Guantánamo

3

Imías

4

Guantánamo

5

San Antonio

6

Niceto Pérez

7

Guantánamo

8

Guantánamo

9

Guantánamo

10

Guantánamo

11

Guantánamo

12

Guantánamo

13

Guantánamo

Nombre del PSFV Sta. Teresa 1 (Los Guiros ll) Sta. Teresa 2 (Los Güiros ll) Imías Sub 110 Batería Diésel Los Siguatos La Yaya Sta. Teresa 3 (Los Guiros ll) Sta. Teresa 4 (Los Guiros ll) Sta. Teresa 5 (Los Guiros ll) Sta. Teresa 6 (Los Guiros ll) Sta. Teresa 7 (Los Guiros ll) Sta. Teresa 8 (Los Guiros ll) Sur-Oeste Fca. de Conserva

Ubicación/ Coordenadas

Área (ha)

Poten cia (MW )

X

Y

669977

163105

4.3

2.5

669977

163105

3.4

2.5

728040

159460

1.7

1.0

666810

165450

3.4

2.0

707940

156840

8.5

5.0

657660

164680

1.7

1.0

669977

163105

4.3

2.5

669977

163105

4.3

2.5

669977

163105

4.3

2.5

669977

163105

4.3

2.5

669977

163105

4.3

2.5

669977

163105

4.3

2.5

674099

165672

3.4

1.0

52.2

30.0

TOTAL

Figura 1.- Área de análisis para el montaje de los Paneles fotovoltaicos. Zona residencial Reparto Caribe. En la proyección de la fotovoltaica correspondiente a los 30 MWp aprobados hasta el 2030 en la actualidad se tiene construidos 4,5 MWp en dos etapas: la primera de 2,5 MWp con paneles FV de 240 w e inversores de 17 kW, las mesas que soportan los paneles con 15 grados de inclinación con respecto al suelo, orientados al sur y una segunda de 2,0 MWp con paneles de 250 w e inversores de 900 kW con la misma inclinación y arreglo de las mesas de 2x5. Se prevé que el diseño de los nuevos parques hasta completar los 25,5 MWp restantes, en las áreas aprobadas, estén orientados al sur con paneles de 250 w de silicio cristalino con inversores de 900 kW y 500 kW, la generación anual será de 50 213 MW.h anuales, la no emisión de 40 171 ton/año CO2 pudiendo ahorrar 12 810 ton/año de combustibles fósiles y más de 17 millones de USD/año. Las pérdidas calculadas en líneas, transformadores y otras no sobrepasarán del 3,5 % de la generación anual. El Tiempo de recuperación de la inversión 10 años es alto, si se tiene en cuenta el precio de venta actual de la Unión eléctrica y el cálculo del ahorro de combustible que toman valor positivo en el flujo de caja, frente a los aun altos precios de paneles, inversores construcción y otros componentes. El desarrollo de estos 25,5 MWp deberá ser realizado de manera continua en un periodo no mayor a 7 años.

Fuente: Elaboración propia. Al realizar el diagnóstico se tiene que en el sector residencial se consume el 63 % del consumo de electricidad total de la provincia, de ahí la importancia de invertir en fuentes renovables de energía efectivas que amortigüen la demanda y conectadas lo más cercano a los consumidores residenciales por representar además el de mayor por ciento de pérdidas técnicas de energía eléctrica. Se estudia un proyecto para realizar la instalación de un Sistema Fotovoltaico (SFV) para generar energía eléctrica en

Derechos reservados COPIMERA 2015

209


! XXV$CONGRESO!PANAMERICANO!DE!INGENIERIA!MECÁNICA,!ELÉCTRICA,!INDUSTRIAL!Y!RAMAS!AFINES! COPIMERA! OCTUBRE!8$10,!2015,!Tegucigalpa,!Honduras.!

, MWH 2800.000 2400.000 2000.000 1600.000 1200.000 800.000 400.000 0.000

de gran calidad ecológica, sin mencionar el alivio de pérdidas de energía al sistema de distribución y la disminución de pérdidas por transporte de energía.

GENERACION4ANUAL4DEl4PFV4

BIBLIOGRAFIA [1] Arrastía Ávila Alberto Mario y Corp Linares Sergio. Energía, El Invencible Dios Sol. Editorial CientíficoTécnica.2013 ISBN: 9789590506826. /Contra portada/Pág. 45 MESES

[2]http://www.ecocitizenaustralia.com.au/charles-edgar-frittssolar-power- pioneer. [3]http://www.terna.it/default/Home/AZIENDA/sala_stampa/ tutti_comunicati_stampa/cs_2012/cs_ag2012/Stazionari_cons umi_energia_elettrica_agosto_2012.aspx.

Figura 2. Generación anual por meses de 15,5 MWp en Santa Teresa.

[4]http://www.bdew.de/internet.nsf/id/20121105-pisolarstromerzeugung-steigt-weiter-stark-an-de.

En la provincia a pesar de poseer más de 1 600 sistemas fotovoltaicos aislados en viviendas, consultorios médicos, hospitales rurales y otros objetivos económicos y sociales aún existen más de 6 000 viviendas que no poseen electricidad por ninguna vía. Se estima que electrificar estas viviendas por sistemas fotovoltaicos con 1 panel de 250 w, regulador e inversor, y 1 banco de baterías, no sería la solución más económica, pero pudiera ser la definitiva al 100 % de electrificación. Esto debe estudiarse en el ámbito del desarrollo local dé cada municipio y adecuarlo a otras formas de obtención de energía: hidráulica, eólica, biomasa, etc.

[5] Moreno Figueredo Conrado. Cuba hacia 100 % con energía renovables. Revista energía y tú .N0 62(abril-junio, 2013) ISSN: 1028-9925/Pág11. [6] Mapa de inversiones fundamentales de energía renovables/ abril 2014. [7] Presentación de instalación de parques fotovoltaicos con inyección a red en la provincia Guantánamo. Fernández Salva Gustavo, Blanco Domínguez Mara, Soto Agüero Rafael. 2013. [8] Toledano Gómez Inés María, Ramírez López Mabel, Matos Álvarez Ismael. XI Taller Internacional Cubasolar 2014.Parque Fotovoltaico Santa Teresa, retos de la inversión. [9] Stolik Nóvgorod Daniel. Conferencia Magistral. La energía fotovoltaica y Cuba, fotovoltaica para inversionistas. / Habana. 2013. [10] Partido Comunista de Cuba. Lineamientos de la política económica y social del partido y la revolución POLITICA ENERGETICA. 247-2012. [11] Camejo Cuan José Emilio, Rivas Prietos Heber y Ramos Heredia Rubén. Conectar el sol a la red. Revista energía y tú .N0 57 (enero- marzo, 2012) ISSN: 1028-9925/Pág11-16. [12] http://www.monografias.com/trabajos82/energia-solarfotovoltaica-y-sus aplicaciones. [13] Sarmiento Sera Antonio. Energía Solar Fotovoltaica. Temas Seleccionados. Editorial Academia. Cuba. 2013. ISBN: 978-959-270-278-3. [14] http://www.economist.com/blogs/graphicdetail/2012/12/daily -chart-19. [15] Stolik Nóvgorod Daniel. Conferencia Magistral. Estrategia Fotovoltaica en Cuba, Seminario UNE. / Habana. 2014. [16] Stolik Nóvgorod Daniel, Cien Preguntas y Respuestas sobre la Energía Fotovoltaica 2. Revista Energía y Tú. No 59 (julio-septiembre, 2012) ISSN: 1028-9925/Pág.7-11.

También se utiliza este tipo de energía en pequeños bombeos solares en la agricultura y frente a la situación epidemiológica en sistemas de cloración de agua en acueductos rurales.

Conclusiones!y!Recomendaciones! Mediante el montaje de instalaciones fotovoltaicas en zonas residenciales se puede pronosticar que se dispondrá del 82.5 % de la energía generada por el SFV y el restante 17,5 % se inyectará a la red. Por concepto de reducción de pérdidas en los circuitos secundarios se logrará ahorrar el 29 % de las pérdidas en dichos circuitos Desarrollar los 30 MWp en la fotovoltaica a red representará cubrir con esta tecnología el 71 % de la máxima demanda diurna de la ciudad Guantánamo, la generación anual será de 50 213 MW.h anuales, la no emisión de 40 171 ton/año CO2 pudiendo ahorrar 12 810 ton/año de combustibles fósiles y más de 17 millones de USD/año. Las pérdidas calculadas en líneas, transformadores y otras no sobrepasarán del 3,5 % de la generación anual. Las pérdidas de energía en líneas primarias se reducirán en 1 065,9 MW.h y 312,05 MW.h para los municipios Imias y San Antonio del Sur por encontrarse ambos en un extremo del SEN. Imprescindible tener en cuenta que el precio de la energía generada por SFV deberá ser mayor que el de la energía generada por combustibles fósiles proveniente de la red, ya que la energía entregada al sistema supone beneficios como la no dependencia del país de la importación de combustibles fósiles, la reducción del deterioro ambiental, por ser energía Derechos reservados COPIMERA 2015

.

210


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Derechos reservados COPIMERA 2015

!

!

211


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+

LA+SOSTENIBILIDAD+DEL+BIOGÁS+Y+EL+ROL+DE+LA+MUJER+EN+EL+CONTEXTO+ DEL+MUB+ Dr. José Antonio Guardado Chacón Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba, UNAICC La Habana,Cuba !

RESUMEN+

del biogás, que adquiere un gradual interés por su vinculación con los principales problemas que enfrenta el mundo de hoy (agua, alimentación, energía y medio ambiente). Para nadie es un secreto, que la situación económica y social de los países en desarrollo se agudiza más cada día. Tal realidad, particularmente en el medio rural, plantea la necesidad de elevar el poder creativo de la gente, de los profesionales del agro, de las instituciones del estado, aprovechando, al mismo tiempo, las particularidades de cada país o región. En consecuencia y dentro de estas particularidades a nivel local, la implementación del biogás y su sostenibilidad se ha visto influenciada directamente por el rol que ha jugado la mujer dentro del movimiento de usuarios del biogás en Cuba, tanto por su labor en el hogar como por su participación socialprofesional. !

El Movimiento de Usuarios del Biogás (MUB) en Cuba, ha venido desarrollando acciones diversas para la implementación y extensión del biogás como fuente renovable de energía. Dicho movimiento ha ido consolidando sus resultados a través de los Encuentros de Usuarios del Biogás (EUB), que se desarrollan desde 1994 a nivel local y desde el 2008 a nivel nacional. Ello ha permitido que un grupo cada vez mayor de la población, pueda acceder al uso de ese portador energético, y contribuir a la mejora de sus condiciones de vida. Las numerosas experiencias acumuladas en este campo con la acción participativa de todas las partes involucradas, han hecho posible su desarrollo de manera sostenible en nuestro país. Para ello, anualmente se valoran y socializan los resultados con intercambios de experiencias y lecciones aprendidas en el contexto del citado movimiento. Este convivir con esfuerzos propios de la sociedad cubana, caracterizado por la solución de los problemas de diseños que se adecuan a las características de los usuarios y en condiciones económicas adversas, ha logrado un trabajo de sensibilización sostenible, entre otras razones, por el rol que ha jugado la mujer. Estas particularidades y otras relacionadas con los saberes del biogás, se abordan en el presente trabajo.

NOMENCLATURA+ MUB – Movimiento de Usuarios del Biogás EUB – Encuentro de Usuarios del Biogás GBV – Grupo de Biogás Villa Clara

+ + GENERALIDADES+

+

Los sistemas de tratamiento con biogás, constituyen una vía de incalculable valor, que está siendo desaprovechada en la práctica de lo que hemos denominado "Agricultura Sustentable" en su concepción más amplia a pequeña y mediana escala. Estos sistemas preservan, además, el medio ambiente y mejoran las condiciones de vida del productor en las disímiles condiciones en que vive. El éxito de las actividades que involucran estos sistemas, sólo es posible si se logra una buena

INTRODUCCIÓN+ En Cuba, la implementación y desarrollo del biogás, hay que analizarlos dentro del contexto en el que se ha desarrollado la agricultura. La diversidad práctica y formas en que participa la población cubana en la producción de alimentos en sentido general, no puede ser ignorada. De este carácter participativo, también se ha ido nutriendo la implementación de la tecnología Derechos reservados COPIMERA 2015

212


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

orientación y se comprenden bien los beneficios que ellas reportan, cuando son conjugadas de manera adecuada en un entorno dado. Se trata de que los insumos que entren al sistema de tratamiento sean aprovechados energéticamente y que los residuos puedan reutilizarse en la misma dinámica productiva con sus correspondientes impactos positivos en el orden económico, social y ambiental. El tratamiento de las aguas residuales o residuos de origen orgánico mediante la tecnología del biogás, propicia una reducción de hasta un 90% de la carga contaminante (DBO5) y también de los microorganismos patógenos presentes en esos desechos. Dichos desechos, en particular las excretas generadas por los animales, son causante de enfermedades diarreicas agudas y en ocasiones de enfermedades mortíferas como el cólera. Por ello, entre otras razones, el biogás es considerado una solución alternativa para el saneamiento ambiental y por ende, uno de sus mejores aliados. La tecnología del biogás, está basada en la descomposición de la materia orgánica, bajo la actividad de bacterias en un medio dado y en ausencia de oxígeno. Este proceso denominado digestión anaeróbica ocurre en cuatro etapas. Dos de ellas fundamentales: la ácida y la metanogénica. La primera encargada de eliminar un número importante de microorganismos patógenos y la segunda (última del proceso), responsable directa de la producción de biogás (CO2 y CH4). El efecto de estos gases en el planeta puede atentar contra el normal desarrollo de la vida humana. De aquí que en ocasiones, se pueda comparar los efectos del biogás con los del átomo, es decir, ambos se pueden poner en función del bien o destrucción de la humanidad. De tal manera, podemos inferir la vinculación del biogás con otro de los principales problemas que enfrenta el mundo de hoy (cambio climático). Como resultado del tratamiento y buen manejo de los productos finales que se obtienen a partir de la tecnología del biogás (biogás, biol y biosol), se pueden desarrollar otras actividades vinculadas a problemas de primer orden que inciden en el bienestar y calidad de vida (producción de energía, producción de alimento, producción de fertilizantes orgánicos, uso racional del agua, etc.). Los principales problemas expuestos que afectan la vida humana en el planeta y su vinculación con el biogás, se ilustran en la figura 1 y figura 2 respectivamente (ver anexo1). ! + DESARROLLO+ Cuba es uno de los primeros países de América Latina donde se introdujo la tecnología de digestión anaeróbica. En plantas de tratamiento de aguas negras desde los años 20 y en biodigestores para la captación del biogás en 1940. Por lo que el arte del biogás en Cuba tiene su origen en la primera mitad del siglo XX, un incierto desarrollo en la década del 70 y un auge insostenible en los años 80. El biogás, tiene un resurgir a partir de un nuevo enfoque en los años 90. Este resurgir comienza a consolidarse con el proyecto “GBV” que asumió ese nombre debido al papel líder en el proyecto del Grupo para Derechos reservados COPIMERA 2015

el desarrollo de plantas de Biogás y sistemas de tratamientos de aguas residuales de Villa Clara (GBV). Este proyecto caracterizado por su contribución al desarrollo de las familias y obreros, creatividad en la planificación, en la solución de los problemas de diseño que se adecuan a las características de los usuarios, pionero en su aplicación y método de construcción, que atenúa el impacto de los residuos orgánicos en el medio ambiente, ha logrado bajo un nuevo enfoque de sensibilización con los usuarios y en condiciones económicas adversas (19932013), un trabajo sostenible con resultados. Este proyecto, sustentado con esfuerzos propios y eventuales apoyos de proyectos de colaboración e instituciones nacionales involucradas, incluye la transferencia de conocimiento y tecnología a los usuarios. Ello ha permitido desarrollar nuevas capacidades y elevar la cifra de biodigestores instalados en el país a más de 500 unidades en la primera mitad de la década del 2000. A más de 700 unidades, en la segunda mitad de la década (2006 -2010) y alrededor de 1000 unidades en lo que va de estos primeros años de la primera mitad de la segunda década del 2000. Este discreto desarrollo en la implementación de estas obras, de pequeño y mediano formato fundamentalmente, aunque insuficiente, ha permitido encaminar los esfuerzos a la promoción y rescate del biogás, así como avanzar en su generalización en el sector rural , donde se pronostican más de 7 000 unidades con positivos impactos en el desarrollo local para finales del 2020. En la figura 3 (ver anexo 2), se indican los tipos de biodigestores y algunos de los modelos “GBV” construidos y generalizados en Cuba(los tubulares flexibles, son de producciones foráneas). La experiencia adquirida durante todos estos años en la implementación de la tecnología del biogás con la cooperación integrada de instituciones y diferentes sectores de la sociedad cubana, han permitido un movimiento, demandado por diversos objetivos sociales y económicos del país, que ha contribuido a la formación de valores y capital humano para el desarrollo sostenible de la tecnología del biogás en Cuba con sus correspondientes impactos sociales, económicos y ambientales. Estas acciones caracterizadas por su contribución al desarrollo de las familias y obreros, creatividad en la planificación y solución de los problemas de diseños que se adecuan a las características de los usuarios, se han ido implementando y generalizando a todos los territorios del país, atenuándose con ello el impacto de los residuos orgánicos en el medio ambiente y garantizando mejores condiciones de vida a los usuarios. Todas estas bondades del biogás bajo las condiciones específicas de la agricultura cubana, las costumbres y tradiciones de nuestros hombres de campo, así como las actividades comunes que hemos identificado en la mayoría de los usuarios del biogás, permiten establecer como esquema base para el empleo de los productos finales, el indicado en el anexo 3 , mediante la figura 4 . De igual manera, las numerosas experiencias acumuladas en este campo con la acción participativa de todas las partes involucradas, han hecho posible el desarrollo de la metodología 213


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

“GBV” y diferentes modelos de diseños denominados en la actualidad con el nombre de “Kmaleón”, como los mostrados en la figura3. Tal vez uno de los hechos más significativos que hemos venido observando en este desempeño, ha sido el extraordinario cambio en cuanto a la explotación y sostenibilidad de los biogás donde se involucra a la mujer, es decir, cuando prevalece el interés de la mujer por el biogás, es mucho más efectivo su implementación y sostenibilidad. En los casos donde ha coincidido que la mujer, además de ser protagonista por sus labores domésticas, lo es por sus conocimientos profesionales, entonces, las perspectivas de éxitos en la implementación y sostenibilidad de la tecnología, son aún mayores. En el anexo 4, se ilustran algunos ejemplos donde se evidencian las afirmaciones hechas.! !

necesario el reconocer al lugar y las condiciones existentes que permitirán la valoración de los factores identificados. Dicha identificación, se basa esencialmente, en las encuestas y observaciones previas que se realizan, Guardado J.A (2013). Este diagnóstico permitirá además, establecer el programa de visitas al terreno y los plazos de ejecución de cada una de las tareas a cumplimentar en cada etapa. La fundamentación o alcance de los principales aspectos e indicadores que contempla la metodología se describen en la citada monografía del autor.

II.+ Diseño “Kmaleón” - diseños no ceñidos a un solo tipo de material sino que aborda una diversa gama de posibilidades y situaciones que enfrentan los usuarios en las condiciones específicas y económicas en que viven, que cambian con el medio, se adaptan al entorno natural y a la gente. Diseño muy personalizado en dependencia de los materiales accesibles y sometidos a mejoras continuas casi constantemente. Un producto cubano surgido de la cooperación colectiva.

RESULTADOS+Y+DISCUSIÓN+ Dentro de los resultados y discusión, es necesario el análisis de conceptos, criterios y terminologías claves descritos en los apartados anteriores y que han sido fruto del propio trabajo: I.+ Proyecto “GBV” - Método consistente en el desarrollo de acciones diversas para la implementación y desarrollo de la tecnología del biogás en las condiciones específicas de nuestra Cuba, dentro del movimiento popular creativo que se inició en los años 90. Este Proyecto con el empleo de la ciencia, la técnica e ingenio popular ha contribuido a la formación de valores y recursos humanos en el conocimiento y aplicación de la tecnología del biogás en las disímiles condiciones en que viven los usuarios.

Los citados diseños, siempre dotados del necesario análisis ingenieril, contemplan el arte del biogás y el concepto de sistema de tratamiento con biogás a ciclo cerrado, aprovechándose de ese modo la reutilización de los productos finales. Por «arte del biogás en Cuba» entendemos la acción participativa y creativa de un sector amplio de la población cubana en la instrumentación y generalización de la tecnología del biogás, a partir de características, posibilidades y condiciones específicas. Sistemas de tratamiento con biogás Conjunto de instalaciones u objetos de obras con esquemas integrales en la búsqueda de solución a los problemas ambientales, de alimentación, producción de abono y energía, a partir de aguas residuales o residuos de origen orgánico, teniendo en cuenta el ecosistema circundante, la captación y aprovechamiento del biogás. Sistemas sin residuos, es decir, sistemas a ciclo cerrado.

La metodología “GBV”, es fruto del proyecto de igual nombre para valorar aspectos relacionados con la factibilidad de construcción de un biodigestor a partir de las características, posibilidades y acción participativa de los usuarios. La metodología participativa, elaborada por el autor de este trabajo, se aplicó con éxito dentro y fuera del país en la ejecución de varios dispositivos. La colaboración de los usuarios y el aporte de sus experiencias han permitido hacer efectivo el método y priorizar el carácter práctico de su desarrollo. La metodología GVB, en esencia, consta de dos etapas:

III.+ Síntesis resumida de los principales logros del proyecto para el desarrollo sostenible del biogás en Cuba.

1. El análisis de los factores que intervienen en la toma de decisión y adecuación del diseño de la obra a las condiciones específicas, con vistas a su sostenibilidad y éxito de ejecución.

•!

Diseños alternativos racionales y sostenibles en el tiempo.

•!

Desarrollo de una metodología para la implementación de la tecnología del biogás a pequeña y mediana escala, para sectores desfavorecidos fundamentalmente.

•!

Promoción, capacitación, implementación y acciones diversas, para el uso eficiente y progresivo del biogás en Cuba (investigaciones aplicadas, manuales, catálogos, herramientas para cálculo y diseños de biodigestores)

2. Valoración de la factibilidad de uso de los productos finales que se obtienen a partir del dispositivo diseñado, de sus impactos y de la rentabilidad de la obra. Como quiera que uno de los objetivos es caracterizar y conocer las posibilidades del usuario para lograr diseños económicamente rentables, que garanticen la sostenibilidad de la tecnología, así como una rápida puesta en marcha, es Derechos reservados COPIMERA 2015

214


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

•!

Actividades técnicas en sentido general (Encuentros de intercambios, polígonos, talleres, conferencias, etc.)

4.!

! !

CONCLUSIONES+

5.!

1. Se logra por primera vez y en condiciones adversas, un trabajo en el orden práctico y bajo un nuevo enfoque con esfuerzos propios, un movimiento de desarrollo sostenible para la promoción y extensión del biogás en Cuba. 2. El Proyecto denominado “GBV” se ha caracterizado por la acción participativa, creativa y consciente de los usuarios e involucra a las diversas capas de la sociedad: profesionales, técnicos, dirigentes, estudiantes, obreros, periodistas, investigadores, jubilados, amas de casa, campesinos etc. 3. Los modelos que hemos denominado “GBV” son soluciones validadas para el saneamiento energético ambiental toda vez que han permitido a sectores alternativos, disponer del biogás como una fuente energética renovable para la cocción de sus alimentos y mejorar sus condiciones de vida 4. El Movimiento de Usuarios del Biogás, ha permitido llevar una cultura integral a varios centenares de familias cubanas, donde la mujer ha jugado un rol fundamental en los niveles de satisfacción y sostenibilidad que estas instalaciones le proporcionan. 5. La metodología “GBV” y el diseño “Kamaleón”, han demostrado su adecuación a las condiciones específicas de nuestro país y región para la producción de biogás y abono. Ellos están llamados a jugar un papel importante en la necesidad que tiene el país de multiplicar a corto plazo los resultados alcanzados en cuanto a la generalización y uso de este importante portador energético, sobre todo para el sector rural y viviendas sin electrificar o de difícil acceso. ! !

6.! 7.! 8.!

AGRADECIMIENTOS+ Agradezco a mi famila, a los usuarios y gobiernos locales que junto con las instituciones involucradas en la implementación de la tecnologia del biogás, han hecho posible los resultados que hoy exhibe el Movimiento de Usuarios del Biogás en Cuba, del cual soy coordinador nacional y al que, le he dedicado, una buena parte de mi vida.

REFERENCIA+ 1.! Conferencia de Naciones Unidas sobre Medio Ambiente y 2.! 3.!

Desarrollo Río de Janeiro 1992. Fomento de la Agricultura y el Desarrollo Sustentable. Capitulo 14. Agenda 21. Guardado, J. A. y M. Abreu. La avicultura popular una vía para la producción de alimentos y fertilizantes a la población. VIII Forum Municipal 1993. Guardado, J. A. y Pedro Urbina. "Sistemas a Ciclo Cerrado, Una alternativa para la Agricultura Sustentable".IPIAT- Falcón, en el marco de la Conferencia

Derechos reservados COPIMERA 2015

215

Latinoamericana de Agricultura Sustentable. Venezuela. 1995. Guardado, J. A. y Cortada J.L., Biodigestores Sencillos de diferentes tipos, Serie Tecnología para el uso de las Fuentes Renovables de Energía, Cubaenergía 2013 Guardado Chacón, José Antonio.BIOGÁS para la familia campesina. Programa Tematico de Seguridad Alimentaria en Cuba DCI/FOOD/2010/242-591, HABANA, 2014 Martínez R. D., Revista Juventud Técnica 371, Marzo- Abril 2013, páginas 10-23. Sasse, L. La Planta de Biogás. 1997. Saenz, R. Reuso de Aguas Residuales Preparadas en Agricultura y Piscicultura. Lima. Perú. 1986.


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ ANEXO+1+

Derechos reservados COPIMERA 2015

216


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

+ + + + + + + + + + + + + +

+ +

+ ANEXO+3+

+

+

+

+

+

+

+

+

+

+

Derechos reservados COPIMERA 2015

217


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ +

+ + + + + + + ++++++++++++++

Derechos reservados COPIMERA 2015

218


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Derechos reservados COPIMERA 2015

!

!

219


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

! DESARROLLO+DE+UN+INSTRUMENTO+DE+RELEVAMIENTO+PARA+DETERMINAR+LA+ SITUACIÓN+ENERGÉTICA+INICIAL+DE+UNA+ORGANIZACIÓN+CON+VISTAS+A+IMPLEMENTAR+ LA+NORMA+ISO+50001+DE+GESTIÓN+Y+EFICIENCIA+ENERGÉTICA+ José Luis Maccarone 1, Leopoldo Nahuel 2, Omar Fata 1 , Marcelo Gil 3 Universidad Tecnológica Nacional, Facultad Regional La Plata, Av. 60 s/n° esq.124 – La Plata – Provincia de Buenos Aires – República Argentina. 1 Grupo de Investigación Tratamiento de Señales en Sistemas Eléctricos, TSSE, Dpto. de Electrotecnia. 2. Departamento de Ingeniería en Sistemas de Información. 3. Departamento de Ingeniería Industrial

Resumen+

capacitación previa, ser utilizados para autoevaluación por alguno de los integrantes de la misma PyME.

Las pequeñas y medianas empresas (PyMEs) frecuentemente trasladan a los costos los incrementos de los insumos energéticos, impactando de distintas formas, desde el cliente, si éste no tiene otra opción se encuentra con la obligación de absorber el mayor precio, desde la empresa, si no toma acciones de eficiencia energética, termina por ser menos eficiente y menos competitivo, desde la sociedad, indirectamente impacta en lo ambiental. !

Palabras+ claves: PyMEs – Gestión Energética – Instrumentos de relevamiento

Introducción+ El término competitividad es muy amplio pues se pueden encontrar diferentes definiciones, que aún siendo similares no alcanza aún hoy un consenso generalizado, nos encontramos que a medida que pasa el tiempo se suman además de las definiciones nuevos factores y variables que la caracterizan y que afectan a las empresas dependiendo de otras variables como lo son entre otras el contexto que rodea a las organizaciones. En la década de los ´90 Coriat y Taddei (1995)1, plantearon lo que ellos llamaron “las nuevas dimensiones de la competitividad”, si bien siguen teniendo vigencia, aparecen hoy nuevos factores que podrían influir sobre la competitividad de las empresas, dependiendo su ubicación en tiempo y espacio.

La pregunta es: ¿Hay otra forma de tenerlas en cuenta que no sea solo transferirlas a los costos de producción o servicio? Un camino alternativo para no traspasar costos energéticos directamente al producto o servicio, es su gestión, lo que haría que estos insumos se conviertan en una variable competitiva para la PyME, y conocer las claves para gestionarla la convertiría en una ventaja competitiva y los demás actores beneficiados. Para realizar el análisis de la demanda y el uso de la energía que realizan las PyMEs es necesario dar el primer paso, y ese primer paso es conocer en donde se está posicionado con respecto a las energías demandadas. Por lo tanto este trabajo trata de aportar un instrumento de uso amplio y común para el relevamiento, previo a cualquier acción tendiente a gestionar la energía en una organización y en particular en una PyME.

Podríamos entonces, hacer mención a uno de esos factores que temporalmente y espacialmente hoy tienen una influencia determinada sobre las organizaciones y en particular para las empresas, tal el caso del factor energía, si bien siempre fue escaso y con precios que fueron variando siguiendo las variaciones de sus costos de producción y distribución, la realidad actual es diferente, especialmente para la Argentina.

El proyecto aborda como base, la norma ISO 50001 y sus guías de referencia para Gestión de la Energía en las Organizaciones. Y el resultado esperado son los diferentes instrumentos de relevamiento, los cuales podrían, con una

En Argentina uno de los pocos insumos para las empresas que aún se encuentra desactualizado en precio es la energía en dos de sus formas que más podrían impactar, por su grado de consumo, el gas y la energía eléctrica. Estos insumos se

!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! 1

!Coriat,(Benjamín(y(Taddéi,(Dominique:(“Made(in(France:(las( nuevas(dimensiones(de(la(competitividad”,((Ed(Alianza,((1995(

Derechos Reservados COPIMERA 2015

220


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

convertirán tarde o temprano en una de las variables que afectarán la competitividad de las empresas, sobre todo para las PyMEs, que aún no hayan transferido a sus costos los valores que realmente deberían tener.

lo menos mirándola desde el punto de vista de la competitividad y para las PyMEs Argentinas, pues las acciones en menor o mayor medida responden a un tiempo de ejecución y un tiempo para obtener resultados que por más inversión que se realice, requiere de tiempo y dedicación. Por lo tanto un factor clave es la acción no solo en forma, sino en tiempo.

El precio actual de las unidades de energía está desactualizado y lleva poco más de una década, no hace falta más que pensar que entre otras cosas, los insumos para los actores principales del mercado energético Argentino, tanto productores, como transportistas y distribuidores, para dos de los energéticos más importantes, el gas y la electricidad, han incrementado sus costos desde el 2002 en el mejor de los casos 4 a 1, siendo que los precios de venta de estos energéticos se mantuvieron casi constantes por más de media década y los ajustes que tuvieron en el último tiempo tampoco alcanzan a los valores reales. La compensación tarifaria para las empresas generadoras, transportistas y distribuidoras de gas y electricidad, lo realiza el estado por medio de importantes subsidios. Pero el Estado Argentino ya comenzó a reducir estos subsidios; tarde o temprano las tarifas se actualizarán.

Si una empresa quiere tomar como referencia la norma ISO 50001, y ya tiene certificado alguna norma de calidad o medio ambiente, es muy probable que pueda con poco esfuerzo implementar la norma de gestión energética en las organizaciones, ya que esta norma sigue la lógica de las ISO 9001, 14001, 18001, entre otras. Pero si la tuviera que desarrollar una PyME que no transitó por esos caminos, es posible que sea bastante tedioso, y aún mayor cuánto menor estructura y recursos tengan las PyMEs. Por lo tanto para las PyMEs que no han transitado el camino de la normalización a través de las ISO, es necesario facilitarles el camino, sobre todo por la falta de recursos y tiempo para acceder a implementar alguna forma de gestión, en particular la gestión energética.

Al ser un insumo igual para todas las empresas, ya que su precio no se puede negociar, ni tampoco se cuenta con distintos proveedores para el mismo energético, por lo menos no para el gas y la electricidad, el camino para no transferir esos costos a precios es la gestión de los usos y consumos energéticos.

Ya conocemos o como hemos manifestado en este trabajo, la importancia de gestionar las energías que consumen y usan las empresas, también hemos visto que a pesar que las normas son accesibles, su implementación depende del posicionamiento de la empresa, en particular las PyMEs, por lo tanto lo que falta son caminos que puedan facilitar a las PyMEs acceder a gestionar sus energías y posicionarlas en el escalón anterior a la certificación de la norma.

En la Argentina, existe una cantidad muy reducida de empresas que llevan adelante alguna acción o combinación de ellas con la finalidad de impactar en su propia eficiencia energética, normalmente son grandes empresas, que por convicción y/o conveniencia logran tener acceso a la contratación de asesores que los guían en las acciones concretas sobre eficiencia energética.

Pero antes de comenzar con cualquier acción, la misma debe ser al menos comparada y priorizada en una lista de posibles tareas a realizar, el primer paso y tal vez el más importante es la determinación de donde se está parado con respecto al uso y consumo, determinar correctamente la situación inicial es el paso clave para obtener un posible buen resultado.

Pero las PyMEs, quedan lejos del tema de eficiencia energética, fundamentalmente por dos motivos, uno de esos motivos, como ya se dijo, durante mucho tiempo no incidió en su estructura de costos, el segundo motivo es que de las herramientas disponibles, casi ninguna de ellas, se encuentra a su alcance para realizar alguna acción referida a la eficiencia energética, por lo que implica la contratación y seguimiento de consultoras sobre el tema.

Por lo tanto en este trabajo se desarrolló ese primer paso, el del relevamiento inicial para las diferentes empresas, en realidad tan amplio que puede adaptarse a la mayoría de las organizaciones, sean éstas privadas, públicas, industrias, comercializadoras, productoras, entre otras. Y si bien estos instrumentos se desarrollaron para facilitar el camino a las PyMEs Argentinas, son perfectamente aplicables a PyMEs de otros países.

El bajo costo de la energía, en La Argentina, responde a las políticas públicas, cuyos argumentos no son de análisis de este trabajo, pero por cierto por el bajo costo ha provocado el desinterés de las Empresas de ocuparse del tema, se sabe que los valores subvencionados de la energía no se podrán mantener durante mucho más tiempo, y sus reales valores serán por sí mismo motivadores para el salto del primer obstáculo planteado para encaminarse a acciones de eficiencia energética.

Estos instrumentos de relevamiento por sus características pueden ser utilizados tanto por un consultor como por la propia organización, es decir servirían para un auto-diagnóstico, porque son planillas adaptadas a las necesidades en general pero con preguntas normalmente cerradas que hacen que sean de fácil aplicación.

Pero llegado el momento en que se sincere los reales valores energéticos, cualquier acción por mejor que sea, sería tardía, por

Derechos Reservados COPIMERA 2015

221


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Otro de los impactos que podrá tener estos instrumentos es en la aplicación de una caracterización por sector, como el que será utilizado específicamente en la Red Tecnológica de Eficiencia Energética de la Universidad Tecnológica Nacional de la República Argentina.

Dentro del relevamiento sectorial o regional, se quiere conocer si existe gestión energética de algún tipo y grado, cuales son los equipamientos que más se destacan en cuanto al consumo, las superficies afectadas a todo el consumo, el personal afectado, los productos y materias primas, los horarios de producción, operación o servicio, descripción del proceso y principales actividades de producción o servicio y si existe algún tipo de acción que pueda indicar su cultura energética.

Metodología+ utilizada+ para+ el+ desarrollo+ de+ los+instrumentos+de+relevamiento++

La gestión energética indaga sobre alguna acción desarrollada por la organización con miras a establecer costos de la energía en el costo total, interpretación de lo facturado por las prestadoras de energía, si dio un paso más y utiliza indicadores de tipo energético y si los utiliza para tomar decisiones de mejora, o un escalón más, indagando sobre la implementación de las normas ISO. Entre otros resultados sectoriales o regionales que se pueden obtener de esta información se encuentran los costos promedio de energías, porcentaje de organizaciones que no realizan acciones con referencia a las energías consumidas, por lo que puede ser empleado para establecer políticas de incentivo dirigidas a ciertos sectores.

Para desarrollar los instrumentos de relevamiento se utilizaron tanto fuentes primarias como secundarias, las fuentes primarias, especialistas en el tema del ámbito de los grupos de investigación y extensión de nueve Facultades Regionales de la Universidad Tecnológica Nacional de la República de Argentina, los cuales aportaron su conocimiento y experiencia en diferentes organizaciones sobre el tema del relevamiento energético. Mientras que las fuentes secundarias entre otras se utilizó la norma ISO 50001 y sus guías de aplicación. Para validar los instrumentos de relevamiento se utiliza dos procedimientos, uno someterlo nuevamente a opinión de especialistas y el otro, su aplicación en algunos de los proyectos de investigación que está desarrollando la Universidad Tecnológica Nacional, de tal manera que a posteriori servirá para consolidar dichos instrumentos.

Los datos de equipos principales utilizados por las organizaciones de un sector o región, entre otras, podría permitir conocer los equipamientos claves por su consumo y uso en los sectores o regiones, de tal manera de ser utilizado para establecer estudios de eficiencia energética directamente sobre los fabricantes de esos equipos.

Resultados+ #+ Instrumentos+ de+ relevamiento+ energético+para+las+organizaciones+

La información sobre consumos energéticos proporciona datos interesantes para poder establecer políticas de contratación de energía y abastecimiento de los diferentes energéticos por sector o región.

Los instrumentos de relevamiento desarrollados se realizaron teniendo en cuenta dos criterios amplios, el primero de ellos, que sirvan para el relevamiento en sí de la organización de tal manera que como consecuencia de éste, la organización pueda desarrollar planes de acción tendientes a mejorar su posicionamiento energético y el segundo criterio es que pueda servir para que el cúmulo de información obtenido de las organizaciones similares, sirva para realizar una caracterización energética del sector o grupos de empresas.

Los datos sobre personal, metros cuadrados, productos elaborados, servicios prestados, materia prima o insumos, tipo de producción o servicio y horarios permitirá establecer indicadores energéticos por sector o región. Mientras que las preguntas sobre la cultura energética de la organización, permitirá conocer el pensamiento de esas organizaciones sobre el tema y por ende poder establecer políticas para revertir estados no deseados o fortalecer aquellos que impactan favorablemente para la gestión eficiente de la energía.

Por lo tanto las planillas para recabar información están compuestas por una parte que aporta datos del sector o región y otra parte que aporta datos para los planes de las organizaciones. Esta última se completa según los alcances de la organización, es decir los temas están ordenados de tal manera que la complejidad de la organización va avanzando desde la hoja 1 a la hoja 3. Por lo tanto una organización menos compleja desde el punto de vista energético solo completará las dos planillas del sector y solo una planilla de la organización, mientras que las más complejas podrían completar todas las planillas.

Relevamiento de la organización El relevamiento de la organización, servirá para establecer específicamente los consumos más importantes, en cuales equipos, procesos o servicios. De esta manera combinando con otros parámetros específicos de la organización permitirá dar respuesta a los requerimientos de la norma ISO 50001, entre otros, la línea base de energía, fundamental para poder establecer el punto de comparación inicial contra los mismos

Relevamiento sectorial o regional

Derechos Reservados COPIMERA 2015

222


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

parámetros una vez establecidas las acciones del plan de gestión energética de la organización. Permitirá establecer cuáles serán las prioridades de actividades, determinar las acciones que no requieren inversión y listar aquellas que sí lo requieren, estableciendo cuales impactarán más en la eficiencia energética, incluso conocer cuales impactarán en el corto, mediano y largo plazo.

Las preguntas están dirigidas a establecer fundamentalmente los puntos clave de consumo y los usos de las energías que consume. Abarca, el consumo y uso de agua, electricidad, gas, combustible como así también las transformaciones energéticas de los sistemas de producción o servicio, es decir, consumo de agua y gas para obtener vapor y poder establecer ese vapor donde, cómo y para qué se utiliza. Entre otros, también se encuentran items para identificar, las transformaciones de frío, calor, electricidad, gas, aire a otras presiones y temperaturas distintas del ambiente.

Este relevamiento inicial es la base para determinar la política energética, los planes de acción, la comparación de resultados. En definitiva es la base de referencia para la posible certificación de la norma ISO 50001 de Gestión de la Energía de las Organizaciones.

A modo de ejemplo se transcribe una parte del relevamiento sectorial y otra parte del relevamiento particular en la organización:

Tabla 1: Parte del instrumento de relevamiento del sector o región corresponde al item gestión energética

GESTIÓN((ENERGÉTICA(((( !

!

!

!

!

!

!

!

!

!

!

!

!

!

Verificación(Facturas(de(energía( ! ! ! !

!

!

!

No!! 0! Interno! 1! Externo! 2! Otro! 3! ! ! ! ! ! ! !

Costo(de(potencia,(energía(en(el(costo(total( ! ! ! ! !

!

!

<!a!5!%!! 1! !5!a!10!! 2! 11!a!20!! 3! >!a!20!! 4! ! ! ! ! ! ! !

costo(del(agua(en(el(costo(total( ! ! ! !

!

!

!

<!a!5!%!! 1! !5!a!10!! 2! 11!a!20!! 3! >!a!20!! 4! ! ! ! ! ! ! !

Utiliza(algún(indicador(energético(( ! ! ! !

!

!

!

No! 0! ! !

Si! 1! ! !

Cual?! !! !

!! !

!! !

Alguna(acción(para(optimizar(los(consumos(( ! ! ! ! !

!

!

No! 0! ! !

Si! 1! ! !

Cual?! !! !

!! !

!! !

Normas(ISO(implementadas( ! ! !

!

!

#! 1! ! !

#! 2! ! !

#! 3! ! !

Normas(Certificadas( ! ! !

!

!

No! 0! ! !

No! 0! ! !

No! 0! ! !

No! 0! ! !

No! 0! !

(

!

!

SI! 1!

SI! 1!

SI! 1!

SI! 1!

SI! 1!

!! !

!! !

!

Observaciones:( ! !

!!

!!

!!

!

!! !

((

Derechos Reservados COPIMERA 2015

223

!! !

#! 4! Otra! 5! ! ! !

!!

!! !

!! !

!! !! ! !

! !

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Tabla 2:, Parte del instrumento relevamiento de la Organización Corresponde al item relevamiento de un equipo, en particular la caldera

CALDERA(

!

! ! ! !

!

Marca(( !

!! !! !! !! ! ! ! !

! !

Tipo(de(caldera(( !

Acuatubular! 1! Humotubular! 2! ! ! ! ! ! ! ! ! !

Tipo(de(combustible( ! ! ! ! !

GLP!

!

Modelo( !

1! ! !

Gas!Oil!

!

!

!! !! ! !

!

!

!

(Año(fabricación( !! ! ! ! !

!

!

!! !

! !

!! !

Cantidad( !

!

!! !

2! Fuel!Oil! 3! Gas!natur! 4! Otr! 5! ! ! ! ! ! ! !

Capacidad(en(Tn(/(Hora( ! ! ! ! !

!

Nominal! !

!! !! ! !

! !

!

trabajo! ! !

!! !

!! !

Presión(en(Kg(/(cm2( ! ! ! ! !

Máx!de!trabajo! ! !

!! !! ! !

! !

!

Nominal! ! !

!! !

!! !

Temperatura(de(trabajo(en(°C( ! ! ! ! !

Salida!!vapor! ! !

!! !! ! !

! !

Agua!aliment.! !! ! ! !

!! !

Horas(trabajo(por(año( !! ! ! ! ! !

! !

( !

( !

( !

! !

Rendimiento( !! ! ! !

!! !

Funcionamiento(sistemas(de(control( ! ! ! ! !

!

!

Manual! 0! ! ! !

No!

!

Tiene(economizador( ! ! ! ! !

!

!

! !

No!

!

! !

!

1! Si! ! !

!

2!

0! Si! ! !

!

1!

Uso( !

!! !! !! ! ! ! !

!! !! ! !

!! !! ! !

!! !! ! !

!! !! ! !

!!

Observaciones:( !

!! !! ! ! ! !

!! !! ! !

!! !! ! !

!! !! ! !

!! !! ! !

!!

!! ! !! !

((

Conclusiones+

Por lo tanto un camino válido es ordenarse según la norma ISO 50001 pero el primer paso es realizar un diagnóstico de la organización y este trabajo aporta en ese paso, en facilitar el camino de saber donde se está parado y obtener un estado inicial energético.

Está claro que tarde o temprano las organizaciones en particular las PyMEs de la Argentina deberán realizar algún tipo de acción dirigidas a ser más eficientes y eficaces con respecto al uso y consumo de energías, que como se sabe son recursos escasos y hoy subvencionados. Cuando llegue el momento de tomar la decisión sobre qué hacer con los costos energéticos, lo que queda claro es que una alternativa de pasar a precio los nuevos costos energéticos, es la alternativa de gestionar las energías de manera tal de tomar acciones para realizar un consumo racional en lo posible menor uso para la misma producción o servicio. Derechos Reservados COPIMERA 2015

Estos instrumentos de relevamiento cubren varias características, permite obtener datos para la organización y datos para generar políticas energéticas para el sector o región en análisis, por lo que su uso no queda restringido solo a las PyMEs de la Argentina. También permite que con poco conocimiento este instrumento pueda ser utilizado para autoevaluación

224


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

y paso inicial para poder, a mediano plazo, certificar la norma de gestión energética, ISO 50001. Bibliografía [1] 50001:2011 Sistemas de Gestión de la Energía - Requisitos con orientación para su uso. [2] Norma UNE 216301:2007 Sistemas de Gestión Energética. Requisitos. España [3] Norma UNE 216501:2009 Requisitos de las Auditorías Energéticas. España [4] Manual de Gestión de la Energía en Edificios Públicos Primera Edición Mayo 2012 ISBN: 978956-8070-05-2. Impreso en Sociedad Impresora R&R Ltda. Instituto de la Construcción - Santiago de Chile. [5] Source Book for Energy Auditors 1987 - IEA Energy Conservation - MD Lyberg. [6] Introducción a la auditoria energética eléctrica. Tomo 1 JM Merino Cadem IBERDOLA ISBN 84314-0480-9 . 2000. España [7] Poder Ejecutivo Nacional (2007). Decreto PEN 140/2007 - PRONUREE Programa Nacional de Uso Racional y eficiente de la Energía. Argentina. [8] Implementación de un Sistema de Gestión de la Energía (SGE). Enrique Bertrán Sánchez.

Derechos Reservados COPIMERA 2015

225


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

“UNA+MIRADA+A+LAS+CRISIS+GLOBALES+Y+AL+DESARROLLO+ SOSTENIBLE:+RETOS+Y+DESAFÍOS+DEL+CAMBIO”+ +

José M. Regalado Nación Universidad Nacional Hermilio Valdizan, Huánuco, Perú.

RESUMEN+

Recursos Humanos – Principios Ético Morales (Mística del Servicio y el Valor de la Honestidad). Relativismo moral.

La búsqueda del desarrollo sostenible para nuestros países tiene un primer desafío en las crisis mundiales que vienen deteriorando seriamente nuestras economías y degenerando en conflictos sociales desestabilizadoras de nuestras democracias. Ante este escenario tenemos que replantear nuestro crecimiento social y económico sobre la base de la Gestión de Recursos Renovables, construyendo a la vez el sendero luminoso que nos conducirá hacia una sociedad que ha adoptado principios éticos morales y adaptarlas como políticas públicas inclusivas en nuestros estados. En este contexto de nuevas realidades debemos trazar la hoja de ruta de nuestro desarrollo sobre la base de la mejora de la competitividad de nuestros recursos humanos; abandonando el nocivo relativismo moral al enfrentar los retos y exigencias que el mundo global impone sobre nuestros países, con el fin supremo de lograr la ansiada sostenibilidad y una mejor calidad de vida. En este contexto una de las principales tareas de nuestra diáspora de ingenieros, planificadores y gestores del desarrollo es la identificación, promoción, gestión, y desarrollo de una matriz de recursos renovables tanto materiales como inmateriales existentes en cada uno de nuestros países, así como el empoderamiento de la mística del servicio y el valor de la honestidad como baluartes de los tomadores de decisión gubernamentales que han comprendido que la principal causa de la pobreza lo constituye una actuación pública afectada por serios dilemas éticos morales que impactan en los índices de I+D.

+ INTRODUCCIÓN+ Las políticas públicas impulsadas por nuestros gobiernos en la búsqueda de la ansiada sostenibilidad para las poblaciones de nuestros países tienen un monumental riesgo en las crisis mundiales, que afectan gravemente nuestras economías y consecuentemente crean un clima de malestar por la deuda social interna que no se puede pagar; acarreando conflictos sociales que perturban nuestras democracias. Ahora bien, para entender el nuevo entorno mundial se requiere analizar prospectivamente las nuevas megatendencias futuras para responder la importante pregunta ¿Qué nos depara el futuro?. La “salida del túnel” que planteamos para nuestros países consiste en buscar la relación armoniosa entre la ciencia, la innovación y la ingeniería con el estado y la sociedad para ejecutar nuestras políticas de estado en base al aprovechamiento intensivo de los recursos renovables que hemos identificado, bajo una actuación transparente, inclusiva y equitativa del sistema gubernamental para la construcción y consolidación de la gobernabilidad. Para intentar comprender los desafíos del nuevo milenio es necesario evaluar los escenarios de fines del siglo pasado y los comienzos del presente, pero sin quedarse en él. Como dijo Jhon F. Kenedy “aquellos que sólo viven su pasado y presente, inevitablemente corren el riesgo de perder su futuro”

En este trabajo hemos hecho un esfuerzo por intentar una mirada reflexiva y un esbozo de los insumos estratégicos renovables del desarrollo, identificándolos de acuerdo a su importancia en la dinámica social del desarrollo, reconociendo el valor del recurso humano como el principal capital nacional renovable y sustentable para lograr mejores índices de I+D+i y para construir una Ingeniería genuina, potente, creadora de tecnologías y valor agregado, que sea el soporte del desarrollo nacional y mundial.

UNA+ MIRADA+ AL+ NUEVO+ ORDEN+ MUNDIAL:+ LAS++ CRISIS+Y+EL+DESARROLLO+SOSTENIBLE+ Hasta fines del siglo pasado el mundo estaba dividido en dos bloques diametralmente opuestos:

Palabras Clave: El Desarrollo como un Eje de Tres Hélices: Gestión de Recursos Renovables - Competitividad de los Derechos reservados COPIMERA 2015

•! Centralista, cerrado y controlado, con predominio estatista 226


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

•! Abierto y libre, con predominio de la iniciativa privada. Con la caída del muro de Berlín y la transformación del mundo socialista, ingresamos a una era de globalización y apertura.

2.+

Importantes transformaciones se dieron en ese tiempo y en los albores del presente siglo, entre los que más destacan están:

3.+

1.! 2.! 3.! 4.! 5.!

La ruptura del orden bipolar La globalización de la economía La revolución tecnológica Las crisis globales Las megatendencias de la C,T e I

Peter Drucker. The Columbia Journal of World Business.

I.+ LA RUPTURA DEL ORDEN BIPOLAR: EL FIN DE UNA HISTORIA

La Globalización se caracteriza además por los siguientes aspectos como consecuencia de la revolución tecnológica mundial:

Después de una guerra fría de muchos años, el año 1991 se desmoronó el orden político mundial bipolar polarizado en ese entonces entre EE.UU. y la Unión Soviética. En Rusia, el ganador del Premio Nobel de la Paz de 1990, afirmaba:

•! La muerte de las distancias •! La eliminación de las fronteras

“Tenemos que movernos , … avanzar. Quienes busquen la respuesta en el pasado, mirando hacia atrás, no encontrarán nada”. Mijail Gorvachov Una serie de acontecimientos la precedieron y siguieron; hechos tales como: •! •! •! •! •! •!

CONCEPTOS DE LA GLOBALIZACION 1.+ Globalización de la Tecnología vinculada al Conocimiento La TI y las telecomunicaciones han permitido el establecimiento de redes globales dentro y entre empresas

El derrumbe del muro de Berlín y la revolución europea. La reunificación de Alemania. La caída de la Unión Soviética y del orden bipolar: el derrumbe de la estatua de Lenin. La democratización de los países de la “cortina de hierro” El conflicto de Irak: El derrumbe de la estatua de Sadan Hussein La nueva revolución tecnológica.

2.+ Globalización del Gobierno Rol disminuido de gobiernos, nueva generación de reglas para un gobierno global. 3.+ Globalización de las Finanzas La desregulación de los mercados financieros, la movilidad internacional del capital, el auge de fusiones y adquisiciones. 4.+ Globalización de Mercados y Estrategias Integración de las actividades de los negocios a una escala mundial, operaciones integradas, alianzas estratégicas.

II. LA GLOBALIZACIÓN DE LA ECONOMÍA El reto de la globalización en la economía mundial se caracteriza por los cambios ocurridos en la tecnología, los medios de transporte, las comunicaciones, el crecimiento del comercio y las inversiones; estos hechos han creado un mundo donde nada puede ser hecho sin tener en cuenta el contexto global. Este fenómeno es el que se denomina la globalización, que implica la difusión de los patrones de referencia mundiales, al margen de las distancias geográficas. Los elementos Integrantes de la Globalización: 1.+

5.+ Globalización de la Cultura Transferencia de modos de vida predominantes, homogeneización de patrones de consumo, clase media global. 6.+ Globalización de las Percepciones Existe un proceso socio-cultural centrado en “la tierra”, movimiento globalista y ciudadano del planeta.

Concepción global de mercado

Derechos reservados COPIMERA 2015

Hay una diferencia en la acumulación del capital, las empresas transnacionales concentran más la producción. Nueva sociedad del conocimiento La base del fenómeno de la globalización es el avance en la innovación tecnológica. Perfecta movilidad del capital El capital financiero prima sobre el capital mercantil. “Los recursos económicos básicos ya no son el capital, los recursos naturales o el trabajo. Los recursos básicos son y serán el conocimiento... El valor es ahora creado por la productividad y la innovación, ambos generados como consecuencia de la aplicación del conocimiento al trabajo”.

227


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

La globalización ha generado a su vez nuevas tendencias las cuales describimos:

comunicaciones en tiempo real entre el sector público y el privado. También representa un abanico de opciones informativas que reduce la asimetría de la información en las transacciones comerciales a nivel nacional e internacional entre las empresas y los usuarios. Se ha configurado un mundo en el que toda la ciudadanía puede producir las noticias más variadas, comunicarse con otros sin barreras de ningún tipo, y diseñar, crear e innovar casi sin límites. Internet es la base para el desarrollo de grandes negocios —como Google y e-Bay— y facilita las inversiones y el comercio internacional. El servicio de internet se ha convertido en indispensable para la vida cotidiana y cambió la vida moderna al permitir hacer todo a través de este medio, como manejar el hogar, estudiar y realizar todo tipo de transacciones. Con internet, las personas no tienen que trasladarse a un lugar de trabajo y pueden realizar sus labores desde sus casas, lo cual diluye la distinción entre empresarios y trabajadores, promoviendo el concepto de desterritorialización. Asimismo, la educación virtual tiende a sustituir a la educación presencial, propiciando el desarrollo de nuevas tecnologías y herramientas de aprendizaje mucho más efectivas que las tradicionales.

1.! EL NUEVO ORDEN DEMOCRÁTICO GLOBAL En la actualidad, la democracia se ha universalizado como parte de la globalización, sobre todo desde la fundación de las Naciones Unidas y la Declaración Universal de los Derechos Humanos. Asimismo, los sucesivos pactos y convenios sobre derechos civiles, políticos, económicos, sociales y ambientales han forjado una legislación supranacional que cuenta con instancias sancionadoras de alcance internacional. Sin embargo, a pesar de estos avances en la mayoría de países latinoamericanos —que se reflejan en elecciones democráticas, con prensa libre e independiente y libertades civiles—, todavía falta mucho por hacer. La mayoría de países del mundo han optado por un sistema de gobierno democrático, salvo algunas excepciones donde aún persisten las dictaduras. Cuba se abre al mundo al descongelarse las relaciones con los EE.U. y se vislumbra como una próxima nación democrática. Por otro lado, la democracia representativa ha afianzado las instituciones de autogobierno que expresan la soberanía popular, y los mecanismos de participación ciudadana han fortalecido la formación y la fiscalización de las decisiones públicas. A pesar de ello, la región enfrenta retos que han llevado a una profunda insatisfacción popular con los líderes elegidos democráticamente. El crecimiento económico insuficiente, las profundas desigualdades y los sistemas jurídicos y servicios sociales ineficientes han provocado el malestar popular reflejado en conflictos sociales caracterizados por el desorden y la violencia. 2.+ LAS TELECOMUNICACIONES Y MASIFICACIÓN DEL USO DE INTERNET

Sin embargo, el uso de internet puede ser perjudicial para la sociedad, como el acceso a contenidos y materiales gráficos no aptos para menores de edad: sexo, violencia, drogas, “hackeo” de información, entre otros. El efecto más interesante de esta tendencia es su impacto en la reducción de las brechas de acceso a la información, incluso de los sectores de bajos ingresos de los países en vías de desarrollo a las que se abrirán nuevas oportunidades de negocios y de desarrollo.

LA

EL SURGIMIENTO DE NUEVAS POTENCIAS ECONÓMICAS

A lo largo de las últimas décadas, las telecomunicaciones en el mundo han evolucionado favorablemente de manera notoria a través de la creación de nuevas tecnologías con la finalidad de procesar, transmitir y difundir conocimiento.

El rápido ascenso de algunos países asiáticos y latinoamericanos va a redefinir la distribución del poder en el ámbito internacional. Destaca en este sentido el grupo BRIC, acrónimo utilizado internacionalmente para referirse a Brasil, Rusia, India y China, cuatro de las economías con mayor potencial en el mediano y largo plazo. En la actualidad, el poder económico de China es una realidad, seguido de cerca, en términos de desarrollo tecnológico e industrial, por la India. Ambas potencias emergentes se alejan velozmente de la pobreza y se aproximan a las que fueron superpotencias del siglo XX. Un poco atrás, Rusia y Brasil apuntan a ser potencias si logran evitar nuevas crisis macroeconómicas. La crisis económica

Entre los diversos medios de comunicación que se han originado a raíz del desarrollo de nuevas tecnologías tenemos el teléfono, la radio, los satélites, las redes, el fax, la digitalización, la comunicación móvil y el uso masificado de internet. De todos ellos, internet se ha convertido en la actualidad en uno de los medios más utilizados por los agentes económicos por suponer una gran oportunidad de inversión, y no solo reducir costos económicos y no económicos, sino facilitar las Derechos reservados COPIMERA 2015

228


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

internacional reducirá la hegemonía de Estados Unidos y la Unión Europea, situación que permitirá a las potencias emergentes ganar un poder anteriormente inimaginable y traerá como resultado un mundo multipolar.

“fuga de cerebros” de los países pobres, obligando a sus gobiernos a establecer restricciones e incentivos para que permanezcan en sus lugares de origen y no se conviertan en “desocupados crónicos”. 5.+ CRECIMIENTO DE MEGACIUDADES

3.+ LA CUENCA DEL PACÍFICO: NUEVO EJE DEL COMERCIO MUNDIAL

El crecimiento de megaciudades (más de diez millones de habitantes) es un fenómeno que se ha acelerado, en especial en los países en vías de desarrollo, como parte de intensos procesos de urbanización y migración rural-urbana. Son consideradas motores de la economía mundial por conectar de manera eficiente el flujo de productos, personas, culturas y conocimientos. La concentración de la población, sobre todo por la centralización espacial de las inversiones, tiene inevitables consecuencias sociales, económicas y culturales; en particular, el incremento del crimen y la delincuencia, problemas mucho más agudos en los países pobres. Entre las principales megaciudades destacan Tokio, Nueva York, Seúl, Bombay, Delhi, México, Sao Paulo, Shangai, Los Ángeles, Yakarta, El Cairo y Buenos Aires.

En las últimas tres décadas, el comercio internacional se ha venido desplazando hacia los países de la Cuenca del Pacífico. En sus costas asiáticas, americanas y de Oceanía, se articulan las más poderosas potencias del mundo. El intercambio comercial que surgió tras la Segunda Guerra Mundial, promovido por Estados Unidos y que favoreció el renacimiento del Japón como potencia y la aparición de los “tigres asiáticos“ —Taiwán, Corea del Sur, Singapur—, ha seguido en auge con la poderosa presencia de China, India, Rusia, Canadá y Australia. Esto ha llevado a la conformación de la APEC, asociación de países de la Cuenca del Pacífico a la que se han incorporado países latinoamericanos como México, Chile, Perú y Colombia. La ubicación de las potencias emergentes en esta área y el interés de Estados Unidos y Japón por no perder el paso, hacen que en Latinoamérica se vea en perspectiva la necesidad de incorporarse crecientemente en esta dinámica sumándose a una tendencia clave en la globalización.

Las megaciudades tienen que afrontar determinados desafíos para alcanzar un desarrollo urbano sostenible, lo cual implica una mejor gestión en cinco sectores críticos de infraestructura (transporte, electricidad, agua y aguas residuales, salud, y protección y seguridad), de forma que mejoren su capacidad para balancear la competitividad con la calidad de vida y la sostenibilidad ambiental.

4.+ EL ENVEJECIMIENTO DEMOGRÁFICO Y LA MIGRACIÓN INTERNACIONAL

III. LA REVOLUCIÓN TECNOLÓGICA

La población mundial crece y los países desarrollados experimentan una menor natalidad. Asimismo, esto se hacen más visibles gracias a la globalización de la información y a la profunda disparidad de ingresos per cápita respecto de los países en desarrollo, que alcanza a ser, según el Banco Mundial, entre 15 y 50 veces más alta. Ello indudablemente acelerará las tendencias migratorias desde los países pobres hacia los países ricos, en desmedro del capital humano de los primeros. Precisamente, los vaticinios de los futurólogos apuntan a que en el 2030 los países desarrollados pugnarán por atraer migrantes para rejuvenecer su fuerza laboral. Esto significará el agotamiento paulatino de las restricciones para la inmigración, así como de las manifestaciones violentas de racismo y xenofobia. El envejecimiento de los países ricos los obligará a atraer jóvenes profesionales y técnicos altamente calificados a su fuerza laboral, con el fin de satisfacer los requerimientos de mano de obra altamente especializada, que será cada vez más escasa en dichos países pese al prolongamiento de la vida útil de los trabajadores hasta los 75 años. Ello incrementará la Derechos reservados COPIMERA 2015

La tecnología entre otras definiciones es la aplicación conocimiento al trabajo. Hay que reconocer que grandes transformaciones tecnológicas tienen fundamento en la revolución de la información y comunicaciones.

del las su las

Se ha iniciado el proceso de construir una nueva sociedad mundial nacida de una revolución tecnológica, basada en: 1.+ La obsolescencia de las ventajas comparativas “Actualmente la competitividad ya no depende de los recursos naturales o de la mano de obra barata, ahora estas ventajas han pasado a un segundo plano y han dejado de tener importancia para la competitividad internacional”. Michael Porter 2.+ El auge de Internet y el desarrollo de las comunicaciones 229


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

3.+ LA CRISIS ENERGÉTICA

El desarrollo de la tecnología de las comunicaciones y el auge de Internet han eliminado los límites físicos y las distancias en la transmisión de datos. Hoy se vive “la muerte de la distancia”

•! La expansión de la población global ha provocado la necesidad de incrementar la producción de bienes, productos y servicios. •! La atención de una mayor demanda de producción, ha generado una mayor demanda de energía eléctrica para atender esa demanda. •! Existe una producción deficitaria de energía en el mundo de hoy. •! Existe una demanda insatisfecha de energía actualmente en el mundo, que de no reaccionar a tiempo ahondará la crisis.

3.+ El auge del conocimiento El conocimiento se duplicó en los últimos 25 años y al año 2020 se espera que fuera cada 175 días. 4.+ La futura vigencia y caducidad de la educación universitaria Durante la vida profesional de un individuo se espera que cambie 2 ó 3 veces de carrera. Los títulos universitarios tendrán a futuro fecha de vencimiento.

4.+ LA CRISIS AMBIENTAL •! La electricidad proviene de la quema de combustibles fósiles es el 85% de toda la producción global. •! Las centrales térmicas impactan el ambiente natural con la emisión de GEI provocando daños significativos. •! Las emisiones de CO2 de las centrales térmicas a petróleo, carbón y gas natural provocan el calentamiento global del planeta. •! Todas las conferencias de las partes promovidas por la ONU han resultado en rotundos fracasos. La próxima COP será en París. •! El incremento de la temperatura del planeta de más de 2º C hará insostenible la vida en la Tierra.

IV. LAS CRISIS GLOBALES A lo largo del presente siglo se han producido en Latinoamérica serias situaciones de riesgo, algunas de ellas de connotaciones graves, unas que aún persisten, otras que se vienen superando; entre las que podemos destacar: 1.+ LA CRISIS FINANCIERA INTERNACIONAL •! Se produce el Efecto Kun Fu: el año 2008 •! Por los excesivos préstamos bancarios mayormente para comprar casas a personas insolventes que garantizaban los créditos con sus propiedades inmobiliarias. •! Los bancos redujeron sus tasas y excedieron su capacidad de liquidez y se desfinanciaron. Se confiaron en el superávit del 2007. •! Al quedarse los bancos sin liquidez por la morosidad de los prestatarios, debían poner a «remate» las casas, pero la excesiva oferta hizo que las hipotecas rebajaran su valor con lo cual se generó una crisis hipotecaria

5.+ LA CRISIS MORAL La crisis moral de un país expresada en actos de corrupción se define conceptualmente como el uso del poder público para obtener un beneficio particular. También es la apropiación de recursos, funciones y actividades que son públicas para sacar provecho personal o grupal.

2.+ LA CRISIS ALIMENTARIA •! Los sistemas de producción de alimentos se han visto rebasados por la excesiva demanda. •! Los cultivos se ven afectados por la variabilidad climática que han ocasionado enormes pérdidas de recursos. •! La producción de alimentos con el uso de agroquímicos por otro lado ha incrementado las tasas de mortalidad por cáncer al colon en el mundo. •! La agricultura empírica también han provocado la desertificación de los suelos agrícolas. Derechos reservados COPIMERA 2015

De acuerdo a los niveles de corrupción pública existente, que se puede clasificar como: •! Corrupción Individual, Corrupción Sistemática (institucional) y Corrupción Sistémica. •! Corrupción de Alta Nocividad Social y de Baja Nocividad Social que deriva de una corrupción normativa.

230


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

•! Oportunismo Circunstancial + Viveza Criolla = Corrupción Individual. •! Corrupción Sistemática + Corrupción Normativa Instrumentalizable = Corrupción Sistémica •! Deterioro de Valores + Oportunismo Político + Normativa Favorable = Corrupción Sistémica de Alta Nocividad Social. •! Direccionamiento de Procesos + Normativa Utilitaria + Viveza Criolla = Cóctel Amargo en el Vientre Social de la Nación.

microbiología, la farmacia, así como en el cuidado del medioambiente, a través de la biorremediación, el reciclaje, el tratamiento de residuos y la limpieza de lugares contaminados por actividades industriales. En el futuro, gracias a la creación de órganos artificiales, cada parte del cuerpo podrá ser sustituida, aumentando las expectativas de vida. Asimismo, la ingeniería genética ofrece la posibilidad de incrementar significativamente el rendimiento de la producción agrícola y la oferta de alimentos, aunque subsista la resistencia de importantes grupos sociales al uso generalizado de organismos vivos modificados, como en el caso de algunos transgénicos que alteran negativamente el suelo y la vida natural o la creación de la vida in vitro, que tiene aún serios dilemas éticos morales.

La corrupción debe terminar porque: •! Afecta el desempeño de los gobiernos y destruye la confianza en la sociedad. •! Constituye una de las causas para la perpetuación de la pobreza y falta de desarrollo de los países.

Para desarrollar la biotecnología y la ingeniería genética se requiere adecuar y mejorar la educación en dichos campos y sus especialidades, considerando la biodiversidad y las potencialidades de nuestros países. Su uso por el Estado y la empresa privada promoverá el desarrollo científico y la investigación biotecnológica con aplicación a diversas ramas productivas, como la minería, lo cual contribuirá a disminuir la contaminación.

Sus causas más importantes están en la deficiencia educativa que afecta el desarrollo humano y en la ruptura de valores éticos. V.+ LAS MEGATENDENCIAS DE LA C,T E I La sociedad global se desenvuelve en el marco de megatendencias determinadas por cambios que a nivel mundial se producen en los diversos ámbitos de la actividad humana. Tales cambios condicionan las posibilidades de desarrollo nacional y representan, en unos casos, oportunidades para el progreso de nuestros países en las esferas económica, social y política, mientras que en otros podrían representar circunstancias poco favorables que debemos enfrentar para mantener el curso de nuestro desarrollo. Por ello es importante identificar dichas megatendencias, a fin de orientar mejor nuestras políticas nacionales de desarrollo y tomar las decisiones más apropiadas para el logro de los objetivos nacionales. Las megatendencias de mayor gravitación y a las que se debe prestar especial atención en el diseño de nuestra política de desarrollo son:

2.+ EL DESARROLLO DE LA NANOTECNOLOGÍA Y LA ROBÓTICA Manipular la materia a escala atómica será la clave del siglo XXI y el nuevo motor del crecimiento mundial. La materia manipulada a escala tan minúscula muestra fenómenos y propiedades totalmente novedosos. Los científicos utilizarán la nanotecnología para crear materiales, aparatos y sistemas poco costosos y con propiedades únicas. Esta tecnología promete beneficios de todo tipo, desde aplicaciones médicas (biología molecular, orgánulos, desarrollo de la memoria, la lógica, el yo, cardioterapias, cuidados sanitarios, enfermedades genéticas) hasta soluciones más eficientes a problemas ambientales y de otras áreas revolucionando la forma de vida en todos los ámbitos.

1.+ EL DESARROLLO BIOTECNOLÓGICO Y LA INGENIERÍA GENÉTICA La biotecnología, consiste en la utilización de organismos vivos o partes de estos para obtener o modificar productos, mejorar plantas y animales o desarrollar microorganismos para objetivos específicos. Podrá mejorar la alimentación (utilizable en los programas sociales vinculados al proceso de erradicación de la pobreza) y tener otros usos no alimentarios, como la producción de plásticos biodegradables, aceites vegetales y biocombustibles. También es útil en la minería, la medicina, la Derechos reservados COPIMERA 2015

Se estima que las ventas de productos que incorporan nanotecnología aumentarán del 0,1% del total de productos manufacturados en el 2004 al 15% para el año 2014. Los factores clave para el desarrollo de la nanotecnología, identificados por los expertos del Foro sobre las Tendencias Futuras (Future Trends Forum, FTF), son contar con las herramientas adecuadas que permitan el estudio a escala manométrica, la búsqueda de aplicaciones prácticas que atraigan la inversión 231


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

privada, la reducción de los costes de procesos y equipamiento, y una política gubernamental que fomente su desarrollo, todo lo cual ayudará a que penetre en el mercado con mayor celeridad. Entre los principales obstáculos encontrados está la escasez de inversión que supondría un despegue a largo plazo y la falta de coordinación entre centros de investigación y empresas, que podría hacer más difícil la industrialización de las aplicaciones.

recursos naturales. Al mismo tiempo, la preferencia por los productos orgánicos y naturales —alimentos, medicamentos, calzado, ropa, muebles, adornos, productos de tocador, etc—, asociados a una vida más sana y a una producción más limpia que no daña ni contamina el medio ambiente, abrirá nuevas oportunidades de negocios para nuestros países, caracterizados por su importante riqueza natural, lo cual significará incursionar con marcado éxito en los mercados, impulsando adicionalmente la introducción de otros bienes y servicios propios. En el futuro, el consumo de productos orgánicos crecerá de manera sustantiva y formará parte de nuestra vida cotidiana, al punto de sustituir casi totalmente los productos agropecuarios tradicionales. Como parte de este proceso, también se ampliará la demanda de actividades de ecoturismo, en las que nuestros países tienen un gran potencial.

El desarrollo de nuevos productos y procesos y la penetración en nuevos mercados exigen grandes inversiones, indispensables en el desarrollo de la nanotecnología. Las iniciativas públicas pueden permitir el despegue de esta tecnología y el sector privado está tomando un protagonismo creciente en la fase de aplicaciones. En la nanotecnología intervienen distintos agentes, como la empresa, la universidad y los consumidores, con el apoyo y la regulación variable del Estado según la etapa del ciclo del valor. Adicionalmente, el desarrollo de la cibernética posibilitará usos nuevos y generalizados de robots en las actividades productivas y domésticas, así como en los servicios públicos.

La exigencia de garantizar la calidad e inocuidad de los alimentos pone de relieve la importancia de los derechos de la propiedad intelectual de los insumos. En el caso peruano, el reciente desarrollo y aceptación de su gastronomía en el mercado internacional nos brinda más de un ejemplo de lo que se ha hecho y el potencial por desarrollar.

Para países que cuentan en su territorio con minerales básicos que utilizan estas tecnologías, se abre la posibilidad de beneficiarse y participar de las ventajas de esta tendencia mundial. Para ello se requiere importantes cambios que mejoren la educación, como la formación de nuevos campos y especialidades vinculados a desarrollarla, promoviendo el valor agregado en las zonas productoras e incrementando las exportaciones.

Por otro lado, la protección y la recuperación del medio ambiente en las diversas regiones naturales es aún una tarea ardua. Hay que recobrar el espacio perdido por el mayor abandono y desertificación de tierras y laderas causados por la migración a la ciudad, la carencia de manejo forestal que termina en deforestación, la contaminación por el uso inadecuado o la falta de tecnologías limpias en la explotación industrial extractiva (como la minería formal e informal y la pesca a gran escala) y de servicios (transporte con parque automotor obsoleto).

El Estado desempeña un rol importante para promover e invertir en investigación y en infraestructura y generar políticas de promoción de la nanotecnología y la robótica orientadas a la regionalización de la actividad económica, al desarrollo de industrias que requieren bajo niveles de capital y al fomento de una adecuada formación de redes o asociatividad. También puede mejorar el manejo del medio ambiente en sus diversos componentes (suelos, agua, bosques, diversidad biológica, energía), así como el control mediante diversas aplicaciones (alta resolución de fotografías, cálculos de áreas deforestadas, etc.). 3.+

+ GESTIÓN DE SOTENIBLE

Derechos reservados COPIMERA 2015

DEL

DESARROLLO

Para poder centrarnos en el enfoque del desarrollo sostenible debemos primero definirlo:

LA CONSERVACIÓN DEL MEDIO AMBIENTE La conciencia mundial acerca de los impactos de actividades humanas sobre la biodiversidad y naturaleza se intensificará y aumentará el poder de grupos ambientalistas, situación que limitará decisiones nacionales de aprovechamiento de

RIESGOS

las la los las los 232

•!

Es la satisfacción de las necesidades de la generación actual sin afectar o comprometer la satisfacción de las necesidades de las generaciones futuras. !

•!

Es el crecimiento social y económico que no agota los recursos naturales, !


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Venezuela y Brasil lideran con 0,548 y 0,542. Honduras!

•!

Es el empoderamiento ciudadano que construye institucionalidad.!

•!

Es la ampliación de los rangos de libertad y oportunidad de la gente por todas las generaciones.!

y!Perú!con!0,418!y!0,562.! ! 3.+

Con los datos del Foro Económico Mundial (WEF) que publicó el Informe Gl (69) y seguido de Perú (90), que se mantiene en la misma posición que el año anterior y está por delante de Argentina (91), Republica Dominicana (95), Venezuela (103), Paraguay (105), Bolivia (111).

Es importante una adecuada gestión de riesgos de los factores que obstruyen nuestro desarrollo sustentable a fin de lograr los objetivos estratégicos que nos hemos trazado como países.. 1.+

TRANSPARENCIA ANTICORRUPCIÓN

Y

LA

LUCHA

Los principales avances en la región fueron El Salvador y Uruguay, que subieron 18 y 10 ubicaciones. Entre los países con mayor retroceso están Brasil, que cayó 15 posiciones, y Panamá, con ocho. Las naciones que encabezan este año el ranking son Singapur (1) y Finlandia (2) debido a su aprovechamiento de las TICs como impulsores de la competitividad.

Cada año la Organización Transparencia Internacional publica el Índice de Percepción de la Corrupción (IPC). Un grupo de expertos puntúa un amplio grupo de países, utilizando una escala del 0 (percepción de altos niveles de corrupción) a 100 (percepción de muy bajos niveles de corrupción) para obtener la clasificación de los países en función de la percepción de corrupción del sector público.

2.+

RANKING GLOBAL DE TECNOLOGIA 2014

El informe identifica varios países que han hecho mejoras

De acuerdo a los indicadores publicados en el Barómetro Global de la Corrupción publicada por esta entidad, en la tabla del año 2014 podemos ver la clasificación de ése año, encabezada por Dinamarca y Nueva Zelanda, que son los países más “limpios”, es decir en los que la percepción de corrupción del sector público es menor. Comparten la última posición Afganistán, Corea del Norte y Somalia, que, con 8 puntos, son percibidos como los países cuyo sector público es percibido como más corrupto.

considerables, tanto en términos de su índice de puntuación como en su clasificación. Entre las que destacan por encima del tamaño de sus economías están Armenia (58) y Georgia (60), que más han mejorado desde 2012. Fuera del Cáucaso, los Emiratos Árabes Unidos (23), El Salvador (80), ex República Yugoslava de Macedonia (47), Mauricio (45) y Letonia (33) todas mejoraron notablemente durante el mismo período.

En el Anexo A se puede ver la cclasificación de los índices de percepción los países hispanohablantes en los años 2011, 2012, 2013 y 2014, según el Índice de Percepción de la Corrupción.

IDENTIFICACIÓN DE LOS RECURSOS RENOVABLES PARA EL LOGRO DEL DESARROLLO SOSTENIBLE

En 2011 se evaluaron 183 países; en 2012, 176 países; en 2013, 177 países y en 2014, 174 países. Venezuela lidera como el país más corrupto en Latinoamérica y el Caribe desde el año 2011 hasta el año 2014 pasado. El 2014 Venezuela ocupa la posición 161de 174 países evaluados, Honduras el puesto 126, Perú el 85, Paraguay es el segundo país más corrupto de Latinoamérica ocupando el puesto 150. De otro lado Uruguay y Chile son los países con menos corrupción en Latinoamérica, ocupan el puesto 21.

Hacemos un inventario de los recursos renovables materiales más importantes para lograr el desarrollo sostenible de nuestros países; hemos identificado a:

1.+ RECURSOS MATERIALES

•! •! •! •! •! •! •! •! •! •! •!

IDH AJUSTADO POR DESIGUALDAD El año 2014 De acuerdo al Anexo B, Noruega y Australia son los países con mayor Índice de Desarrollo Humano Por Desigualdad con 0,891 y 0,860. En Latinoamérica

Derechos reservados COPIMERA 2015

233

El conocimiento Las fuentes de energías: solar, eólica, hidráulica, biomasa, geotermal, etc. La producción de cultivos alimenticios. La forestación y la reforestación La piscicultura y la avicultura El trabajo La tecnología La innovación La ciencia La ingeniería La ganadería


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

•! •! •! •! •! •! •!

Reto y exigencia: Invertir en la formación de la ciencia y la conciencia del alumno para “Aprender a conocer y a ser” con ciencia y conciencia y, responsabilidad ambiental y social.

La porcicultura La avicultura La floresta La excelencia profesional El valor agregado La productividad La competitividad

2.+

Nuestras políticas de estado para ampliar nuestras matrices energéticas con fines de satisfacer la producción, el comercio y el consumo doméstico deben hacer uso intensivo de las energías renovables limpias amigables con el medio ambiente para afirmar nuestro desarrollo sustentable en forma permanente y autosuficiente.

2.+ RECURSOS INMATERIALES Los recursos renovables inmateriales más importantes para lograr el desarrollo sostenible de nuestros países, a saber: •! •! •! •! •! •! •! •! •! •! •! •! •! •! •! •!

3.+

La justicia La libertad La democracia La paz Los dones espirituales: el amor, la bondad, la caridad, la fraternidad, la lealtad, la templanza, la paciencia, … La belleza El arte Los principios rectores El desarrollo humano El autodominio y la tolerancia La educación y el buen ejemplo La frugalidad La autosuficiencia La virtud y la honradez Los talentos y aptitudes La autoestima

Albert Einstein decía que de la forma cómo los países en el futuro trataban a la ciencia y tecnología dependería su grado de riqueza o pobreza. El tiempo le dio la razón. El camino para lograr nuestra verdadera independencia económica es buscando la autonomía tecnológica y actuando con moralidad en la función pública. Desafío: En la batalla tecnológica global nuestros países de Latinoamérica vienen perdiendo terreno y posición, salvo honrosas excepciones, debido a que no hay una estrategia eficaz de desarrollo tecnológico por parte de nuestros gobiernos. Reto y exigencia: La inversión percápita en C,T e I por parte de nuestros gobiernos en los países de Latinoamérica debe incrementarse sustantivamente en función del PIB, para la mejora de la productividad y competitividad de nuestros recursos humanos. 4.+

FACTORES CLAVES DEL DESARROLLO:

PRODUCCIÓN ORGÁNICA En este escenario de exigencias, desafíos y retos debemos apostar por la producción orgánica tanto en los cultivos alimenticios y crianzas así como en el procesamiento de insumos, con el propósito de consumo de alimentos sanos, nutritivos y saludables.

LA EDUCACIÓN SOSTENIBLE Cualquiera que sea la estrategia metodología que se planifique en nuestras políticas de estado, debemos tomar en cuenta el siguiente postulado planteado como desafío para que la educación sea sostenible.

Desafíos: La producción de la mayoría de nuestros países latinoamericanos es de pequeña escala, debido a la escasez de terrenos y a la desertificación; salvo algunos donde hay de mediana y gran escala. Otro factor adverso es la falta de alimentos para atender a los más necesitados. La producción con agroquímicos ha generado diversos tipos de cáncer.

Desafío: La educación actualmente está sesgada mirando un sólo frente, el frente del saber del hombre. No se ha tomado en cuenta en los currículos educativos la formación del ser del hombre. Nuestros estados impulsan políticas educativas para desarrollar ciencia, pero no para desarrollar la conciencia del educando.

Derechos reservados COPIMERA 2015

CIENCIA, TECNOLOGÍA E INNOVACIÓN

+

RETOS Y DESAFÍOS DEL NUEVO ORDEN MUNDIAL

1.+

MATRIZ ENERGÉTICA

Retos y exigencias: Se requiere gestionar en cada uno de nuestros países un Plan Nacional de Producción Orgánica. Para los países que no disponen de grandes territorios para 234


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

la producción de cultivos y crianzas a gran escala, surge como estrategia de competitividad la producción de bienes, productos y servicios orgánicos. Es importante llevar adelante un Plan de Zonificación Económica Ecológica estratégica en cada país, para clasificar los territorios tanto para la producción agrícola, industrial como para las crianzas y áreas reservadas de conservación de la biodiversidad y del patrimonio arqueológico e histórico. Es un imperativo alimentaria.

moral

garantizar

la

según el Instituto del Banco Mundial, las infraestructuras de las TICs, las políticas públicas y la investigación e innovación. 9.!

seguridad

AGRADECIMIENTOS+

CONCLUSIONES 1.!

Es imprescindible que la educación en todos los niveles los docentes puedan contar con el apoyo de las TICs para la enseñanza de la ciencia, entre ellas las redes sociales a través de los selfies y los memes en el Facebok y el Twitwer.

Al Ing. Edgar Cáceres Cabana de la Universidad San Agustín del departamento de Arequipa, Perú, por su invalorable gestión y aporte a la formación de la Maestría en Ciencias, con mención en Redes Inteligentes y Energías Renovables.

Se puede deducir con claridad que si concordamos los indicadores de I + D vs. Corrupción, vemos que los países que tienen más incidencia de corrupción tienen los más bajos indicadores de I + D. Es decir tienen bajos niveles de competitividad y están en condición de países empobrecidos.

A mi padre Eleuterio Regalado Tiburcio por su incomparable ejemplo de trabajo. REFERENCIA+

2.!

3.!

4.!

5.!

Asimismo de los países cuyos índices de Corrupción son elevados se observa que sus indicadores de pobreza también son altos. O sea que a mayor corrupción hay mayor pobreza. En reversa podemos también inferir que en los países donde existen mejores índices de transparencia existen menores grados de pobreza y pobreza extrema.

1.! 2.!

Así también en aquellos países donde hay elevados factores de transparencia, hay menos índices de corrupción. Los países que tienen mejores niveles de transparencia han llegado a obtener mejores indicadores de I + D, lo cual es favorable.

6.!

Para que la Educación sea eficaz se tiene que invertir no sólo en la mente del alumno sino también en la formación de una buena conciencia, es decir de manera integral en la formación del saber y el ser del hombre.

7.!

Los países que continuaron sin tregua la investigación científica y tecnológica son los que se desarrollan, mientras que los otros tienen problemas de empleo y recesión.

8.!

Es el talento en Ingeniería y en Tecnología el que inicia la cadena del desarrollo de nuestros países que incluye,

Derechos reservados COPIMERA 2015

235

Metodología de la Investigación, Neil Quezada, Edit. MACRO, Perú 2010. Economía Ambiental, Barry Field, Edit. Mc Graw Hill, Colombia 2005.

3.!

Metodología de la Investigación, César Augusto Bernal, Edit. PEARSON, México, 2006.

4.!

Política Nacional del Ambiente, D.S. Nº 02 -2009 – MINAM, Perú 2010.

5.!

Ley del sistema Nacional de Evaluación de Impacto Ambiental y su Reglamento, MINAM, Perú 2011.

6.!

El Mecanismo de Desarrollo Limpio, Programa Peruano de Cambio Climático y Calidad del Aire.

7.!

Proyecto Registrado ante la JE del MDL, febrero 2013.


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

País Argentina

ANEXO A INDICE DE PERCEPCIÓN DE LA CORRUPCIÓN CLASIFICACIÓN DE LOS PAÍSES HISPANOHABLANTES 2014 2013 2012 107 106 102

Bolivia Chile Colombia Costa Rica Cuba República Dominicana Ecuador El Salvador España Guatemala Guinea Ecuatorial Honduras México Nicaragua Panamá Paraguay Perú Puerto Rico Uruguay Venezuela Fuente: Transparencia Internacional

2011 100

103

106

105

118

21 94 47 63 115 110 80 37 115

22 94 49 63 123 102 83 39 123

20 94 48 58 118 118 83 30 113

22 80 50 51 129 120 80 31 120

126 103 133 94 150 85

163 140 106 127 102 150 83

163 133 105 130 83 150 83

172 129 100 134 86 154 80

31 21 161

33 19 160

33 20 165

39 25 172

ANEXO B La siguiente lista clasifica a los países de acuerdo a su índice de desarrollo humano ajustado por desigualdad (IDHD) y muestra el IDHD de cada uno. IDH Ajustado Por Desigualdad (Año 2014) Puesto

IDHD

Puesto

Noruega Australia

0.891

74

Venezuela

0.548

0.860

75

Vietnam

0.543

3

Países Bajos

0.854

76

0.542

4

0.847

77

5

Suiza Alemania

Brasil Filipinas

78

República Dominicana

0.535

6

Islandia

0.843

79

0.534

7

Suecia

0.840

80

Surinam Guyana

8

Dinamarca Canadá Irlanda

0.838

81

Colombia

0.521

82

Maldivas Kirguistán

0.521

1 2

9 10

País

Derechos reservados COPIMERA 2015

0.846

0.833 0.832

83

236

País

IDHD

0.540

0.522

0.519


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

11 12

Finlandia Eslovenia

0.830 0.825

84

Egipto

0.518

85

0.518

13

Austria Luxemburgo

0.818

86

Siria Paraguay

0.814

87

0.813

88

Gabón Cabo Verde

0.512

16

República Checa Reino Unido

0.812

89

Bélgica

0.806

18

Francia

0.804

19

Japón

0.799

90 91 92

Irak Irán Tayikistán El Salvador

0.505

17

20

Israel

0.793

93

Bolivia

0.470 0.465

14 15

0.513 0.511 0.498 0.491 0.485

21

Eslovaquia

0.778

94

22

España

0.775

95

Bután Nicaragua

Italia

0.768

96

Camboya

0.440 0.433

23

0.452

24

Estonia

0.767

97

25

Grecia

0.762

98

Marruecos Timor Oriental

0.760

99

Guatemala

0.422

0.757 0.757

100

Botsuana

0.422

101

India Honduras Kiribati Bangladés

0.418

26 27 28

Malta Hungría Estados Unidos

0.430

29

Chipre

0.752

30

0.751

31

Polonia Lituania

0.746

102 103 104

32

Portugal

0.739

105

Ghana

0.394

33

Corea del Sur Montenegro Bielorrusia Letonia Croacia

0.736

106

0.733 0.726 0.725 0.721

República del Congo Santo Tomé y Príncipe

0.391

107 108

Nepal

0.384

109

Pakistán Islas Salomón

0.375

109

Rumania Bulgaria

0.702

110

Zambia

0.365

0.692

111

0.360

40

Argentina

0.687

112

Kenia Zimbabue

41

Rusia

0.686

113

Tanzania

0.356

42

0.676

114

Suazilandia

0.354

43 44

Chile Bahamas Kazajistán

0.676 0.667

115

Namibia

0.352

116

Madagascar

0.346

45

Ucrania

0.667

117

Camerún

0.339

46

Serbia

0.663

118

Ruanda

0.338

47

Uruguay

0.662

119

Yemen

0.336

48

Mauricio Azerbaiyán Armenia Bosnia y Herzegovina Trinidad y Tobago

0.662

120

Uganda

0.335

0.661 0.655 0.651 0.649

121

Senegal

0.326

122

Afganistán Togo

0.321

34 35 36 37 38 39

49 50 51 52

Derechos reservados COPIMERA 2015

123

237

0.418 0.416 0.396

0.384

0.374

0.358

0.317


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

53

Sri Lanka

0.643

124

Mauritania

0.315

54

Turquía

0.639

125

Lesoto

0.313

55

Georgia República de Macedonia

0.636

126 127

Benín Etiopía

0.311

0.633

Albania Mongolia Fiyi Costa Rica Jordania

0.620

128

0.306

0.618 0.613 0.611 0.607

129

Yibuti Nigeria

0.295

131

Angola Haití

132

Malaui

0.282

Líbano Palestina

0.606

133

0.279

0.606

Costa de Marfil

134

0.596

135 136

Mozambique Liberia Burundi

0.277

Panamá México Moldavia

137

0.252

0.579

Burkina Faso

68

Arabia Saudita Jamaica

138

69

Tailandia

0.573

Guinea Guinea-Bisáu

0.243

139 140

71

Perú Uzbekistán

0.562

Chad

0.232

70

141

Níger

0.228

73

Ecuador

0.549

142

República Democrática del Congo

0.211

143

Sierra Leona

0.208

144

República Centroafricana

0.203

56 57 58 59 60 61 62 63 64 65 66 67

130

0.583 0.582 0.579

0.556

Fuente: Cornell University

Derechos reservados COPIMERA 2015

238

0.307 0.296 0.285

0.273 0.257

0.239


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Derechos reservados COPIMERA 2015

!

!

239


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! !

PROYECTO+PARA+UN+SISTEMA+DE+BOMBEO+USANDO+ENERGÍA+SOLAR+ Juan A. Herrera Quiroz Departamento de Ingeniería Eléctrica, Universidad de Santiago de Chile Juan.herrera@usach.cl

Resumen+

En este proyecto, se considerará un estanque de acumulación y normalmente en este tipo de instalaciones no se usan baterías.

Las energías renovables cada día son más comunes en el mundo doméstico e industrial agrícola, en este caso se abordará los sistemas fotovoltaicos, SFV y aplicados al mundo agrícola ganadero.

GENERADOR+SOLAR

L1

INVERSOR/REGULADOR/ CONTROL

L2

P2

E01

BOMBA

Figura 1. Disposición de un sistema de bombeo solar con estanque de acumulación. El generador solar, puede ser fijo, sin movimiento o con movimiento usando seguidor solar, este puede ser de un eje (seguimiento de la trayectoria solar diaria) o en dos eje (incluye la anterior, además de seguimiento estacional, verano invierno). El primero tiene la ventaja de aumentar la eficiencia de captura de energía desde un 20 a 25%, en cambio el segundo mejora esta eficiencia entre un 20 a 30 %,, pero los costos al proyecto aumentan. De acuerdo a estudios y para casos como los que estamos abordando, si se desea usar seguimiento, se recomienda trayectorias de un eje.

En el presente tema se toma el caso del tipo off grid, o sea, no conectado a la red y considera un sistema sin baterías, con el fin de hacerlo más rentable.

En relación a los paneles solares, el mercado actualmente ofrece una gran variedad en potencias (desde 150 Watt por m2 hasta 300 Watt por m2) y precios desde US$ 90 a US$ 250 por m2 , de diferentes procedencia, España, Alemania, Francia, China y otros países, cabe destacar que China actualmente maneja cerca del 50% del mercado.

1+ Componentes+del+sistema+de+bombeo+ solar+ La siguiente figura 1, muestra una disposición del sistema que incorpora el generador solar fotovoltaico, la unidad acondicionadora desde la energía solar a energía eléctrica, o conversor Solar-Eléctrico, posteriormente, se considera la unidad hidráulica que incluye desde la bomba al consumo.

!

FILTRO

POZO+SUMERGIBLE

Fundamentalmente se presentan los aspectos relevantes en este tipo de casos, los cuales se pueden tomar como referencia para otras aplicaciones similares. Se mostrará los componentes y aspectos a considerar, también se abordará un ejemplo práctico que ilustra el trabajo como guía a este tipo de problemas.

Derechos reservados COPIMERA 2015

P1

2H2Max

CAUDALIMETRO,+Q

El presente trabajo tiene como propósito mostrar los argumentos más necesarios para abordar un proyecto para un sistema de bombeo en base a energía solar, a este lo llamaremos Sistema de Bombeo Solar, y estará orientado a usos en ganadería, lo novedoso estará dado por los argumentos y los componentes que considera un proyecto de este tipo donde se debe disponer de varias instancias, desde la necesidad hasta la tecnología a usar.

ESTANQUE+EN+ ALTURA

Posteriormente, se incluye un sistema eléctrico o conversor electro-solar, este considera un inversor de corriente (convierte la corriente directa, generada en la celda solar, en corriente alterna), un regulador de tensión, cuyo fin es mantener la 240


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! energía producida en un valor de tensión eléctrica nominal fija y la unidad de control y de protección, que considera las variables del proceso electro-hidráulico, tales como las medidas de la presión, nivel, caudal y posicionamiento del SFV, las protecciones de la instalación eléctrica de la motobomba y las unidades eléctricas (transferencia de energía).

superficiales, estas están a nivel de piso y hasta unos 6 mts. de profundidad. Los rangos de profundidad de las primeras o sumergibles, van desde unos 6 metros hasta 120 metros, pero los mayores rangos se dan entre 10 a 50 mts. El motor eléctrico, que puede ser de corriente continua o alterna, siendo los más comunes los de tipo corriente alterna, se destacan por su disponibilidad en el mercado y la larga vida del equipo.

Motobombas

Cada motobomba es caracterizada según sus curvas características del caudal de agua v/s su potencia eléctrica, Q [m3/h] v/s Pe [Watt], la figura 2 nos muestra una de estas curvas.

Es uno de los componentes principales del sistema y el consumidor de la energía, en conjunto con la unidad de regulación/inversor/control, URIC. En este tipo de proceso, se considera como un CONVERSOR electro-hidráulico, debido a que la radiación solar (estado natural) es transformada a energía eléctrica y esta a su vez es convertida a energía hidráulica. Las ecuaciones que describen el sistema consumidor se muestran en la siguiente Tabla 1: Tabla 1. Variables del sistema de bombeo solar, consumidor Ecuaciones

Variables

Unidades

Eh = ! ∗ # ∗ $% ∗ &'()

Eh : Energía Hidráulica *: ,-./0,1,, 1 4: 4516-,1,, 9.8: ;<: Altura Total, hd + Hm hd: Profundidad del pozo (10-50 m) Hm : Altura estanque (6 a 10 m) =,01: Demanda de Agua Ph : Potencia Hidráulica Q: Caudal

Joule, Kwh Kg/Lts m/s2 mts. o m “ “

?: Eficiencia:del subsistema Ee: Energía Eléctrica Ph: Potencia hidráulica = Q*P P: Presión hidroestática, * ∗ 4*h

Adimensional

b)

Kwh Watt Columna de agua, barométrica

Figura 2. a) Curvas Características de Bombas Sumergibles, b) Imagen, fuente: www.grundfos.com

Watt Volt Amperes

La Tabla 2, nos muestra algunos proveedores de bombas especiales para sistemas fotovoltaicos [2]:

Ec. 01

Ph = ! ∗ # ∗ $% ∗ > Ec. 02 ?: = Aℎ/AEc. 03 ?: = Dℎ/DEc. 04 Rangos entre: 35 a 45 %

Pe: Potencia Eléctrica = V*I V: Voltaje I: Corriente Fuente: Elaboración Propia.

a)

3

m día

Watt m3/s o Lts/seg, L/s

En general, las motobombas son del tipo sumergible, sin dejar de lado que existe un número significativo de bombas Derechos reservados COPIMERA 2015

!

241


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Tabla 2. Proveedores más comunes en sistemas de bombeo.

Fuente: Elaboración propia.

instalaciones) y que de acuerdo a su función se toman decisiones automáticas sobre el proceso para operar el sistema de manera eficiente y controlada. La figura 3, muestra algunos

URIC Otro componente importante es la unidad de regulación/inversor/control, URIC, incluye un regulador de tensión eléctrica, cuya función es mantener el valor de voltaje dentro de un rango permisible (no más del 5% del valor nominal), las tensiones comunes son 110 ó 220 VAC, estas unidades están basada en electrónica de potencia a lo igual que los inversores, siendo este la subunidad que debe transformar la corriente directa en corriente alterna, además, de adaptarla a los valores de salida.

kit de esta unidad.

Finalmente, tenemos una unidad de protección y control del sistema, con sus enclavamientos y protectores eléctricos de la red y los equipos, aquí se monitorean las variables a medir en el proceso electro-hidráulico (últimamente como alternativa, se están usando sensores inalámbrico en mucha de estas Derechos reservados COPIMERA 2015

!

242


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! Figura 3. Unidades de Inversión, Regulación, Control y Protección, URIC

Fuente: Elaboración Propia.

2 Planificación+y+diseño+del+sistema+de+ bombeo+solar

3+

Para determinar la cantidad de agua (Vdia) se debe considerar los consumos de los participantes en el sistema, La tabla siguiente nos ofrece algunos datos [2].

Esta parte del proyecto, considera los requerimientos del proyecto y define la factibilidad de este en función de los beneficios que ofrece la energía solar, aquí, se debe considerar los siguientes aspectos: •! •! •! •!

•! •! •!

Tabla 4. Consumos de agua en ganadería y agricultura básica

Demanda de Agua, Vdia, o requerimientos diarios y su uso (beber, regar, uso doméstico, otros). Disponibilidad de la luz solar y su ubicación geográfica. Características del pozo, su profundidad, nivel mínimo de agua (drawdown), taza de descarga, variación estacional. Altura total de bombeo, Ht , elevación desde el nivel referencial hasta el punto de descarga, longitud del ductos, diámetro del ducto y su materialidad (PVC, concreto, otro). Motobomba. Estanque acumulador. Costos, capital invertido, mantenimiento, ciclo de vida, trabajo, otros.

Otros factores a considerar son: •! •! •! •!

Tabla 3. Ventajas y Desventajas de la Energía Solar Fotovoltaica. • Energía Renovable y Sustentable • Sin costos de combustibles fósiles • Independiente de redes eléctricas (grid) y aplicaciones remotas • Bajos costos de operación y mantenimiento • Incentivos gubernamentales y externos • Inversiones de capital aceptables y medibles • Largo ciclo de vida más de 20 años • Relativamente fácil de instalar • Sistema modular y flexible a modificaciones si es necesario

• Dependiente de la varianza de luz solar y su intensidad • Bajas cantidades de Caudal o Flujo • Necesidad de un sistema de almacenamiento. • Tiempo necesario de almacenamiento • Alto costo inicial (costos de arranque) aunque su amortización es adecuada y al final del ciclo pasa a ser un proyecto rentable

Derechos reservados COPIMERA 2015

!

Vdia ,en Galones por día

Ganado en guardería Ganado de Lechería En crianza Vacas, toros y bueyes Caballos Ovejas Cerdos Arboles tipo Cherry [1] Arroz Cereales Parcelas productivas

17,5 30 14,5 20 (en verano) 15 1 a 3 (según lactancia) 3 a 4,5 GPdía *100 Kilos 4 100 m3/Ha 45 60

Humanos

75

En ganadería, los requerimientos de agua varían según la temperatura del aire (cambios entre 15ºC a 30ºC puede aumentar el consumo de agua por 2,5 veces), la edad del animal y su tamaño, la distancia de los bebederos, lactancia, sequedad de los alimentos y sus mezclas, cantidad de alimento y su calidad, búsqueda del alimento (o forraje), tipo de ganado (para carne o para leche). [3]

Las virtudes de esta tecnología la muestra la Tabla 3.

DESVENTAJAS

Items

Un galon USA = 0,0037854 m3 = 0,0037854 * 1000 lts = 3,7854 Lts. Además, 1 pies = 0,3048 mts.

Empresa que instala y mantiene el sistema. Seguridad y monitoreo. Medio ambiente (ruidos y derrames). Automatismos.

VENTAJAS

Los+consumos+

Por ejemplo, un consumo promedio diario para vacas y terneros en verano (20 GPdía), si consideramos 50 unidades el total diario serían 1.000 G (300 litros aprox.), aquí, es necesario saber cuánto es el costo por galón. [3]

4+

La+hidráulica+

El pozo debe estar bien diseñado, en lo posible certificado para asegurar la eficiencia del sistema global. Un aspecto importante es la profundidad y ancho del pozo, ya que estos datos deciden las dimensiones de la bomba y la demanda del circuito. Otro factor es la Altura Dinámica Total, ADT ó TDH (Total Dinamic Head), siendo igual a la altura hidrostática (desde el mínimo nivel hasta su máxima altura). Además, se debe considerar la distancia entre el pozo y el estanque y sus derivaciones, más diferencia de altura entre la parte superior del pozo y la parte superior del estanque. 243


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! La TDH, es el equivalente vertical en distancia que la bomba debe mover de agua, o también es la presión que se debe vencer para mover el agua a cierta altura. La presión se puede expresar en libras por pulgada cuadrada manométrica (Psig), o Bars, ó columna de altura de agua o similar. Siendo esta presión definida como la fuerza causada por el peso del agua en una columna o altura, conocida como Head (pies o metros de columna de agua), por ejemplo, 10 pies o 3,04 mts. equivale a 4,3 Psig de presión, siendo esta el esfuerzo de la bomba o el trabajo para mover el agua desde la fuente al punto de descarga, en otras palabras la presión que se debe vencer.

Potencia Bomba (W) = (0.1885 × TDH × Q) / η

Donde Q y TDH son los cálculos anteriores y η es la eficiencia de la bomba, donde un valor aproximado es 35 a 40 %, según fabricante. Los valores resultantes de las ecuaciones anteriores, además de información de catálogo u hoja de datos, son los factores necesarios para determinar o especificar la Bomba Otros parámetros a considerar son: •!

Este parámetro se compone del nivel de profundidad del pozo en su mínimo según la estación del año, el nivel de descarga y su elevación desde el nivel superficial al punto de descarga. Hay varias ecuaciones que determinan este parámetro, una de las más comunes es la siguiente:

•! •! •! •! •! •! •!

Elevación Total en el Pozo (pies o mts.) = Nivel de agua + Nivel desde fondo a ingreso bomba (draw-down) + elevación a superficie (medido desde el nivel agua) Ec. 05 Otro factor que influye en la determinación de TDH es la rugosidad de la tubería y la disposición de esta, ejemplo, en una tubería de PVC este término es de 140, estos valores normalmente influyen en el cálculo de pérdidas de carga, causada por fricción, codos y longitud de la tubería, normalmente una regla de juego, es usar un valor que va desde los 3 a 5 %, del diseño final del TDH.

Tabla 5. Costo de Inversión del Proyecto.

;L:(N O ) = =QíS : N T ∗ UV;(N) Ec. 06 Si la carga hidráulica es menor que 1500 m4, entonces el proyecto es un buen candidato para su implementación, o sea, buena factibilidad y si este valor está entre 1.500 y 2.000 m4, está en el límite del proyecto y si es mayor que 2.000, entonces se debe considerar otra opción y dependerá del valor de la energía de la red o del valor de los combustibles alternativos. Para determinar la Bomba, debemos considerar su Demanda Diaria, Vdia GP día, y el máximo valor de luz, desde tabla entregado por un departamento de Física geo referencial (PSH: peak sunlight hour) Ec. 07

Otro valor importante es la potencia de la bomba, siendo esta la resultante de la siguiente ecuación: Derechos reservados COPIMERA 2015

!

Calidad de las aguas, calcáreas, algas, sales, arenas u otros minerales. Características de la red hidráulica, orificios, codos y tipo e material. Uso de la bombas, sumergible o superficial. Volumen de agua a mover. Altura Dinámica Total o TDH. Espacio de trabajo donde se instala la bomba. Normas o Estándares, SEC,NEC, IEC, ASME otros. Valores nominales, voltaje, corriente, potencia, eficiencia (OEE)

Un ejemplo a considerar es el siguiente (los valores son referenciales en la zona central del país, Chile), el modelo tiene referencia [2]:

Otro término usado en este tipo de sistema es la Carga de Trabajo Hidráulico (HW, Hydraulic Workload), si convertimos los pies a metros y los galones a metros cúbicos, se tendrá que este indicador de potencia como un buen factor de diseño se determina por:

W(XDY) = =,01/DZ; ∗ ;5//60N0.

Ec. 08

244

Ítems

Cantidad

Valor $US

TDH (mts) Caudal Bomba (GPM) Potencia Motobomba (watt) PSH, zona central Chile SFV, generador solar (watt) Montaje por módulo, total Bomba Grundfos 6 SQF2 Controlador Grunfos CU200 Protección Eléctrica Alambrado eléctrico (m) Canalización hidráulica (m), piping Pozo (m) Estanque (G) Instalaciones varias del sistema Valor Total

30 3,5 1500 5,5 2000 10 1 1 1 30 35 25 3000 1

----0,8 15 1500 400 200 6 5 100 1,5 1000

en

Total $US

----1600 150 1500 400 200 180 175 2500 4500 1000

US$ 12.205


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! Costo Inicial del SFV & H = US$ (41.750 + 8.320 + 2.000) = US$ 52.070

Fuente: Elaboración Propia.

5 Ejemplo+básico:++comparación+entre+ energía+diesel+y+energía+solar, [4]

Para el sistema de almacenamiento se tiene:

El Problema: Consideremos una motobomba accionada por Diesel de 5 Kw, que funciona 12 horas diarias (10 en el día y 2 durante la noche) por el periodo de 30 semanas por año y que bombea la cantidad de 8 Lts/seg a una altura de 30 mts. La energía solar en la zona tiene un factor de 15%. Se solicita evaluar económicamente el proyecto para tomar una decisión en la factibilidad solar.

Primero debemos determinar el Volumen del estanque, siendo V = Q (Lts./hrs) * 2 hrs. = 8 Lts/s * 3.600 s/hrs. * 2 Hrs = 57.600 Lts

Costos estimados para bombeo Diesel

Costo Inicial del SFV & H = US$ (41.750 + 8.320 + 2.000) + Costo de almacenamiento (US$ 11.500)

Considerando un costo de almacenamiento de US$ 0,2 /Lts instalado, el valor resultante es: US$ 11.500 Finalmente los valores totales son:

Energía (KWh/año) = 5 KW*12h/día*30 semanas años * 7 días = 12.600 Kwh/año

Inversión de capital = US$ 63.570

Si el consumo de diesel es 0,3 Lts/KWh (33% de eficiencia), datos fabricante ! Consumo Anual de Diesel es QD (Lts/año) = 12.600 KWh/año * 0,3 Lts/KWh = 3.780 Lts/año

Algunos países ofrecen incentivos en relación a la inversión que crean beneficios (CapEx), este beneficio se considera como un activo fijo con una vida útil que va más allá del año imponible, en este caso sobre 20 años. Así la propiedad tomar un valor agregado ya que se incluye como capitalización, o sea, aumento del valor base del bien. Este beneficio ayuda a que se mejore el retorno de la inversión, ROI.

Si el valor del Diesel es US$ 1,5 Lts (se considera costo de transporte, almacenamiento y otros) Costo Anual (US$/año) = 3.780 Lts/año * 1,5 US$/Lts = 5.670 US$ p año, además, se debe considerar un valor de mantenimiento estimado en US$ 100 por MWh !

Para este ejemplo, se considera que este beneficio es de US$ 10.380, por lo cual la inversión se reduce a US$ = 53.190

12,6 MWh*US$100/MWH = US$ 1.260 p año

Por otro lado, se considera que los costos de operación del sistema solar es US$ 25 / Kw, tomando en cuenta los 16,7 Kw resulta US$ 418 p. año

Valor estimado con Equipos Solares Al reemplazar el sistema de bombeo por solar y de las mismas potencias, 5 KW, usando el 15% de eficiencia solar, entonces se tiene:

De lo anterior y considerando el costo anual del QD = US$ 5.670 y tomando en cuenta que estos serán ahorrados, e incluyendo los costos de operación se tiene: Ahorros = 5670418 ó US$5.252 p año, pero además, existe un ahorro del costo de mantenimiento diesel, US$ 1.260. Por lo tanto, el ahorro total será = US$ 6.512.

Qs (Kw) = 5 Kw* 12 h/día*365 día/año = 16,7 KW 0,15 * 8,760 h/año Horas del años = 365 * 24 h/año = 8760 h/año

Si tomamos en cuenta este último valor y lo dividimos a la cantidad de la inversión, se tendrá:

Así, la energía usada que es tipo off grid, en diesel es 12,6 MWh (o 3.780 Lts/año de diesel) con un costo estimado de US$ 5.670 al año.

El retorno de este proyecto (payback) es US$ [53190/6.512] = 8,2 años

Valor Estimado del Sistema Solar Estimados de los capitales iniciales: Asumiendo que el costo del SFV es US% 2,5/watt, incluye estructuras y montaje, para los 16,7 KW se tiene una inversión de US$ 41.750. El valor estimado para el sistema de bombeo y sus accesorios es de 5 Kw (controladores y protección) instalado es de US$ 8.320 y el costo de las tuberías es de US$ 2.000, se tiene un total de

Derechos reservados COPIMERA 2015

!

Conclusiones:+ En relación a los paneles solares la situación de estos proyectos se hacen favorables, tomando en cuenta que los costos de los paneles instalados en los años 2000, ascendían a 10US$ el Watt, llegando a 6 US$ en el año 2010 y en los años 2014 se acercaban a US$ 2,8.

245


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! Otros aspectos a considerar es el término, simple retorno o payback, PB, siendo su determinación dado por:

Juan Aroldo Herrera Quiroz,

]^_`^:a^`Sb:cd_`SbSQ^:Qeb:fg^hei`^j(cklme_`^_,_mn_cQc^_,`S_S_:Qe:igeQc`^_)

Ingeniero Civil Electricista (año 1980), con estudios de Post Grado en Automatismo e Informática, Académico de la Universidad de Santiago de Chile, Facultad de Ingeniería, Departamento de Ingeniería Eléctrica (desde 1984), actualmente se desempeña como Jefe del área de Control de Procesos Industriales. Profesor en las asignaturas de "Instrumentación de Procesos Industriales", "Control de Procesos Industriales" y "Proyectos para la Automatización".

opq:SdmSb:lg^QmicQ^:e_`ckSQ^∗lgeic^:rst∗ouq:Qe:bS:]íS:

Ec. 09 Este valor nos indica en que tiempo podemos recuperar la inversión, cabe destacar que en los últimos años y gracias a las nuevas tecnologías de las celdas solares, los ciclos de vida de las celdas solares alcanza los 30 años. No siempre este término nos da la rentabilidad del proyecto, sólo ayuda. Para tener valores más ajustados debemos considerar la inflación, el VAN (valor actual neto, diferencia entre la inversión en efectivo y los ingresos efectivos presentes), tasas de retornos (TIR).

Además, ha sido asesor en empresas del ámbito industrial y minero del país, en temas asociado con automatización de procesos industriales como en ingeniería de proyectos, también, se ha desempeñado como consultor y elaborador de programas en Competencias Profesionales y Laborales en empresas de la minería y de servicios eléctricos.

El valor de la electricidad, Kwh, y la inflación juegan un rol importante en el cálculo del Payback, considerando la capacidad instalada del sistema Otro factor importante, son los incentivos ofrecidos por las entidades de gobierno u otras.

Participa en el grupo de Energías Renovables No Convencionales del Departamento de Ingeniería, el cual ofrece cursos, realiza estudios y consultorías al ámbito industrial y empresarial.

Considerando las leyes del país con compra de energía, en los casos de SFV On Grid, se tiene dos tipos de compra, una conocida por Net Metering y otra Net Billing, por lo cual se debe saber cual debemos aplicar. En Chile se usa el net billing. REFERENCIA [1]:

Application of Solar Powered Automatic Water Pumping in Turkey, Mahir DURSUN and Semih OZDEN, International Journal of Computer and Electrical Engineering, Vol.4, No.2, April 2012

[2]:

Solar-powered Groundwater Pumping Systems, R. Van Pelt, C. Weiner and R. Waskom, Natural Resources Series|of Colorado University.

[3]:

Designing Solar Water Pumping Systems for Livestock, Circular 670, Thomas Jenkins. College of Agricultural, Consumer and Environmental Sciences • College of Engineering University of New Mexico.

[4]:

Solar PV pumping systems,Australian Government, Departament of Industria FARM ENERGY INNOVATION PROGRAM - ENERGY & IRRIGATION

Derechos reservados COPIMERA 2015

!

246


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Derechos reservados COPIMERA 2015

!

!

247


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ AVANCES+DE+LA+RED+TECNOLOGICA+NACIONAL+SOBRE+EFICIENCIA+ ENERGETICA+

+

Luis H. Hernández1, Santiago N. Odobez 2, Jorge F. Fernandez 3, José L. Torres4, Leonardo Melo4, Jorge R. López(4), Raúl A. Versaci4, José L. Maccarone 4, Pedro R. Juárez4, Gustavo E. Monte4, Cristian Balderrama(5) 1

Director del Proyecto Integrador Red Tecnológica Nacional sobre Eficiencia Energética de la Universidad Tecnológica Nacional – Facultad Regional Pacheco. 2Co-Director del Proyecto Integrador Red Tecnológica Nacional sobre Eficiencia Energética de la Universidad Tecnológica Nacional – Facultad Regional Delta. 3Director del Programa de Energía de la Universidad Tecnológica Nacional y Director del Proyecto asociado al Proyecto Integrador – Facultad Regional Mendoza, 4Integrantes del Proyecto Integrador Red Tecnológica Nacional sobre Eficiencia Energética de la Universidad Tecnológica Nacional y Directores de Proyectos asociados al Proyecto Integrador de cada Facultad Regional, Santa Fe, Avellaneda, Buenos Aires, Haedo, La Plata, Gral. Pacheco y Neuquén. (5) Becario Graduado del Proyecto Integrador Red Tecnológica Nacional sobre Eficiencia Energética de la Universidad Tecnológica Nacional – Facultad Regional Pacheco

! !

!

!

Resumen+ Se trata de un proyecto asociativo en el cual intervienen 9 Facultades Regionales de la Universidad Tecnológica Nacional. La propuesta es integrar un Proyecto entre los grupos que trabajan en el campo energético, con el fin de conformar una Red Tecnológica Nacional Sobre Eficiencia Energética en el ámbito de la Universidad Tecnológica Nacional. Sustentada por la existencia de una vasta experiencia de trabajos realizados por los distintos grupos de nuestra Universidad que permitirá generar una base de datos unificada a nivel nacional y proveer a las PyMEs de una herramienta capaz de ayudarles en la gestión energética, que contemple los requisitos indispensables para, en el futuro, poder certificar la norma IRAM/ISO 50001:2011 de Gestión de la Energía. El enfoque del proyecto es analizar la gestión de la demanda y el uso de la energía que realizan las PyMEs de los sectores seleccionados, con la finalidad de determinar características similares y desde esa base, elaborar la matriz energética típica del sector para desarrollar una herramienta software para la gestión de los energéticos demandados y utilizados por las empresas. El proyecto aborda como base la norma IRAM / ISO 50001 y sus guías de referencia para la Gestión de la Energía en las Organizaciones. ! Derechos reservados COPIMERA 2015

Palabras claves: Gestión, Eficiencia Energética, PyMEs, Red + Introducción+ Uno de los pocos insumos para las organizaciones que aún se encuentra desactualizado en precio es la energía en dos de sus formas que más podrían impactar por su grado de consumo, el gas y la energía eléctrica. Estos insumos se convertirán tarde o temprano en una de las variables que afectarán la competitividad de las empresas, sobre todo para las PyMEs, que aún no hayan transferido a sus costos los valores que realmente deberían tener. La pregunta es: ¿Hay otra forma de tenerlas en cuenta que no sea solo transferirlas a los costos de producción o servicio? Antes de contestar esa pregunta, hacemos una pequeña introducción de la problemática. El precio actual de las unidades de energía está desactualizado y lleva poco más de una década, no hace falta más que pensar que entre otras cosas los insumos de los actores principales del mercado energético, tanto productores, como transportistas y distribuidores, sobre todo los dos primeros, los más importantes para las PyMEs, el gas y la electricidad, han incrementado sus costos desde el 2002 en el mejor de los casos 4 a 1, siendo que los precios de venta de estos energéticos se mantuvieron casi constantes por más de media década y los ajustes que tuvieron en el último tiempo 248


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

tampoco alcanzan a los valores reales. Siendo compensados por Subsidios del Estado. Estos insumos tienen la particularidad de que su precio no se puede negociar, ni tampoco se cuenta con distintos proveedores para el mismo energético, por lo menos no para el gas y la electricidad. Y los costos realmente involucrados no son solo los realizados en el proceso de fabricación y/u operación de la organización, llamados costos directos, sino que también existen los costos de energía incorporados a los bienes de capital utilizados indirectamente para la producción y/u operación, los llamados costos indirectos. Por lo tanto un camino alternativo a traspasar los costos energéticos directamente al producto o servicio, es su gestión, lo que haría que estos insumos se conviertan en una variable competitiva para la PYME. El enfoque del proyecto es analizar los usos y consumos de energía que realizan las PYMES del de los sectores seleccionados con la finalidad de determinar características similares y desde esa base, elaborar la matriz energética típica del sector y desarrollar una herramienta software para la gestión de los energéticos consumidos y utilizados por las empresas. Se realizarán estudios y análisis sobre PyMEs representativas de un sector en particular en las regiones abarcadas por las Facultades que integran el proyecto. Luego de poco más de dos años de trabajo la Comisión de Energía de la ISO, de la cual la IRAM es integrante con vos y voto a través de su subcomisión de Energía, terminó de desarrollar y publicar la Norma IRAM/ISO 50001–2011. Para las organizaciones que ya tienen o aplican algunas de las normas ISO, tales como la 9001, o la 14001 o la 18001, la 50001 es muy familiar porque justamente se desarrolló para que así lo sea, con las variantes técnicas de la Energía. Por lo tanto su implementación es un complemento. Para los que no tienen o no aplican las normas anteriores, no es totalmente necesario certificar la IRAM/ISO 50001, pero sí ayudará a real izar algún tipo de ordenamiento sobre el tema. La norma es clara porque sigue conceptos lógicos y por lo tanto las PyMEs pueden basarse en ella o sino asesorarse con especialistas por lo menos en la fase inicial. Tomando como referencia la norma IRAM/ISO 50001 y sus guías de aplicación, ocho regionales de la Universidad Tecnológica Nacional, desarrollarán actividades de investigación en la temática, que aportará al proyecto integrador “Red Tecnológica Nacional sobre Eficiencia Energética. En principio las Facultades Regionales que participan de este proyecto son, Delta, Haedo, Buenos Aires, Avellaneda, General Pacheco, Mendoza, Santa Fe, Neuquén y La Plata, de la Universidad Tecnológica Nacional, y de cada una participaran diferentes especialidades de carrera. Esta participación interFacultad e inter-disciplina le da al proyecto el soporte adecuado para un tema que abarca el uso y consumo de diferentes fuentes de energía y sus transformaciones en los procesos productivos. Este proyecto integrador tiene la particularidad de poder Derechos reservados COPIMERA 2015

incorporar otros proyectos relacionados con el tema y de otras regiones, de tal manera de que queda abierto para incorporarse otras regionales. Tanto a nivel nacional e internacional existen abundantes conocimientos y desarrollos sobre el tema del proyecto. De cualquier manera en todos los órdenes se sigue investigando y desarrollando nuevas y mejores maneras de gestionar las organizaciones para hacerlas cada vez más competitivas. Particularmente en nuestro país, y sobre todo luego de los recientes acontecimientos en materia económica el tema se vuelve cada vez más importante. La orientación del presente proyecto tiene su relevancia, debido a que toma como foco de atención principalmente a las pequeñas empresas, las cuales no tienen acceso a nuevos conocimientos en la materia, ni la posibilidad de contratar profesionales que trabajen en la organización, y normalmente las citadas empresas quedan relegadas por las consultoras. En virtud de lo mencionado, contemplando la realidad económica de nuestro país y luego de haber examinado un importante acervo bibliográfico nacional como internacional en la materia, es posible afirmar que los resultados que se obtengan en el presente proyecto permitirán clarificar la problemática de la gestión de la energía en las PyMEs, y de esta forma brindarles la posibilidad de un camino concreto a través del cual podrán generar incrementos reales en su competitividad en un entorno regional, nacional e internacional. Objetivo+General+ Promover la gestión energética en los sectores productivos y en las organizaciones públicas y privadas, a través de la interacción, cooperación y la transferencia de conocimientos entre los grupos que integran la Red. Proveer a las distintas organizaciones de los diferentes sectores del país, de una herramienta capaz de ayudarles en la gestión energética y que contemple los requisitos para en el futuro poder implementar y/o certificar la Norma IRAM/ISO 50001:2011 de Gestión de la Energía. Objetivos+Específicos+ 1 Confeccionar una base de datos de las actividades en los temas de eficiencia energética que se están desarrollando en cada Regional. Se creó una nube de la Red Tecnológica Nacional de Eficiencia Energética ubicada en el Drive Google, en donde se cargaron todos los Proyectos asociados al Proyecto Integrador de la RedTecNEE. 2 Confeccionar una base de datos de expertos en temas vinculados a la eficiencia energética con que cuenta cada Regional. En la nube de la Red Tecnológica Nacional de Eficiencia Energética ubicada en el Drive Google se cargaron los datos de todos los expertos que participan en los 9 Proyectos de la RED. 249


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

3 Gestionar la base de datos de consumos energéticos de diferentes sectores de uso y consumo. 4 Gestionar la información de las caracterizaciones de diferentes sectores consumidores de energía. 5 Gestionar la información obtenida de líneas de base e indicadores para los diferentes sectores consumidores de energía. 6 Estandarizar documentación para aplicar a la gestión energética. (Desarrollar e implementar modelos, sistemas y herramientas para la gestión energética). En la nube de la Red Tecnológica Nacional de Eficiencia Energética ubicada en el Drive Google se cargaron en forma sistematizada documentaciones para aplicar a la Gestión Energética, algunos de estos documentos son: •! Cuestionario de Eficiencia Energética en Industrias. •! Planillas de relevamiento. •! Glosario. •! Terminología. •! Unidades. •! Clasificador de actividades económicas en Argentina. •! Bibliografía sobre Eficiencia Energética. 7 Estandarizar auditorías energéticas para validar la caracterización y líneas de base 8 Difundir los trabajos realizados por las Facultades Regionales participantes en el resto de las que aún no hayan ingresado a la Red. 9 Realizar seminarios de difusión en las diferentes Facultades Regionales 10 Realizar publicaciones en congresos, revistas especializadas nacionales e internacionales. Editar libros. Posibilidad de hacer un Portal de Eficiencia Energética de la Red. 11 Promover la creación de una Especialización en Eficiencia Energética.

cadena energética desde la exploración y extracción hasta los servicios energéticos, son los principales vectores que orientan el fin de esta propuesta. El enfoque del proyecto es analizar los usos y consumos de energía que realizan las PyMEs del sector o de los sectores seleccionados con la finalidad de determinar características similares y desde esa base, elaborar la matriz energética típica del sector para desarrollar una herramienta software para la gestión de los energéticos consumidos y utilizados por las empresas. Cada Regional participante desarrolla un proyecto en el cual estudia y caracteriza desde el punto de vista energético a un sector productivo o de servicio del ámbito local en el que se emplaza y servirá para nutrir al proyecto integrador de forma tal de poder modelar un software de gestión energética, el cual servirá para ser replicado su uso en PyMEs de sectores similares. El proyecto abordará como base la norma IRAM / ISO 50001 y sus guías de referencia para la Gestión de la Energía en las Organizaciones, y si bien esta norma y sus guías son de alcance internacional, también se tomará referencia del estado del arte en otros países, para confrontar esos conocimientos con la experiencia en nuestro país y el desarrollo de este trabajo. De los objetivos surgen actividades, las cuales se realizaran: Para la actividad 1) Se confeccionará un formulario tipo para solicitar la información a cada Regional sobre la actividad que se está desarrollando. Ejemplo si hay grupos conformados, registrados UTN, o Facultad, actividad específica que desarrollan, etc. Para la actividad 2) Se confeccionará un formulario tipo para solicitar la información a cada Regional sobre los docentes o investigadores que puedan tener capacitación en temas vinculados a la eficiencia energética. Para la actividades 3), 4), 5), que son actividades concretas sobre las empresas PYMES, se generaran documentos, bases de datos, que utilizaran como insumo la información que envíen las distintas regionales o sus proyectos. Para la actividades 6) y 7) se convocara a los integrantes de la red y se designara un miembro para que consolide la información enviada y que permitirá así obtener los documento y formularios tipo, que servirán como elementos de trabajo para las encuestas y auditorias de forma igualitaria en toda la red. Para las actividades 8); 9) y 10) son las actividades de difusión, capacitación La difusión de las actividades del proyecto RED, alimentado en gran parte por la información de lo realizado por las Facultades Regionales adheridas a la RED. Aquí se podrá utilizar los medios tecnológicos de comunicación o hacer actividades presenciales. Para esta actividad una vez obtenida la información de 1 y 2, se podrá contactar a los Secretarios / Docentes, y generar videoconferencias o actividades presenciales para difundir la necesidad de hacer eficiencia energética. Para las actividad 11) Designar integrantes de las regionales que inician la red para que puedan confeccionar la Especialización. En este caso se deberá consultar también a los

Metodología+ Se trata de un proyecto integrador asociativo el cual es coordinado por la Facultad Regional Pacheco, y participan las Regionales de: Avellaneda, Buenos Aires, Delta, Haedo, La Plata, Mendoza, Neuquén y Santa Fe. La propuesta es la de generar un Proyecto entre los grupos que trabajan en el campo energético, con el fin de conformar una Red Tecnológica Nacional Sobre Eficiencia Energética en el ámbito de la Universidad Tecnológica Nacional. Existe una vasta experiencia de trabajos realizados por los distintos grupos de nuestra Universidad y es necesario que los mismos intercambien sus experiencias, con el fin de generar una base de datos unificada a nivel nacional, brindando además capacitación y difusión para otras actividades en el campo de la energía. El vasto conocimiento en el uso eficiente de la energía, a través del intercambio de información científico y tecnológico, experiencias y soluciones que contribuyan al desarrollo energético sostenible; fomentando la cooperación relacionados con los recursos, las fuentes y tecnologías energéticas en toda la Derechos reservados COPIMERA 2015

250


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

referentes que hicieron actividades en otros tiempos que quizás hoy no estén presentes en algunos de los proyectos PID asociados a la RED.

de procesos estándares y luego según los datos de campo que puedan proveer las mismas u obtener por acuerdos para realizar auditorías se realizará su comparativa.

Avances+realizados+

Haedo: Tiene su Proyecto presentado y homologado para comenzar las tareas de investigación sobre caracterización energética para la gestión de la energía de industrias PYMES, el sector público y de servicios en la zona de influencia de la ciudad de Haedo, incluyendo el Parque Industrial La Cantábrica. De las industrias PYMES, las del sector Público o de servicio seleccionadas realizar su caracterización, se identificaran las más representativas, realizando su caracterización teórica en función de procesos estándares y luego según los datos de campo que puedan proveer las mismas u obtener por acuerdos para realizar auditorías se realizará su comparativa.

Está en pleno desarrollo los instrumentos de relevamiento energético inicial de las organizaciones, lo cual aporta a los puntos 3, 4 y 5 de los objetivos del proyecto. Regional Avellaneda: Tiene su Proyecto presentado y homologado para comenzar las tareas de investigación sobre caracterización energética del sector gráfico PyME y la gestión eficiente de la energía utilizada. El trabajo incluirá desde su inicio a industrias PyMEs del Sector Gráfico de Avellaneda, las que constituirán una muestra para la modelización de los diferentes procesos energéticos. Esta inclusión se formalizará mediante un Convenio Específico entre la Facultad y una Institución de Avellaneda, que facilitará las gestiones para la obtención de los datos de las industrias del sector gráfico de la zona. Asimismo, dicha Institución colaborará en las gestiones para la obtención de los recursos necesarios que permitan la ejecución de las mejoras sugeridas a fin de poder realizar una realimentación de los indicadores seleccionados durante el desarrollo del proyecto. Ello permitirá adaptar las directrices de la normativa a las capacidades reales del sector, facilitando la implementación de las mejoras. El proyecto prevé incorporar industrias cooperativas, cuyo funcionamiento organizacional contempla particularidades diferentes al resto del sector privado.

La Plata: Relacionado con la gestión del consumo de energía, se tomará como base lo desarrollado en el programa Formatec 2012 de la UTN Regional La Plata, “Herramienta tecnológica para la gestión del consumo energético de una organización”, en este proyecto se está desarrollando un software para gestión de los consumos de energía para las empresas un Sector Industrial Planificado de la región. El mismo será de base para los desarrollos aplicados a otros sectores industriales. Mendoza: Tiene su Proyecto presentado y homologado para comenzar las tareas de investigación sobre: “Gestión energética para productores agrícolas”. Según la Ley General de Aguas de la provincia de Mendoza, el reservorio de agua subterránea está constituido por acuíferos que abarcan parte del subsuelo de la provincia, principalmente en las márgenes de los ríos. En el oasis norte, se localiza más del 70% de la población de la misma y el más importante conjunto de industrias. Se pretende mejorar la metodología que permita valorar la eficiencia energética de los sistemas electromecánicos que se utilizan en el bombeo de agua subterránea para riego agrícola, contribuir con nuevos conocimientos a la gestión eficiente de la energía y sirva como herramienta para incrementar la competencia de los productores. De acuerdo con la Ley Provincial de Transformación del Sector Eléctrico, Ley 6497, si los sistemas de extracción de agua subterránea son eficientes, dichos usuarios reciben un aporte económico, que se conoce como subsidio al riego agrícola, con el objeto de apoyar su desarrollo. Dado el elevado monto que se paga en subsidios, el Gobierno de la Provincia ha requerido un estudio integral de los regantes, dado que se ha detectado que la gran mayoría de los sistemas de bombeo de agua subterránea instalados son energéticamente ineficientes, lo cual significa una demanda de potencia y de energía eléctrica mayor a la necesaria y un pago por subsidio muy elevado.

Buenos Aires: Tiene su Proyecto presentado y homologado para comenzar las tareas de investigación, se titula “Procedimientos de evaluación y calificación energética en Organizaciones” cuyo objetivo específico es el de establecer los parámetros de evaluación que permitan cuantificar y calificar el grado de eficiencia energética en Organizaciones. Basa su desarrollo en la elaboración de procedimientos y generación de documentos guía, en conjunto con relevamientos de campo, con el objeto de identificar iniciativas de ahorro, oportunidades de eficiencia energética y facilitar a las Organizaciones la implementación de un Sistema de Gestión de Energía. Delta: Tiene su Proyecto presentado y homologado para comenzar las tareas de investigación sobre caracterización energética para la gestión de la energía de industrias PYMES, el sector público y de servicios en la zona de influencia del partido de Campana y Zárate, incluyendo el Parque Industrial Pilar. De las industrias PYMES, las del sector Público o de servicio seleccionadas realizar su caracterización, se identificaran las más representativas, realizando su caracterización teórica en función Derechos reservados COPIMERA 2015

251


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

la Universidad pública, convencidos del rol preponderante que las PyMEs tienen para una región y por ser también la que menos recursos dispone, es que se debe apoyar y sustentar desarrollos que permitan mejorar su nivel de competitividad, en este caso mediante el aporte de la gestión energética y la eficiencia energética. La difusión de los resultados del proyecto a las cámaras empresariales y de servicios o a los entes gubernamentales será una forma de transferir los conocimientos para que sirva como disparador de las acciones sobre la materia que puedan tomar los mismos. Será también importante la transferencia de los resultados a las Cátedras involucradas de las diferentes Regionales de la UTN directamente por la participación de sus integrantes, también permitirá realizar aportes a aquellas que involucren en sus programas temas relacionados a la Gestión Energética y la Competitividad de las Empresas, por lo tanto es abarcativo de todas las carreras de Ingeniería de la UTN. Y las áreas del conocimiento que trabajen en disciplinas como:

Neuquén: Tiene su Proyecto presentado y homologado para comenzar las tareas de investigación sobre: “Desarrollo de herramientas para la mejora de la eficiencia energética en empresas e instituciones de área del Comahue”. Este proyecto está centrado en analizar los usos y consumos de energía que realizan las PyMEs e instituciones públicas o privadas en la Región del Comahue, de manera de obtener patrones comunes y desde esa base elaborar la matriz energética típica del sector que permita el desarrollo de una herramienta software de gestión general. Santa Fe: Tiene su Proyecto presentado y homologado para comenzar las tareas de investigación sobre la automatización de un edificio dedicado a tareas de oficina con el objetivo de mejorar la gestión de la eficiencia energética. El presente proyecto formará parte de actividades enmarcadas dentro del convenio de cooperación y asistencia entre la Facultad Regional Santa Fe y la Asociación Mutual de Personal Jerárquico de Bancos Oficiales Nacionales, firmadas entre ambas instituciones en el año 2010. Entre las finalidades se encuentra la de brindar las herramientas a la organización para realizar el diseño y planificación de la automatización del “Edificio Administrativo II Jerárquicos Salud”, referente a los sistemas correspondientes a áreas de energía, confort térmico y calidad ambiental interior. Para arribar al objetivo final deberá realizarse: el análisis de la performance energética del edificio (simulación, selección de indicadores, caracterización de los consumos de energía, etc.), la identificación de estrategias de control para mejorar la eficiencia energética, el estudio e implementación de la instrumentación (sensores, actuadores, etc.) y el desarrollo del software SGE.

Ciencias de la Ingeniería y la Arquitectura Economía Energética Generación Aparatos y dispositivos térmicos Instalaciones eléctricas Aire acondicionado y refrigeración Eficiencia Máquinas eléctricas Los recursos humanos son la clave de toda organización, motivo por el cual, la presente propuesta de investigación presenta como parte de sus objetivos la consolidación de un grupo de I+D y a través de su formación y capacitación en áreas especificas, bajo la tutoría de los directores, brindarle la posibilidad a sus integrantes de participar en forma activa, con aportes sustanciales en investigación y desarrollo, especialmente en la temática propuesta. En tal sentido se prevén las siguientes actividades para la formación de nuevos recursos humanos: Transferencia de las experiencias obtenidas a través de la realización de seminarios, cursos o talleres. Incentivar la vinculación con otras instituciones públicas o privadas pertenecientes al ámbito científico. Promover la participación de los integrantes del grupo en actividades de transferencia de conocimiento tanto en grado como postgrado. Incentivar a los integrantes del grupo para que se inicien en carreras de postgrado, sean estas especializaciones, maestrías o doctorados, realizados dentro o fuera de la Universidad Tecnológica Nacional. Ademas: Permitirá fortalecer los conocimientos del equipo de trabajo para la difusión y adiestramiento dentro del ámbito académico de grado y postgrado.

IMPACTO+Y+TRANSFERENCIA+DEL+PROYECTO+ Las pequeñas y medianas empresa han sido centro importante de atención de las políticas públicas, lo que ha permitido llevar a las PyMEs a una mejor situación. Sin embargo, la competitividad no es un estado empresarial al cual se llega, sino que es la continua búsqueda de mejorar el desempeño en todas las áreas que integran una empresa. El ser competitivo hoy, no garantiza la competitividad mañana. No se es competitivo de una vez y para siempre, se debe estar construyendo y su búsqueda debe ser en forma permanente. La energía es un insumo para las PyMEs, es un insumo igual para todas ya que se adquiere a un mismo valor y su precio no puede negociarse y su sustitución termina siendo generalmente más cara, por lo tanto quedan dos caminos, transferirla directamente a los costos del producto o servicio o gestionar su consumo y su uso, en esta última forma es que este insumo se convierte en una variable competitiva, a través de "La Gestión Energética". Es justamente en este punto "La Gestión Energética" que este trabajo quiere aportar herramientas a las PyMEs. Por eso desde Derechos reservados COPIMERA 2015

252


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Una vez iniciado el proyecto, se podrán incorporar otros becarios, quienes deberán profundizar las distintas disciplinas que conforman los temas de estudio, y así especializarse en estas modalidades. También incorporarse tesistas y/o pasantes de los cursos de Posgrado, especializaciones o Doctorandos los cuales pretendan realizar sus tesis vinculados a las disciplinas enmarcadas en este proyecto y los proyectos PID que integran la Red. Por lo tanto, una vez lanzado el proyecto, se realizará la difusión interna en cada regional para captar a los interesados. También se estará a disposición para recibir pasantes de Postgrado de otras Facultades Regionales o Universidades interesados en estos temas para realizar su tesis. REFERENCIA+ [1] 50001:2011 Sistemas de Gestión de la Energía-Requisitos con orientación para su uso. [2] Norma UNE 216301:2007 Sistemas de Gestión Energética. Requisitos. España [3] Norma UNE 216501:2009 Requisitos de las Auditorías Energéticas. España [4] Manual de Gestión de la Energía en Edificios Públicos Primera Edición Mayo 2012 ISBN: 978 -956-8070-05-2. Impreso en Sociedad Impresora R&R Ltda. Instituto de la Construcción - Santiago de Chile. [5] Source Book for Energy Auditors 1987-IEA Energy Conservation-MD Lyberg. [6] Introducción a la auditoria energética eléctrica. Tomo 1 JM Merino Cadem IBERDOLA ISBN 84-314-0480-9 . 2000. España [7] Poder Ejecutivo Nacional (2007). Decreto PEN 140/2007PRONUREE Programa Nacional de Uso Racional y eficiente de la Energía. Argentina. [8] Implementación de un Sistema de Gestión de la Energía (SGE). Enrique Bertrán Sánchez.

Derechos reservados COPIMERA 2015

253


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+

PENETRACIÓN+DE+FUENTES+RENOVABLES+EN+LA+GENERACIÓN+DISTRIBUIDA+ UTILIZANDO+REDES+ELÉCTRICAS+INTELIGENTES+ Prof. Ing. Mario V. Bartlomeo1, Prof. Ing. Marcelo A. Tavella1 1

Universidad Tecnólogíca Nacional, Facultad de Regional Cordoba, Cordoba, Argentina

Resumen+

empeorar a medida que aumente la temperatura global. Los resultados de evaluación indican que el calentamiento en el sistema climático es un fenómeno indiscutible y que algunos de los cambios observados en las últimas décadas no tienen precedente desde hace miles de años. El calentamiento se observa en la atmósfera y los océanos, el volumen de hielo y la cantidad de nieve se han reducido y el nivel del océano se ha incrementado. Los estudios del IPCC muestran que las observaciones anteriores están correlacionadas con el aumento de las concentraciones de gases de efecto invernadero (GEI) en la atmósfera y el principal contribuyente es el dióxido de carbono (CO2) que proviene principalmente del uso de combustibles fósiles. El gráfico 1, muestra el aumento de las emisiones de CO2 en millones de toneladas.

En el último reporte mundial de la IPCC (Panel Intergubernamental de Cambio Climático): el Quinto Informe de Evaluación AR5 se expresa: “La influencia humana sobre el clima es clara y creciente, con impactos que se observan en todos los continentes”. Es la primera vez que los científicos exigen a los gobernantes aspirar a llevar sus emisiones a cero, para lograr evitar superar el umbral de un calentamiento nefasto de 2° centígrados por sobre los niveles preindustriales. Esto significa que las reservas de hidrocarburos y su destino final, donde alrededor del 80% de los combustibles fósiles que se sabe que existen bajo diferentes formas en el subsuelo tendrían que quedarse donde están. La economía mundial adoptó hace muchas décadas un perfil energético que depende totalmente de los combustibles fósiles. Se hace necesario cambiar la infraestructura asociada a ese perfil, aceptando que es un proceso costoso y lento, pero totalmente realizable. Las nuevas fuentes de energías alternativas, han adquirido una madurez razonable, sin embargo son fuentes poco predecibles y para que tengan penetración masiva en nuestro rígido sistema energético es necesario trabajar sobre la estructura actual y dotarla de inteligencia artificial por medio de las nuevas tecnologías de información y comunicación, conocidas como “Redes Eléctricas Inteligentes”, que permiten la generación distribuida con nuevas fuentes de origen renovables, transformándose en un sistema flexible en operación y control y fundamentalmente sustentables en el tiempo.

Fig.1 - Las emisiones de CO2 aumentarán un 57% entre 2005 y 2030. Fuente: Gómez Targarona 2012.

Introducción+

Es importante señalar, que los informes del IPCC conforman un trabajo y un consenso colectivo nunca visto hasta el momento. Se hace necesario asegurar que este consenso a nivel científico y político conduce a que las principales conclusiones de cada uno de los informes, ha sido el resultado de debates y se ha consensuado sobre la base de los datos

El cambio climático amenaza con impactos irreversibles y peligrosos, el Panel Intergubernamental de Cambio Climático (IPCC) publicó en Copenhague en su Quinto Informe de Evaluación (AR5) el estudio de la gravedad de dichos impactos, que ya se manifiestan como visibles y que podrían

Derechos reservados COPIMERA 2015

254


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

recabados. Esto es fundamentalmente importante, cuando el 5to informe expresa como suma claridad que, “el calentamiento en el sistema climático es inequívoco”, que “la influencia humana en el sistema climático es clara”, o que “para contener el cambio climático será necesario reducir de forma sustancial y sostenida las emisiones de gases efecto invernadero. El AR5 es él informe más contundente de todos, se basa en modelos climáticos más contrastados y en una cantidad mucho más amplia de estudios y evidencias. Todos los informes de evaluación establecen escenarios futuros en función de la concentración de GEI en la atmósfera, es decir escenarios que incorporan impactos en relación directa con el tenor de las emisiones y agrupados en función del incremento de la temperatura media global, como lo indica la Fig.2.

De manera tal, que el informe (AR5) es una herramienta sólida y exhaustiva para medir el esfuerzo global contra el cambio climático. Ha sido aprobado por los 195 miembros del IPCC, que incluye a los gobiernos, además de los científicos, por lo tanto representa un consenso científico extremadamente amplio y global, que entrega señales claras para allanar el camino de conseguir en la COP21 (Conferencia de las Partes) de la ONU, que tendrá lugar en París, a fines de 2015, el acuerdo climático que el mundo necesita. Resulta importante señalar a Rajendra K. Pachauri, presidente del IPCC, quién mencionó algunas soluciones que permitan un desarrollo económico y humano sostenible. Para ello, es necesario tener la voluntad de cambio y que esté motivado por el conocimiento y la comprensión de la ciencia del cambio climático. En tal sentido, expresa claramente, que las energías renovables y el uso inteligente de la energía son las formas más rápidas y más limpias para reducir las emisiones. Es justamente en este sentido que se plantea el paradigma que el mundo está necesitando para combatir el cambio climático: las redes eléctricas inteligentes (REI) y las energías renovables. La Fig.3 resume el desarrollo del presente trabajo:

!

Fig.2_ Nivel de emisiones de gases efecto invernadero, proyectados para diferentes escenarios en función del incremento de temperatura media global. Fuente: IPCC AR5 WG1. Año 2013. Existe un presupuesto de carbono, que es el límite de lo que podemos emitir y que prácticamente está agotado. A nivel mundial, las emisiones deben descender rápidamente, con un máximo de emisiones en esta década y disminuyendo hasta cero a mediados de siglo, si pretendemos evitar el cambio climático catastrófico. Los gobiernos, las empresas, y de hecho, todos nosotros debemos dar pasos para conseguir la eliminación gradual de los combustibles fósiles por completo. En contrapartida de lo expuesto, la economía mundial adoptó hace muchas décadas un perfil energético con total dependencia de éstos combustibles. Las grandes corporaciones del sector energético mundial continúan erogando miles de millones de dólares en exploración y extracción de hidrocarburos en reservorios no convencionales de gran volumen, por medio de la fracturación horizontal “fracking”, en rocas de baja permeabilidad, como son las arenas compactas, los esquistos, etc.

Derechos reservados COPIMERA 2015

! Fig.3_ Diagrama conceptual. Fuente: Elaboración propia +

255


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+

Producir energía en base a hidrocarburos, en una cantidad no regulada, inflexible, vertical y con muchísimas pérdidas son razones más que suficientes para asumir la obsolescencia del sistema actual. En base a esto y al ya declarado nefasto cambio climático, resulta menester pasar a un modelo energético sostenible, que permita el desarrollo económico, social y medioambiental de los países desarrollados y emergentes, considerando sus características específicas. Para ello, debe modificarse radicalmente la forma de producir, distribuir y consumir la energía eléctrica, pasando de la red tradicional a una red dotada de inteligencia. Las Redes Eléctricas Inteligentes (REI), tienen como objetivos generales reducir el consumo, limitar el uso de centrales eléctricas contaminantes e integrar millones de nuevas fuentes energéticas de origen renovables. Se deben desarrollar en forma progresiva sobre la infraestructura eléctrica existente, incorpora la generación distribuida y actuando sobre el consumo, especialmente sobre las cargas con alta constante de tiempo. Con las REI se consigue una mejora sustancial en el control y la comunicación-información de los distintos actores y equipos implicados, con el objeto de favorecer la integración de tecnologías, presentes y futuras, y lograr optimizar la red. La Fig. 5, esquematiza la red futura con inteligencia.

Nomenclatura+ AA-CAES: Acumulación Adiabática por Compresión de Aire. AR5: Quinto Informe de Evaluación. IPCC: Panel Intergubernamental de Cambio Climático. Smart Grids: REI: Redes Eléctricas Inteligentes. TES: Acumulación de Energía Térmica (Thermal Energy Storage).

Cuerpo+del+documento+ El modelo energético actual no es sostenible. Durante muchos años ha estado representado por una estructura rígida y claramente jerarquizada, en la que un centro de producción de energía abastece de forma unidireccional a muchos puntos de consumo que se encuentran generalmente muy alejados de la generación, conformando una infraestructura compleja y muy costosa para garantizar la entrega de energía al consumidor. En el sistema actual, la electricidad no se puede almacenar a grandes escalas, por lo tanto la energía generada debe ser consumida en tiempo real, es decir, que debe mantenerse un balance de potencia para evitar desajustes entre la oferta y la demanda, que provoquen efectos negativos sobre la red, como variación de la frecuencia y hasta interrupciones del servicio. Permanentemente debe adaptarse la generación a la carga. Es importante señalar que las redes eléctricas actuales no han cambiado desde hace más de 100 años y su idea básica consiste en hacer llegar grandes cantidades de energía a los usuarios finales en todo momento, tanto lo necesiten o no, conformando la ya mencionada relación unidireccional, donde los consumidores son meros receptores pasivos. En la Fig. 4, se esquematiza, el flujo energético de << arriba>> hacia <<abajo>> de una red tradicional.

Fig. 5_ Red con inteligencia para la generación distribuida. Fuente: Gómez Targarona. Año. 2012. Para el desarrollo de las REI, se requieren grandes inversiones, donde empresas ajenas al sector eléctrico empiezan a interesarse, como: Microsoft, Google, IBM, Oracle, Siemens, etc; quienes realizan investigación y desarrollo de equipos acordes con el principio de la REI. En otras palabras, replicar los conocimientos y operatividad de la red cibernética de información en una gran red eléctrica de productores, distribuidores y consumidores que maximice la eficiencia energética en todos los niveles. La incorporación de las TICs (tecnologías de información y comunicación) darán lugar a la presencia de sensores y tecnologías de medición para apoyar una respuesta más rápida y más exacta que el control remoto, permitiendo gerenciar en tiempo real la oferta y la demanda de energía; componentes avanzados de supervisión permitirán un

Fig. 4_ Esquema unidireccional del sistema actual. Fuente: Gómez Targarona. Año: 2012.

Derechos reservados COPIMERA 2015

256


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

diagnóstico rápido y soluciones adecuadas de cualquier evento en la red. De manera tal, que en la estructura de comunicación estarán presentes redes de área local (Red LAN), que conecta equipos dentro de un área pequeña; redes de área metropolitana (Red MAN), que conecta diversas LAN geográficamente cercanas y una red de área extensa (Red WAN), que conecta múltiples LAN entre sí a través de grandes distancias geográficas, conformando una tecnología de comunicaciones integradas, que conectan componentes de arquitectura abierta, permitiendo la información y control en tiempo real y bidireccional. La Fig. 6, muestra la taxonomía de una red inteligente.

Las claves aquí son la información y el control. Con la información se podrá detectar dónde y cómo optimizar el consumo y con el control se podrá actuar sobre él en forma automatizada para reducirlo. Este tipo de actuaciones tienen perspectivas muy interesantes, anticipando reducciones del orden del 20% en el consumo de energía. La Fig. 7, muestra medidores inteligentes y toma corriente programable.

Fig.7_ equipos inteligentes programables. Fuente: Electra Caldense. Año:2015. Fig. 6_ Estructura de comunicación bidireccional. Fuente: Gómez Targarona Año: 2012.

Desde el enfoque económico, los contadores inteligentes podrían incorporar las tarifas entre sus parámetros programables, especialmente si hay una tarifa discriminada por horario. El usuario que además de consumo disponga de generación y/o almacenamiento, podrá tener la información de valores tarifarios para vender a la red en los momentos de más precio (horas de punta) y comprar de ella cuando el precio sea más bajo (horas de valle). Esto resulta, si se dispone de sistemas de almacenamiento, aceptando que cualquier tipo de almacenamiento no constituye por sí sólo ningún sistema de producción o de reducción del consumo, siendo en general todo lo contrario. Sin embargo puede permitir facilitar el control de la red, amortiguando sus oscilaciones y favoreciendo la integración de fuentes de energía más impredecibles, como las energías renovables. Siguiendo éste concepto la idea más fácil de intuir y que podría implementarse, es la integración a la red de vehículos eléctricos que se alimenten de la red durante la noche (horas de valle) cuando la demanda energética global es baja y además retornar parte de esa energía en horas de pico, (si con la autonomía diaria de las baterías, no se consumió el total de la energía almacenada en el vehículo). Para todo esto es fundamental un control que integre las necesidades del usuario. No obstante, si estamos hablando de generación por energías renovables, fundamentalmente eólica y solar, sería antieconómico no vender esa energía excedente, aunque el precio sea bajo, porque de lo contrario, se pierde. La Fig.8, muestra la recarga de vehículos eléctricos con control inteligente.

Existe entonces una tendencia mundial en la que cada inmueble (hogares y edificios públicos o privados) produzcan su propia energía (eólica, solar, etc) y la consuman en el mismo punto, abasteciendo sus propias necesidades, vertiendo su sobrante a la red general para el consumo de otros usuarios, y a la vez tomando de la red la cantidad necesaria cuando localmente no se ha producido suficiente. Esta es la manera en que se reducirá el consumo de energía global por permitir la bidireccionalidad y minimizar las perdidas por conducción al tener distancias muy reducidas entre generación y consumo. De lo expuesto anteriormente, se desprende que el usuario es una pieza clave en la configuración de la REI, ya que pasa de ser un actor pasivo a un actor activo (productor – consumidor). Constituye el punto final de consumo (campo de desarrollo de la eficiencia y el ahorro) y punto de entrada de la generación distribuida, fundamentalmente, por fuentes de energías alternativas o renovables. La integración del usuario en la red y la posibilidad de gestionar energía es posible mediante la existencia del medidor inteligente, muchas propuestas van encaminadas a que este último, no sólo contabilice la energía consumida, sino que permita la monitorización de los consumos por equipos o áreas y que, de acuerdo con criterios preestablecidos , permita controlarlos o regularlos, por ejemplo, desconectando toda o una parte de la iluminación, o modificando la potencia del aire acondicionado y sobre todo anular la tensión eléctrica en aquellos toma corriente que alimentan cargas de alta constante de tiempo, como el lavarropas, en los horarios de consumo pico del sistema. Derechos reservados COPIMERA 2015

257


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Las nuevas tecnologías de almacenamiento con alta eficiencia, utilizan la acumulación adiabática por compresión de aire. El aire es comprimido de forma isotérmica en momentos de energía excedente, desde la generación de un parque eólico de bajas potencias, luego es acumulado en un Acumulador de Energía Térmica TES (Thermal Energy Storage) y su respectivo reservorio. Al momento de necesitar transformar la energía potencial en energía eléctrica, el aire pasa por el TES y se expande en turbinas de aire especialmente diseñadas, que acopladas al generador eléctrico entrega energía eléctrica en las horas de mayor demanda. De ésta manera, un parque eólico, con potencia del orden de 10MW, puede entregar energía eléctrica en forma ininterrumpida durante más de 150 horas. La Fig 10, muestra los componentes del sistema en un gráfico de bloques.

Fig.8_ Aplanamiento de la curva de carga. Fuente: OLADE. Félix Barrio. Año: 2010. El concepto de las Redes Eléctricas Inteligentes (REI), tomado en una escala local – regional, viene ineludiblemente asociado a la gestión de microredes. Partiendo de la idea de que la gestión de una red es más compleja cuanto más grande es, la gestión de microredes surge de simplificar ese problema dividiendo la red en redes más pequeñas en baja tensión, que incorporan fuentes de generación distribuida, eléctrica y térmica, a pequeña escala junto a sistemas de almacenamiento, gestionadas de forma local mediante un sistema de control inteligente (Central virtual). La gestión de la microred estará enfocada a optimizar los recursos y necesidades en la región y, a través de la central virtual, gestionar los excesos y déficits de energía con la red global, pero con la capacidad de autoabastecerse y operar de forma aislada. Una microred es una red inteligente particularizada a un entorno geográfico reducido y diseñado al autoabastecimiento a través de diversas fuentes de generación distribuidas y sistemas de almacenamiento de energía, como lo muestra la Fig. 9.

Fig. 10_ Fuente: Elaboración propia. Resulta importante señalar algunas ventajas de la gestión por microredes: - Mayor robustez de la red global, al simplificar su gestión y trazar zonas de red como elementos individuales - Optimización de la red y mayor eficiencia en el transporte de la electricidad, al favorecer la proximidad entre consumo y generación. - Favorece y fomenta las fuentes de energías autóctonas, siendo la conexión con la red global para el abastecimiento como último recurso. La REI incrementa la confiabilidad del sistema eléctrico, por lo tanto beneficia a productores y consumidores de la energía eléctrica. Debemos estar conscientes, de que los disturbios más leves en la calidad y confiabilidad de la energía eléctrica causan pérdidas de información, de procesos y de productividad.

Fig.9_ Esquema de una microred, con gestión inteligente. Fuente: CEDETEL. Tecnología PRIME. Año: 2011.

Derechos reservados COPIMERA 2015

258


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

El siguiente cuadro muestra las distintas características entre la red eléctrica actual y la red inteligente futura.

• El cambio somos nosotros, desde cada lugar haciendo conciencia sobre la necesidad de un cambio de paradigma, en universidades, congresos, escuelas, organizaciones, etc. Es un paso inevitable y tenemos que darlo.

Agradecimientos+ Al Dr. Juan Carlos Targarona. Director del Instituto de Protección de Sistemas Eléctricos de Potencia. Universidad Nacional de Río IV. Córdoba. Argentina; quién me formo en la “Sustentabilidad Energética”.

Referencia+

Fuente: Elaboración propia.

1.! Quinto Informe de Evaluación del IPCC (AR5). Copenhague – Noviembre 2014. 2.! https://www.ipcc.ch/pdf/ar5/prpc_syr/11022014_syr_ 3.! copenhagen_es.pdf

!

4.! Perspectivas de las Redes Eléctricas Inteligentes en Europa. CIEMAT. Asunción, Mayo 2010. 5.! http://www.olade.org/electricidad/Documents

+

Conclusiones+ • Las Redes Eléctricas Inteligentes son el camino hacia un modelo energético avanzado, seguro y sostenible, aumentando la eficiencia del sistema, desde la generación hasta el consumidor final y, aunque requieren de una importante inversión económica, son un paso decisivo para cumplir los objetivos medioambientales al permitir una penetración masiva de fuentes energéticas de origen renovables. • La implementación de una red eléctrica de este estilo, considera al consumidor final como actor fundamental activo, ofreciéndole la posibilidad de participar en el mercado, gestionando su propia demanda y generación de energía. • Mejora el control y la comunicación-información de los diferentes agentes y equipos involucrados, favoreciendo la integración de tecnologías, impulsando la eficiencia y el ahorro energético, dando como resultado la optimización de la red. • El despliegue masivo de las Redes Eléctricas Inteligentes, dependerá: - Apoyo gubernamental. - Desarrollo legislativo. - Despliegue de redes y medidores inteligentes. - Incentivos tarifarios para los usuarios. - Concientizar y capacitar a la sociedad - Etc.

Derechos reservados COPIMERA 2015

6.! Cuarto Congreso Nacional – Tercer Congreso Iberoamericano. Hidrógeno y Fuentes Sustentables de Energía – HYFUSEN 2011. 7.! http://www.cab.cnea.gov.ar/ieds/images/2011/hyfusen_ 8.! 2011/trabajos/16-134.pdf 9.! Redes Eléctricas Inteligentes (REI) o Smart Grid…el futuro de los Sistemas Eléctricos. Nelson Hernández. Año 2009. Disponible en: gerencia y energía. Blogspot.com.ar/2009/07/redes-electricas-inteligentes-rei. 10.! Redes Eléctricas Inteligentes (Smart Grid). Conferencia. Dr Gómez Targarona. Universidad Tecnológica Nacional – Facultad Regional Córdoba. Junio 2012. 11.! Funseam. Smart Grids: Sectores y actividades clave. Universitat Politécnica de Catalunya. 12.! http://www.funseam.com/phocadownload/Smart%20Grids. %20Sectores%20y%20actividades%20clave.pdf.

259


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ + + + + +

+ +

LA+EFICIENCIA+ENERGÉTICA+EN+EDIFICIOS+ALTOS+Y+LOS+RETOS++PARA+EL+DESARROLLO+ SUSTENTABLE+ Omar O. Aizpurúa P Universidad Tecnológica de Panamá, David-Chiriquí, Panamá

DDC=Direct Digital Controls VAV=Variable Air Volume UREE= Uso Eficiente y Racional de la Energía

Resumen+ El vertiginoso desarrollo de las ciudades, aunado a la necesidad de mantener una frontera agrícola adecuada, ha provocado la construcción de edificaciones cada vez más altas. Es así como nuestras ciudades, especialmente las capitales de países, donde se concentra la mayor actividad económica y comercial, se esté experimentando un crecimiento inusual por la demanda de la energía, en este caso, especialmente en la energía eléctrica. Un edificio alto promedio (30-60 plantas) puede llegar a demandar entre 400 y 600 KW, mucho más que cualquier poblado de nuestras campiñas fuera de las urbes capitalinas. En el mundo, en el período comprendido entre el 2000 al 2013, el número total de edificios de 200 metros de altura pasó de 261 a 830, experimentando un crecimiento del 318%. Siendo Asia el continente que lidera dicho desarrollo. Este hecho se transforma en un reto energético en cuanto a la selección de materiales, diseño, equipos de aire acondicionado y refrigeración, conductores, iluminación, motores, etc. El objetivo central de este trabajo es investigar sobre los retos que se tienen que enfrentar los diseñadores e inversionistas de edificaciones, para poder desarrollar estructuras amigables con el medio ambiente que impliquen un uso racional y eficiente de la energía así como algunas estrategias que podrían ser útiles en base a la experiencia en Panamá y otras latitudes.

INTRODUCCIÓN El 2013 fue el segundo año más exitoso en la historia en cuanto a la construcción de rascacielos en todo el mundo, con un total de 73 edificios de más de 200 metros según el último informe “Edificios en Números” del Consejo de Edificios Altos y Hábitat Urbano (CTBUH). Desde un aspecto general, Asia representa tres cuartas partes de los nuevos edificios más altos del año, en comparación con América que obtuvo la menor cifra de tan solo 3 rascacielos. De éstos, Panamá es el único país que representa a Latinoamérica y Centro América en el ranking de rascacielos más altos del mundo, apuntándose a la lista con el Bicsa Financial Center y Yoo and Arts Center en la ciudad de Panamá. Por su parte, Norte América, apunta con el 1717 Broadway en EE.UU. Este trabajo presenta un estudio de los retos en materia de energía que impone el desarrollo de superestructuras y propone medidas de mitigación para hacerlo amigable con el medio ambiente. Inicialmente se hace un recorrido conceptual sobre los edificios más altos de la Ciudad de Panamá y del mundo. Seguidamente se abordan los nichos con mayor potencial de ahorro energético en estas estructuras. Por último, se estudian dos casos puntuales, que son íconos de los edificios en el mundo. Específicamente el TAIPEI 101 y el Empire State Building y se hacen algunas recomendaciones.

Nomenclatura+

Demanda+ de+ electricidad+ de+ los+ edificios+ altos+

DVD= Doble Vidriado Hermético UV= Rayos Ultravioletas NEMA=National Electrical Manufacturers Association BREEAM=BRE Environmental Assessment Method LEED=Leadership in Energy & Environmental Design HVAC=Heating, Ventilating, and Air Conditioning VAC= Ventilation and Air Conditioning

Un edificio considerado alto (mayor de 30 pisos), demanda una potencia nominal importante. Esta potencia lleva a un consumo excesivo si no se diseñan sistemas especiales para ahorrar energía. Los nichos potenciales para ahorrar energía se centran fundamentalmente, pero no exclusivamente en: Sistemas HVAC, motores eléctricos (Ascensores y sistemas de bombeo), la envolvente térmica del edificio (Tipos de

DCV=Demand Control Ventilation Derechos reservados COPIMERA 2015

260


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

fachadas, materiales, orientación de la estructura, entorno, etc.), iluminación y los sistemas de distribución y alimentación de la energía eléctrica. En Panamá, los edificios altos demandan una energía eléctrica mayor o igual a la demanda de cualquier poblado de 2000 habitantes o más fuera de las ciudades. La figura 1. muestra un cuadro con algunos de los edificios y su demanda.

Equipos de Aire Acondicionado/Calefacción/ Refrigeración o Conservación de alimentos. En este tipo de aplicaciones, se recomienda el uso de equipos de nueva generación. Hoy día, existen equipos en los cuales se pueden obtener ahorros del orden del 40% en la energía eléctrica. Algunas tecnologías disponibles son entre otras las INVERTER, el uso de compresores de tornillo en lugar de émbolos reciprocantes por ejemplo. Como solución integral para los grandes sistemas de HVAC o VAC, se impone el uso de sistemas de Control Distribuido con arreglos que consisten de enfriadores (Chillers) , enfriadores a glicol, (Glycol Chillers) y tanques de almacenamiento de hielo (Ice Storage Tank). En estos sistemas, los enfriadores producen agua helada para el acondicionamiento de aire en la noche mientras que los enfriadores de glicol pre-enfrian la solución de glicol, la cual pasa a través de un tanque de almacenamiento de hielo, para el acondicionamiento de aire diurno. Por otro lado el uso de sistemas distribuidos, los cuales consisten en la colocación de muchos terminales localizados por todo el edificio de manera que se pueda controlar la temperatura, la humedad y en general la climatización, proveen de una reducción considerable del consumo eléctrico y por ende una reducción al impacto medioambiental. Como es de esperar, estos sistemas complejos tienen que ser integrados en un sistema de gestión automatizado. En el mercado existen varias empresas que ofrecen estos softwares de soporte. En el caso de estudio, en el Taipei 101, el sistema de gestión integral fue suministrado por SIEMENS. El Sistema de Control y Monitorización de Energía (EMCS, siglas en inglés) permite, entre otras cosas, aprovechar la bajada de la temperatura nocturna para producir hielo y reducir la demanda de refrigeración durante el día. [http://www.designbuild-network.com/projects/-taipei-101xinyi-taiwan/] Se recomienda también el uso de tecnologías de Volumen de Aire Variable (VAV). Los más utilizados son los sistemas conocidos como DCV Systems (Demand Control Ventilator) que implica la instalación de sensores de CO2 para el control del caudal de aire fresco (aire exterior), ajustando la producción de frío a la demanda de manera que se pueden generar ahorros sustanciales también. La figura 3 presenta un tanque típico de almacenamiento de hielo.

Figura 1. Altura y Potencia Eléctrica de Edificios en la Ciudad de Panamá

De aquí se desprende que un edificio de más de 80 plantas puede demandar una potencia q esta por el orden de los 500KW. Esto resulta significativo, y lo es más aun, la oportunidad que brinda una súper estructura como esta para hacer UREE. Si se da un pantallazo por algunos de los edificios más emblemáticos, se obtienen resultados asombrosos. La figura 2 muestra los valores energéticos más importantes y la potencialidad de ahorro de algunos edificios de clase mundial.

Figura 2. Datos Técnicos sobre Consumo/Demanda de Edificios emblemáticos

Suplir de energía a edificios de cientos de metros, con miles de ventanas de vidrio y decenas y hasta cientos de motores sin duda se convierte en un gran reto energético, no obstante, también representa una oportunidad para la ingeniería para desarrollar nuevos métodos en materia del uso eficiente y racional de la energía. Medidas+de+Ahorro+

Derechos reservados COPIMERA 2015

261


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Se ha establecido que en iluminación se podría ahorrar hasta un 20 % de la energía consumida para tal fin, si se toman en cuenta los siguientes factores: •! Tipo y cantidad de luminarias. •! El color. •! Sistema de alumbrado. •! Métodos de alumbrado. •! Niveles de iluminación. •! Depreciación de la eficiencia luminosa y mantenimiento. Solamente el reemplazo de bombillas incandescentes por bombillas eficientes podría implicar un ahorro diario de alrededor de un 15%, pudiendo mejorarse esto utilizando balastros electrónicos y otras medidas ahorrativas como usar pantallas adecuadas y el control de la iluminación inteligente (sensores de presencia, de encendido horario) y en general todo lo que ofrece la domótica en la iluminación.

Figura 3. Tanque de almacenamiento de hielo

Por otro lado la figura 4 muestra los sistemas de VAC del Taipei 101.

Envolventes La envolvente en un edificio juega un rol fundamental, específicamente en los temas de Transferencia de Calor (HVAC) e iluminación. Una buena selección de materiales, aunado a la orientación del edificio y otras medidas, podría producir un ahorro del orden del 50% en materia de HVAC, lo que se traduce realmente en una inversión muy prometedora. El uso de tecnologías DDC para el control de Temperatura, Flujo de Aire, Humedad relativa, niveles de iluminación y demanda horaria, etc. han demostrado ser una inversión necesaria en los edificios de alto consumo. Figura 4. Sistema VAC Por otro lado, el uso de láminas de alta tecnología para adherir a los cristales (vidrios) son muy importantes en la incidencia de la radiación solar dentro del edificio. Aunado a esto, el uso de vidrios con especificación DVH, permite el ingreso de la luz visible dentro del espectro solar y en mucho menos escala la radiación ultravioleta e infrarroja. La figura 6a muestra la estructura de láminas sobre cristales para uso en ventanales y paredes. La fig. 6b presenta el uso de la tecnología DVD.

Motores Eléctricos Los motores eléctricos son altos consumidores de energía, sobre todo en los transitorios debido al arranque. Por lo tanto se recomienda utilizar motores de alta eficiencia y con factores de potencia mayor a 0,9. Con solo un incremento en la eficiencia de un motor del orden del 5%, a los precios actuales del mercado, el costo de adquirir un motor más eficiente, podría recuperarse en los primeros 4 meses. La figura 5 muestra las eficiencias en los motores en función de los distintos estándares. 100

Motors+Eficiency

90 Efficiency

80

Figura 6a. Láminas de protección solar para vidrios

70 1 5 7.5 10 20 25 30 40 50 75100125150200 Horsepower

Figura 5 Eficiencia y estándares de motores. Iluminación Derechos reservados COPIMERA 2015

262


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

los controles. Y por último tener un sistema de emergencia de respaldo que permita garantizar el suministro ante cualquier incidencia de falla. La figura 8 muestra la interrelación entre los diferentes equipos y actores en un sistema de gestión integral de la energía.

Estudio+de+casos+ Este trabajo presenta el estudio de dos casos de edificios emblemáticos en el mundo. Resulta particularmente interesante el hecho de que son edificios construidos en épocas totalmente distintas, con materiales, métodos, procedimientos y normas vigentes distintas también. Esto evidencia que el uso eficiente y racional de la energía puede ser una realidad en cualquier infraestructura, sin importar su historia o su antigüedad.

Figura 6b. Tecnología DVD para ventanas y paredes Alimentación, Distribución y Control de la de la energía. El uso de los Variadores de frecuencia para el control de grandes cargas (Enfriadores industriales, calefactores, motores, bombas, etc.) es muy importante para el ahorro y calidad de la energía. El uso de estos variadores mejora la onda de corriente senoidal, provee factores de distorsión de la onda menores al 3%, suple de una compensación en el reactivo (mejora el factor de potencia), y en general no reproduce las caídas de voltaje incluso cuando hay fallas en la red. Por otro lado, el uso de Pequeñas subestaciones de voltaje entre pisos, garantiza un nivel de voltaje adecuado, lo que implica tener una red de media tensión en el esqueleto del edificio. La figura 7 muestra el cuarto de control de la energía del Taipei 101.

Figura 7. Vista del cuarto de control de la energía del Taipei 101 En general, los edificios altos deben de disponer un sistema integral de gestión energética. La diversidad y cantidad de actores en un edificio de gran altura, dificulta tomar medidas individuales, por lo que centralizar el control y gestionar un consumo racional se hace imperativo. Una buena gestión energética finalmente no solamente debe llevarnos al ahorro de energía, sino al suministro de energía eléctrica con calidad, reduciendo al mínimo las probabilidades de fallas. Esto se puede lograr con el uso de sistemas de alimentación dual por pisos (el uso de dos transformadores), la disponibilidad de banco de baterías para mantener un suministro de energía ininterrumpido tanto para la carga, pero aún más crítico, para Derechos reservados COPIMERA 2015

Figura 8 Gestión Energética Empire State Building Estrategias específicas: •! Controles DDC para la Temperatura, humedad relativa, flujo de aire, niveles de iluminación, demanda horaria (todo con comunicación wireless) •! Control de iluminación y enchufes inteligentes (toma corrientes con sensores de presencia y uso de balastros electrónicos y bombillos eficientes) •! Tratamiento del aire con tecnología VAC •! Modificación de la planta térmica (sustitución de los grandes enfriadores industriales por máquinas modernas 263


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

•! •! •! •!

•! •! •! •! •!

con control de parámetros, por ejm., variadores de frecuencia, etc.) Modificación del aislamiento en las más de 6500 ventanas tipo guillotina por ventanas con películas reflectante y gas aislante (DVH) Instalación de un sistema de información on-line del comportamiento del consumo energético por inquilino, por área y usos. Modificación de la barrera radiante (Instalación de más de 6000 barreras reflectoras detrás de las unidades de radiación situadas alrededor del edificio) Control de Ventilación por Demanda (Instalación de sensores de CO2 para el control del caudal de aire fresco (aire exterior), ajustando la producción de frío a la demanda)

•!

Referencias+ 1.! http://www2.taipei101.com.tw/en/Tower/buildind_08-1.html 2.! http://www.ad.siemens.de/ld/mcp/index.htm 3.! Edificios en Números” . Editado por el Consejo de Edificios Altos y Hábitat Urbano (CTBUH). 4.! www.esbsustainability.com 5.! http://www.coiim.es/rrii/Descargas/jornadasyconfere ncias/febrero_2012/g_hevia.pdf 6.! http://www.designbuild-network.com/projects/taipei-101-xinyi-taiwan/

Logros más relevantes: Inversión: 13 Millones Ahorro anual en costes de energía: 4,4M$ Reducción de Consumo: 38% Tiempo de retorno sobre la inversión: 3.1 años Reducción de emisiones de CO2 en 15 años: 105 000 Tons.

Taipei 101 Estrategias específicas •! Optimización de la automatización del edificioy la eficiencia energética •! Sistema de Control y Monitorización de Energía (EMCS, siglas en inglés) de Siemens para el sistema de VAC •! Uso de los Variadores de frecuencia para el control de grandes cargas. •! Uso de estaciones de distribución eléctrica por pisos •! Sistema de ascensores eficientes (motores altamente eficientes, abordaje inteligente, el uso de una y dinámica inercia, etc) •! Fachada de Vidrio de baja emisión (LOW-E) con cortinas tipo curtain wall. •! Gestión energética integral y automatizada Logros más relevantes •! Ha sido el primer edificio del mundo de su tamaño en obtener el certificado LEED-EBOM Platinum (siglas en inglés para Líder en Eficiencia Energética y Diseño Sostenible), lo que lo convierte en el edificio verde más alto del mundo. •! El consumo de energía de ‘Taipei 101′ es ahora un 30% inferior a la media de edificios. •! Supone un ahorro del coste de energía anual de cerca de 700.000 dólares americanos y unos 4,8 M de KWH/año. •! Ahorro anual de CO2 de 2.995 toneladas, que equivalen a evitar la deforestación de más de 4 hectáreas de bosques o el uso de 239 coches al año. Derechos reservados COPIMERA 2015

El consumo de energía es de 4,8 millones de kWh menos que antes de implementar las medidas exigidas para la obtención del certificado LEED.

264


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

Derechos reservados COPIMERA 2015

!

!

265


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

CREACIÓN+DE+LA+COMISIÓN+TÉCNICA+DE+PRODUCCIONES+MÁS+LIMPIAS++DE+LA+ CONSTRUCCIÓN+EN+LA+PROVINCIA+DE+CIENFUEGOS+ + + Práxedes Luisa Rodríguez Cabrera1, Pedro Alberto Ochoa George2 1

Cienfuego, Cuba, praxede@cfg.unaicc.cu , 2Cienfuegos Cuba, paochoa@nauta.cu +

Resumen+

introducción de este enfoque en numerosos países en vías de desarrollo.

Se puede afirmar que la actividad de la construcción es una de las actividades antrópicas más impactantes sobre el medio natural, no solo por la cantidad de recursos que involucra para su realización, sino por el volumen de desechos que se generan durante el proceso.

Considerando esta premisa, se propone entonces la creación de la Comisión Técnica de P+L en nuestra Provincia, tomando en cuenta lo establecido en los Estatutos de la Organización, apoyados en el Reglamento existente que rige la creación y el funcionamiento de las comisiones técnicas y teniendo como guía la metodología de la ONU para la creación de los Centros de (CP+L).

Dentro de las tendencias actuales encaminadas a reducir el impacto ambiental que se origina durante la producción de bienes y servicios, se propone el empleo de herramientas de ecoeficiencia, las cuales requieren de la preparación consciente de los actores que intervienen en su aplicación.

La comisión creada tiene definida su misión y sus objetivos los cuales están encaminados a favorecer el Desarrollo Sostenible en dicho sector y mejorar sistemáticamente el desempeño socio-económico-ambiental de las entidades de producción y servicios vinculados a la construcción por medio de las P+L..

Durante el año 2014 se diseñó e impartió un Diplomado sobre Desarrollo Sostenible, en el Centro de Superación Técnico Profesional de la Construcción (CENSUTP) en la Provincia de Cienfuegos, Cuba, en el cual se hizo énfasis en el enfoque de Producción más Limpia (P+L), como herramienta ecoeficiente para alcanzar un auténtico desarrollo sostenible en el sector de la construcción..

La UNAICC como organización social profesional que aglutina a los profesionales de diferentes perfiles del sector constructivo, brinda el marco propicio para dar cumplimiento a tales objetivos, los cuales a su vez están en concordancia con los lineamientos estratégicos del MICONS en relación con el uso y la conservación del medio ambiente.

Como actividad conclusiva de este Diplomado se defendieron varias tesis, en las que se proponen soluciones a problemas existentes en diversas entidades del sector de la construcción en dicha provincia, siendo los autores en su mayoría profesionales que pertenecen a entidades del MICONS.

En la ponencia se listan los trabajos realizados por algunos de los integrantes de esta Comisión Técnica de P+L, los cuales se han agrupado según las posibilidades reales de su implementación.

La Sociedad de Ingenieros Mecánicos, Eléctricos e Industriales (SIMEI), perteneciente a la Unión Nacional de Arquitectos e Ingenieros de la Construcción (UNAICC) en la Provincia de Cienfuegos, se dio a la tarea de aglutinar a esta masa mínima de graduados y a otros profesionales del territorio especializados en el tema de las Producciones más Limpias (P+L)

Se enuncian además los resultados alcanzados a partir de esta iniciativa y se identifican los requerimientos técnicos, económicos y organizacionales y las limitaciones para la ejecución, así como las vías posibles para lograr su materialización.

Las Naciones Unidas han desarrollado un programa de Centros Nacionales de Producciones más Limpias en coordinación entre su programa para el desarrollo industrial UNIDO y UNEP, los que se encargan de la promoción e

Nomenclatura+

Palabras Claves Producción más Limpia, impacto ambiental, reducción de desechos.

P+L Derechos reservados COPIMERA 2015

266

Producción más Limpia


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

CP+L UNAICC ONU CENSUTP SPS PNUMA MICONS. ECGOC

visión de sostenibilidad, tanto en la Agenda 21 propuesta en la Cumbre de Río de Janeiro como en la Cumbre Mundial Para el Desarrollo Sustentable desarrollada en Johannesburgo en 2002 se hacen numerosas referencias a la conveniencia de este enfoque,

Centros de Producción más Limpia Unión Nacional de Arquitectos e Ingenieros de la Construcción. Organización de las Naciones Unidas Centro de Superación Técnico Profesional de la Construcción en Cienfuegos Sector de Producción y Servicios Programa de las Naciones Unidas para el Medio Ambiente Ministerio de la Construcción de Cuba Empresa Contratista General de Obras de Cienfuegos

En 1998 el Programa de Medio Ambiente de las Naciones Unidas (UNEP) lanzó la Declaración Internacional de las Producciones más Limpias que ha sido hasta hoy traducida a más de 15 idiomas y cuenta con la adhesión de más de 500 signatarios mayores. Las Naciones Unidas también han desarrollado un programa de Centros Nacionales de Producciones más Limpias en coordinación entre su programa para el desarrollo industrial UNIDO y UNEP, que ha permitido la creación de estos centros encargados de la promoción e introducción de este enfoque en numerosos países en vías de desarrollo.

Introducción+ La tendencia a la degradación acelerada de las condiciones ambientales que soportan la vida en nuestro planeta, es una realidad palpable a simple vista y los círculos intelectuales y científicos, en la actualidad centran el debate en cuán rápido ocurre y que hacer para atenuarla.

En nuestro país se creó en 2001 la Red Nacional de Producciones más Limpias y varios ministerios tienen estrategias para la implementación de estrategias de P+L en sus respectivos sectores. En general existe un claro reconocimiento al hecho que es el primer paso para la promoción e implementación de las P+L en cualquier país o región es la formación de capacidades que lo aseguren y hagan viable.

Controlar la degradación ambiental, y asegurar las condiciones de habitabilidad, para las generaciones actuales y para las futuras, es uno de los principales retos que encara la humanidad en este momento de su evolución histórica, esencial en este propósito es reducir el impacto de la actividad antrópica sobre el medio ambiente tanto a escala global, como regional y local.

La implementación de una estrategia de Producciones más Limpias, proceso conocido en la literatura como Evaluación de Producciones más Limpias, tiene un carácter eminentemente transdisciplinario y se realiza generalmente por un equipo formado por profesionales de diversos perfiles, que dirigidos por un profesional con capacidad de liderazgo y conocimientos, quienes deben ser capaces de analizar la situación y generar propuestas de acciones que permitan mejorar el desempeño ambiental y económico.

Tradicionalmente en el Sector de Producción y Servicios se ha entendido que las actividades y acciones para la protección ambiental representan necesariamente un incremento de los costos y se relacionan con inversiones y gastos adicionales, imprescindibles para circunscribir el impacto ambiental a lo permitido por las normativas y regulaciones establecidas. El enfoque de Producciones más Limpias (P+L), va dirigido directamente contra esta falsa percepción; el Programa de las Naciones Unidas para el Medio Ambiente, PNUMA, lo define de la siguiente forma: “Es la aplicación de una estrategia ambiental preventiva, integrada en los procesos productos y servicios con el fin de incrementar la ecoeficiencia y reducir el riesgo para las personas y el medio ambiente”.

El programa del diplomado impartido en la Provincia de Cienfuegos, se enfoca a la formación de especialistas capaces de identificar las potencialidades de aplicación de este enfoque y proponer y liderar proyectos de investigación e innovación tecnológica que permitan mejorar el desempeño ambiental y económico de las entidades institucionales y empresariales. Contar con profesionales capacitados para la implementación de los conceptos de Producciones más Limpias es de gran importancia para asegurar que el impacto ambiental de las inversiones, en su ejecución y explotación, se encuentre dentro de rangos aceptables, así como para mejorar el desempeño ambiental de numerosas entidades que en los más diversos sectores trabajan en el territorio. La actual situación ambiental global ha conducido a la comprensión de que es absolutamente necesario modificar los actuales patrones de “desarrollo”, o no solo será insostenible el desarrollo socio-económico, sino la vida misma sobre la Tierra.

Su énfasis esta dado en el enfoque preventivo e integral y su aplicación tiene como principal propósito maximizar la producción minimizando los costos económicos y ambientales, lo que se logra a través del uso racional y efectivo de todas las materias primas, la reducción de la emisión de desperdicios en los lugares donde se originan y la búsqueda de aplicaciones útiles a los que inevitablemente se generen. La importancia de las estrategias de Producciones más Limpias (P+L) es reconocida internacionalmente, las Naciones Unidas reconocen en ellas un vehículo para llevar a la práctica su Derechos reservados COPIMERA 2015

267


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

ningún sistema de gestión de la calidad, ni resulta evidente o destacado para las empresas constructoras o las dedicadas a elaborar proyectos constructivos, ni se enseña en ninguna universidad, ni se exige revertir por ningún sistema de gestión ambiental.

La definición más aceptada de tal realidad fue dada en Abril de 1987 por la Comisión Mundial sobre Medio Ambiente y Desarrollo, en su informe titulado “Nuestro Futuro Común”. El Capital Natural consiste en las existencias de recursos naturales renovables y no renovables, tanto bióticos como abióticos. Está relacionado con las funciones realizadas (bienes y servicios suministrados) por los ecosistemas auto-suficientes (con menor impacto humano), resumiendo, es la capacidad de un sistema dado para proporcionar flujos de bienes o servicios a los humanos.

El centro de tales problemas es que no se tiene en cuenta que la entropía es la disipación de la energía útil. Nuestro modo de vivir, consumir, comportarnos, determina la velocidad del proceso entrópico, es decir, la muerte térmica de la Tierra y, en último análisis, el período de supervivencia de la especie humana.

El Capital Natural como base de bienestar presente y futuro debe manejarse cuidadosamente, reconociendo sus límites. El respeto a esos límites permitirá que el Capital Natural sea conservado de la degradación extensiva y mantener sus funciones cruciales hacia el futuro, como requiere el concepto de Desarrollo Sostenible.

Pero se puede influir sobre la velocidad de este proceso. El resultado final de un proceso evolutivo, con su creación de orden y su complejidad biológica, es siempre el aumento de entropía en el ambiente. No podemos sustraernos a las leyes de la entropía y la evolución; el proceso entrópico y el proceso evolutivo poseen una sola dirección y ésta no puede ser cambiada. El tiempo no es posible ponerlo al revés, pero se puede influir sobre la velocidad de los procesos.

M.Wackernagel et al. (2002) propusieron medir el impacto ecológico de la humanidad como el área de terreno productivo y el agua requerida para producir los recursos consumidos, (función fuente) así como para asimilar los residuos generados (función vertedero) por la humanidad bajo las prácticas de producción y de gestión predominantes, y en la Figura 1 se muestra gráficamente el resultado de tal trabajo."" "

Hacer más eficiente el consumo de recursos por el Sector de Producción y Servicios (SPS), permite ayudar a reducir dicha velocidad. Por otra parte, el desarrollo y la concreción del pensamiento científico en elementos útiles para la humanidad se logra, en lo fundamental, mediante el trabajo de los profesionales.

No de planetas Tierra usados humanidad"

Pero es precisamente el resultado de ese trabajo, o los efectos colaterales asociados, lo que impacta más negativamente y de diversas formas al medio ambiente y a la sociedad. Resulta entonces imperativo proporcionar a los estudiantes y egresados de las universidades una educación ambiental acorde con su nivel de responsabilidad social que les permita, tanto identificar como solucionar los impactos socioambientales relacionados con su quehacer profesional.

o

"

N de planetas Tierra disponibles que representan el total de la biocapacidad

+

Entonces, resulta capital la pregunta: ¿Cuál es la herramienta actual apropiada para lograr tales objetivos?.

""

Figura 1: Tendencia de la demanda ecológica de la humanidad.

Añ En el gráfico de la Figura 1 se aprecia que ya en los inicios de os" los años 80´ del pasado siglo se había sobrepasado la capacidad de la Tierra para sostener el desarrollo bajo las prácticas de producción y de gestión predominantes, pero de tales procederes resultan otras implicaciones. La muy marcada influencia negativa de las construcciones en general sobre el Capital Natural, no se tiene en cuenta por Derechos reservados COPIMERA 2015

268

Las primeras iniciativas empezaron en los años 70 en los EEUU con los conceptos de prevención de la contaminación y reducción de la cantidad de residuos generados. En la década de los 80 todavía no había un compromiso de gobierno y empresas para el desarrollo de programas de prevención de la contaminación, y muchas de las mejoras identificadas en los programas anteriores con potenciales beneficios económicos y ambientales no fueron implementadas. Sin embargo, de allí derivaron las primeras legislaciones al respecto.


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Desde 1987 la prevención de la contaminación empezó a ganar importancia en el oeste europeo, en especial Suecia y Holanda, las cuales fueron seguidas por otros países.

La falta de información sobre las ventajas de una gestión ambiental preventiva ha contribuido a que en muchas empresas e instituciones se mantenga una actitud negativa ante los temas medioambientales.

A partir de un enfoque diferente de la gestión de los procesos productivos, la manufactura, los servicios, el transporte y otros, se pasó a emplear el término Producciones más Limpias (Cleaner Production), el cual involucraba un análisis más amplio de los impactos ambientales de la industria, incluyendo aspectos de salida (residuos y emisiones), de entrada (consumo de materiales, agua y energía), así como las sustancias tóxicas incorporadas al producto.

Varios factores contribuyen para consolidar esta posición, uno de ellos es que en la mayoría de los países se desarrollan políticas predominantemente destinadas al control de la contaminación después de que esta es generada, como son los criterios y límites de descargas de emisiones y aguas residuales, la exigencia de plantas de tratamiento y las penalidades contra los infractores.

Además, el término incorporaba el concepto de mejora continua para la optimización del desempeño ambiental de la producción industrial.

Los costos para cumplir con estas exigencias son en general bastante elevados y aunque supone inversión por parte de las empresas, los objetivos finales difícilmente son obtenidos de forma permanente o sin generar otros problemas.

El término empezó a ser aceptado por la comunidad internacional y fue incorporado a las directivas del Programa Ambiental de las Naciones Unidas, en la Agenda 21 de la Convención Ambiental del Río de Janeiro en 1992.

La falta de informaciones técnicas, de profesionales calificados para dimensionar, construir y operar las plantas de tratamiento, la necesidad de importar equipos, además de la generación de lodos, ruido, malos olores y proliferación de vectores en estos sistemas, son aspectos que desaniman a los empresarios y contribuyen fortaleciendo la negación a una gestión ambiental de sus procesos y productos.

Desde entonces otros programas similares fueron desarrollados por los diferentes organismos de la cooperación internacional en todos los continentes, así como por centros de representación sectorial. La industria química creó el “Programa de Actuación Responsable” en el cual adoptaba el Código de la Prevención de la Contaminación, en 1992.

Como contrapartida, los países desarrollados consideran que los programas de ecoeficiencia constituyen uno de los pilares de la gestión empresarial de las empresas más competitivas, mediante los cuales se buscan ajustar procesos, reducir costos operativos, mejorar el ambiente de trabajo, a la vez que se reducen sus impactos ambientales. Asociados a las políticas empresariales, los gobiernos de los países desarrollados integran políticas ambientales que dan prioridad a las acciones preventivas, como son las buenas prácticas y el uso de t las P+L.

En América Latina, varios Centros de Producciones más Limpias fueron creados por PNUMA y por ONUDI, de los cuales Brasil y México fueron los primeros. Otras organizaciones de cooperación internacional se incorporaron a la iniciativa, como fueron la USAID, GTZ, Cooperación Suiza y también el Banco Interamericano de Desarrollo, a través del Fondo Multilateral de Inversiones FOMIN/BID por intermedio de su cluster de proyectos “Promoción de la producción eco-eficiente en PyMEs”.

Tal es el caso de los programas ambientales en la Unión Europea, donde desde el año 2000, consideran estrategias preventivas para evitar o reducir la generación de residuos. En una publicación de 1992, uno de los fundadores del Consejo Mundial de Empresarios para el Desarrollo Sustentable (WBCSD,), el doctor Stephan Schmidheinhy, considera que en los mercados abiertos y competitivos, nacionales o de exportación, se fomenta la innovación y la eficiencia

En la Figura 2 se representa esquemáticamente el desarrollo histórico de los conceptos de la reducción de los impactos socio-económico-ambientales con que la humanidad ha golpeado al Capital Natural. " P+L

"

Además de proporcionar oportunidades para que todos puedan mejorar sus condiciones de vida. En estos mercados se emplean indicadores en los cuales los precios de bienes y servicios reconocen y reflejan los costos ambientales que incluyen los aspectos relacionados con la producción, uso, reciclaje y disposición final de los residuos y desperdicios.

Tratamiento de residuales

" Remediación de los impactos ambientales

" Obviar los impactos ambientales

Figura 2: Desarrollo de los conceptos de la reducción de los impactos. Derechos reservados COPIMERA 2015

269


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Beneficios de las P+L en las empresas

Etapa 4. Estudio de viabilidad técnica, económica y ambiental:

El principal beneficio de implantar un Programa de P+L en una empresa es el direccionamiento del proceso productivo a mejorar la producción de bienes con valor económico mediante la reducción de los costos en los que se ha incurrido tradicionalmente para generar, tratar y disponer residuos.

Tiene como objetivo elaborar los proyectos para implantación de las opciones de P+L seleccionadas, considerando los aspectos técnicos, económicos y ambientales. Etapa 5. Implementación y planificación de la continuidad:

De acuerdo con el Programa de Naciones Unidas para el Medio Ambiente (PNUMA) y la ONUDI, entre los beneficios del Programa de P+L se pueden mencionar:

Es la etapa donde se implantan de forma supervisada los proyectos de P+L, se monitorean y evalúan los resultados para la planificación del Programa de Mejora Continua de las P+L. Sobre esta base se planifican las acciones para implementar las demás oportunidades no seleccionadas en la primera etapa o las nuevas que fueron identificadas posteriormente, lo que puede incluir una extensión del Programa a otras áreas o departamentos de la empresa.

1. Reducción de los costos globales de producción: 2. Mejora del desempeño ambiental: 3. Aumento de la competitividad de las empresas: 4. Aumento de la productividad. 5. Mejor imagen ante el público y los medios de comunicación: 6. Mejora de la calidad en el ambiente de trabajo: 7. Facilidad y reducción de costos para cumplimiento de las normas ambientales:

La implantación de un Programa de P+L considera tres niveles de opciones de mejoras: " • Nivel 1: Incorpora reducciones en la fuente de generación de desperdicios, cambiando el diseño del producto o el proceso productivo

La metodología de las P+L La metodología de las P+L, conforme fue propuesta por ONUDI y PNUMA se divide en cinco etapas:

• Nivel 2: Presupone el reciclo o reaprovechamiento de los residuos en procesos o productos de la misma empresa

Etapa 1. Planificación y organización: Tiene por objetivo la obtención del compromiso de la gerencia y la conformación de un equipo de profesionales y empleados de la empresa, o ecoequipo. Este eco-equipo será el grupo conductor de la implementación del Programa de las P+L en la planta.

• Nivel 3: Prevé la reutilización o reciclo de los residuos en otras empresas o en procesos de transformación biogénicos como son la producción de compost o la incorporación de los residuos en suelos agrícolas.

Etapa 2. Evaluación preliminar: Se estudian los flujos de materiales y energía de los procesos y se definen los límites o enfoque de la aplicación del programa de P+L, a través de una evaluación preliminar de la empresa. Como resultado se identifican las potenciales oportunidades de mejora y necesidades para profundizar los estudios. En esta etapa se estiman los costos de generación de los residuos y se identifican las principales áreas de estudio en donde se ubican algunas oportunidades de las P+L y las que son de más fácil implementación, denominadas opciones obvias.

Partiendo de los enfoques anteriores, en el Centro de Superación Técnico Profesional de la Construcción de Cienfuegos se impartió un Diplomado sobre Desarrollo Sostenible, basado en la utilización de las P+L como la herramienta requerida más actual para la conservación del Capital Natural frente a la degradación extensiva, y mantener sus funciones cruciales hacia el futuro, como requiere el concepto de Desarrollo Sostenible. Las líneas de investigación sobre las que se desarrollará el programa están vinculadas a la primera área de prioridad de la Estrategia Nacional de Ciencia, Tecnología e Innovación, que se refiere explícitamente a la atención a la contaminación ambiental y a las tecnologías limpias; estas se relacionan a continuación:

Etapa 3. Estudio detallado y diagnóstico: Se realizan los estudios y evaluaciones más detalladas de los procesos elegidos en la etapa anterior, para identificar un conjunto de oportunidades de P+L. Esta evaluación cuantifica las entradas y salidas en el flujo de materiales del proceso, identifica las causas de generación de residuos, emisiones y efluentes, y plantea alternativas para la reducción de los mismos, estableciendo los indicadores de proceso y de los objetivos del Programa en cada una de sus etapas.

Derechos reservados COPIMERA 2015

•" Producciones más limpias en la industria: Esta enfocada a la industria azucarera, petroquímica, de materiales de construcción y de procesos en general, y aprovecha la amplia experiencia que existe en el CENSUTP en la intervención en estos sectores.

270


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

•" Producciones más limpias en los servicios: Se dirige a las instalaciones tales como las turísticas, de mantenimiento mecánico, etc. Se defendieron varias tesis, las que a continuación se referencian ordenadamente de acuerdo con la complejidad para su implementación teniendo en cuenta los requerimientos técnicos, organizacionales, económicos, legales y las posibles dificultades para la implementación.

Conclusiones++ Las P+L buscan reducir la generación de desperdicios en el origen, en lugar de tratarlos una vez creados, por lo que, además, aumentan la productividad de los procesos. Las P+L son, en esencia, un enfoque proactivo para reducir el impacto socio-económico-ambiental de la producción de bienes o servicios.

Complejidad de la implementación de las tesis del diplomado: Baja 1." Perfeccionamiento de la organización del trabajo en procesos de una empresa de servicios de elaboración de alimentos. 2." Utilización de desechos de hormigón para incorporarlos al proceso de producción de una planta de elementos prefabricados. 3." Diseño de un programa para la implementación de buenas prácticas en el uso y manejo del agua en una planta de elementos prefabricados. 4." Prácticas de P+L en un taller automotriz de una empresa de la construcción. 5." Reutilización de los desechos generados en el proceso de pulido de las baldosas. 6." Reutilización de los desechos generados en un laboratorio por ensayos destructivos de muestras de materiales de construcción.

Se creó la comisión Técnica de P+L de la UNAICC, como un intento por lograr una actitud consecuente con relación a la sustentabilidad ambiental en el sector constructivo y aunque ya se aprecian los primeros resultados aún no son significativos. Se elaboró un programa de trabajo que considera inicialmente acciones de capacitación las cuales se enmarcan dentro de los planes de actividades de la UNAICC.

Recomendaciones+ Fomentar la creación de las Comisiones de P+L en otras provincias, no solo en el sector de las construcciones sino en otros sectores de la producción y los servicios. Divulgar los resultados alcanzados entre los profesionales y especialistas interesados en la búsqueda de soluciones aº problemas relacionados con la temática.

Media 1." Uso del Ca(OH)2 para el mejoramiento de la durabilidad del hormigón asfáltico caliente y de terraplenes de suelos arcillosos. 2." Tratamiento del agua residual para una P+L de hormigón hidráulico. 3." Propuesta de solución para la mitigación de las emisiones de polvo en una instalación industrial para la molienda y calibración de rocas.

Crear una Red de P+L con alcance local o regional que permita actualizar los conocimientos en el tema y los principales resultados alcanzados así como el intercambio de experiencias.

Agradecimientos+ Deseo agradecer a mis hijos y mi esposo que contribuyen pacientemente para proporcionarme el tiempo que necesito para que pueda dedicarme a realizar este tipo de trabajo. A los afiliados de la UNAICC que disciplinadamente trabajaron para obtener los resultados que hoy se presentan,

Alta 1." Adición de caliza al clinker en una fábrica de cemento. La mayor parte de los trabajos realizados se clasifican de complejidad Baja y Media, pues se pudo identificar que no requieren de cuantiosos recursos para su implementación, sin embargo aún no existe la voluntad administrativa para su concreción.

Al doctor Pedro A Ochoa George con su dedicación y tenacidad ha sido el inspirador de este proyecto , A la Dirección de la ECGOC, a la que pertenezco que me ha facilitado el tiempo y el financiamiento necesario para que pueda atender esta tarea y en especial al Delegado del MICONS en la Provincia, el Ing Pablo Idalberto Capó Pérez, quien en todo momento apoyó nuestro trabajo. En fin a todos los que colaboraron para llegar a estos resultados.

En estos momentos se ha podido implementar solo algunos de estos trabajos y cabe señalar que existen aún posiciones indiferentes por parte de los administrativos de varias entidades a pesar de las probadas ventajas que la aplicacion de estos resultados significa.

Derechos reservados COPIMERA 2015

271


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Referencias+

13." Ochoa George, P. A., Vandecasteele, C., Cleaner production in a small lime factory by means of process control. Journal of Cleaner Productions, Volume 18, issue 12 August 2010, pp 1171-1176, ISSN 0959-l526. Editorial ELSEVIER. 14." Ochoa George, P. A., “CP: Sustainable Development and Environmental Higher Education”, Memorias del 3er Taller Internacional Avances en Producciones más Limpias, Universidade Paulista, Sao Paulo, Brasil. (18 -20 mayo – 2011).

1." 2." 3."

Brundlandt Report “Our common Future”. 1987. WCED. Groot, R.S. de. 1992. Functions of Nature. Groot, R.S. de. 1994. Environmental Functions and the economic value of Natural systems. In: Investing in Natural Capital (1994), Jansson et al. (eds.). 4." Ochoa George, P.A., Analysis and Control Strategies for Lime Production from Calcareous Stone, Memories XXIII of Building Research Seminar at Central Building Research Institute of Roorkee, Vol. XLII, India, 1999. 5." van der Perk, J., Chiesura, A., de Groot, R.S., Grupo de Análisis de Sistemas Medioambientales, Departamento de Ciencias Medioambientales, Wageningen University & Research Centre. Mayo de 2000. Marco conceptual del Capital Natural, Saint Quentin en Yvelines, París, Francia. 6." Wackernagel et al. (2002), “Humanity´s Ecological Footprint”, Global Footprint Network. 7." UNIDO / UNEP, Guidance Manual on How to Establish and Operate Cleaner Production Centres, Cleaner Production and Environmental Management Branch, UNIDO, Vienna International Centre, 214 pp, Vienna, Austria, 2002. 8." Ochoa George, P. A., Las Producciones mas Limpias en la Gestión Empresarial, Editorial Universo Sur, Junio 2006, ISBN 978-959-257-129-7. 9." Ochoa George, P. A., Tovar Ospino, I.R., Un enfoque de Producciones más Limpias en la gestión de fábricas de cal, ISBN: 978-958-98279-3-2, Memorias del I Congreso Internacional de Materiales, Energía y Medioambiente de la Universidad Autónoma del Caribe, Barranquilla, Colombia. (26-29 septiembre-2007). 10." Ochoa George, P. A., “Una metodología para optimizar la gestión empresarial”, Memorias del IV Congreso Nacional de Excelencia en la Gestión y del II Simposio Internacional sobre Transparencia en los Negocios, Universidad Federal Fluminense, Río de Janeiro, Brasil. (31 de julio al 2 de Agosto, 2008). 11." Ochoa George, P. A., Memorias de la IX Jornadas Argentinas de Tratamiento de Minerales (JATRAMI), Universidad Nacional de San Juan, Argentina. “Las producciones más limpias en la gestión de una industria procesadora de minerales”. (20 al 25 Octubre 2008). 12." Ochoa George, P. A., Conferencia “Las Producciones más Limpias como herramienta para el desarrollo de la estrategia ambiental de un Centro de Educación Superior”, Memorias del 1er Taller Internacional Avances en Producciones más Limpias, Sao Paulo, Brasil. (19 -25 November – 2008).

Práxedes Luisa Rodríguez Cabrera, nació en Cienfuegos, Cuba el 21 de julio de 1958. Recibió el grado de Ingeniera Termoenergética con especialización en Plantas Térmicas Industriales en 1982,, en la Universidad de Cienfuegos. Cuba. Cursó un Diplomado en Gerencia Empresarial en el Centro de Superación técnico Profesional del MICONS en el año 2000. Concluyo una Maestría en Gestión Ambiental en la Dirección de Medio Ambiente en la Facultad de Ciencias y Tecnologías Aplicadas de la Universidad de la Habana en el año 2010. Desde 1982 hasta el 2002 se desempeñó en la actividad de construcción y montaje industrial en la Empresa Constructora de Obras Industriales No 12 de Cienfuegos, supervisando y controlando la ejecución de varias obras de mediana y gran complejidad, dentro de las cuales se destaca la Construcción de Refinería de Petróleo y la Reconstrucción de la Fábrica de Cemento de Cienfuegos. A partir del 2002 se desempeña como Especialista en Administración de Obras Industriales y de Ingeniería y como Coordinador Ambiental de la Empresa Contratista General de Obras de Cienfuegos. Labor que simultánea con la Presidencia de la Unión Nacional de Arquitectos e Ingenieros de la Construcción de Cuba en la Provincia de Cienfuegos. Ostenta la condición de Profesional de Alto Nivel que otorga dicha institución. Ha participado en varios proyectos empresariales de Investigación-Desarrollo, relacionados con el tema de la reducción del impacto ambiental de los proyectos de construcción. Es la Directora Ejecutiva de la Comisión Técnica de producción más Limpia en la Provincia de Cfgos Actualmente se encuentra trabajando en la integración del Sistema de Gestión de Calidad de la ECGOC con el Sistema Ambiental y el de Seguridad y Salud según las Normas NC ISO 9001, 14001 y 1800

"

Derechos reservados COPIMERA 2015

272


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

!

273


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

ESTUDIO+PARA+LA+INTRODUCCION+DE+PRÁCTICAS+DE+PMLLIMPIA+EN+LA+ UNIDAD+EMPRESARIAL+DE+BASE+EQUIPOS+Y+TALLERES.+ Msc. Rosa Cecilia Calzado Brossard La Habana, Cuba Resumen+

encaminadas a la reducción de la contaminación introduciendo prácticas de Producción Más Limpia y potenciando la adopción de un consumo responsable. El servicio automotriz, es dentro del sector de los servicios, una de las actividades más representativas por su potencial contaminante, su impacto ambiental está relacionado con la generación de gases tóxicos a la generación de residuos de diferentes índole, particularmente sólidos o de carácter peligroso, siendo los más comunes los aceites lubricantes, refrigerantes y las baterías, estas últimas por la cantidad de ácido y plomo que contienen. La estrategia de implantación de la Producción Limpia (PML) en el Sistema de Gestión Empresarial en la actividad de talleres automotrices resulta una herramienta muy útil para aprovechar adecuadamente todos los recursos a partir de un balance de materiales y conocer los consumos reales de agua, energía, combustibles, lubricantes, materias primas, etc. Durante la ejecución de la actividad de servicios de mantenimiento o reparación, tanto al taller ejecutor como al operador del equipo, para de esta manera conocer dónde son generados los residuos, por qué son generados y como pueden ser eliminados o reutilizados para disminuir la carga contaminante de sus efluentes industriales y reducir los costos de producción. Pero la PML no sólo se limita a usar lo que ya se conoce sino a cambiar e innovar para minimizar los consumos y esto se refleja en la mejora continua, la eficiencia, competitividad y la mejora de su imagen ante la comunidad.

La introducción de estrategias de Producción Más Limpia (PML) en el Sistema de Gestión Empresarial cubano resulta una herramienta muy útil para aprovechar adecuadamente todos los recursos, por lo que el objeto de estudio estuvo encaminado a la introducción de un enfoque de producción más limpia en la Unidad Empresarial de Base Equipos y Talleres de la empresa Constructora Caribe. En la realización del estudio se utilizó la metodología de Evaluación Rápida en Planta que aplica el CITMA desde el 2006, para diagnosticar y generar las opciones, apoyados en el software Eco inspector 2.1 para la evaluación del potencial de Producción Más Limpia. Se definió como objetivo general a Elaborar una estrategia de PML en la Unidad Empresarial de Base de Equipos y Talleres de la empresa Constructora Caribe para identificar las oportunidades de aplicación e implantación y como objetivos específicos Identificar las posibles variables de PML, Introducir una estrategia preventiva y Proponer un plan de mejoras. Las principales técnicas empleadas fueron entrevistas, la observación directa, uso de los expertos del grupo ambiental, revisión de resultados, encuestas organizacionales, Diagnóstico ambiental. Como resultado, se logró introducir la estrategia de PML en la Unidad Empresarial de Base de Equipos y Talleres de la empresa Constructora Caribe, se identificaron 12 opciones lo que permitió minimizar los residuos, prevenir y mitigar la contaminación, introducir buenas prácticas en el desempeño ambiental del centro.

Nomenclatura+ Medio ambiente Desarrollo+

+ Introducción+

Caracterización de la PML

La falta de control que ha acompañado el desarrollo económico mundial ha conllevado al incremento del deterioro medio ambiental mediante la contaminación de los recursos naturales. La tendencia ha sido hacia la explotación de estos recursos en forma indiscriminada, al incremento de la producción de bienes y servicios y al desmesurado nivel de consumo. En este sentido, muchos países se han trazado políticas ambientales Derechos reservados COPIMERA 2015

La PML es la Aplicación continúa de una estrategia integrada de prevención, dirigida a los procesos, productos y servicios, para aumentar la eficiencia y reducir los riesgos a la vida humana y al medio ambiente. (PNUMA): Otros conceptos similares han sido “minimización de residuos”, “prevención de la contaminación” y “ecoeficiencia”, todos ellos 274


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

referidos a la estrategia de hacer más con menos, a fin de mejorar la eficiencia en el uso de los recursos naturales, materias primas e insumos y minimizar la generación de residuos, la contaminación y los riesgos ambientales derivados de la producción de bienes y servicios.

Se identificaron los problemas ambientales que pueden tener solución a partir de la aplicación de las opciones de PML, realizar un Plan de acción e Identificar aquellas opciones que se puedan aplicar de inmediato.

Preparación del Grupo Ambiental:

La unidad básica presenta una infraestructura que su diseño original responde a las normas de planeamiento de talleres de serviciaje automotor, el personal esta capacitado para las actividades que realizan, el equipamiento de trabajo posee en su mayoría más de 15 años de explotación, el estado técnico del parque de equipos es regular.

Se creó un equipo ambiental multidisciplinario formado por varios especialistas, comprometidos con el desempeño ambiental de la empresa, con el propósito de realizar y concluir satisfactoriamente la evaluación de la PML, así como también consolidar los principios ambientales, en estrecha relación con el coordinador ambiental y el especialista de calidad para introducir en la entidad el programa de mejora y estrategia de desarrollo. Se realizó una reunión de apertura con los directivos de la Unidad y se observó por parte de la dirección de la UEB un entendimiento y apoyo para la introducción de la PML, Se preparó y organizó dicho equipo, se asignaron tareas a cada integrante, se definieron los objetivos, las metas, alcance, la disponibilidad y recogida de los datos de la organización

Se aplican las normas cubanas establecidas por el Ministerio de la Construcción MICONS y ramales del Ministerio del Transporte MITRANS necesarias para la actividad que desarrollan. Está definido el flujo tecnológico, existen áreas de espera para los servicios, vehículos paralizados o en espera de mantenimiento de forma tal que no provoque dificultades en las maniobras de entradas a las vallas, aunque todos los servicios poseen sus locales o vallas no se utilizan en su totalidad en las operaciones de serviciaje automotor. Las vallas son del tipo paralelas.

Visita: Recorrido por todas las áreas de la instalación. Aspectos que se observaron durante la visita. Impactos negativos al medio ambiente, Gastos por encima de lo establecido o que puedan reducirse de materiales e insumos, agua y portadores energéticos, Generación de residuos sólidos, líquidos, materiales peligrosos y emanaciones gaseosas que puedan reducirse, reusarse o reciclarse y la Utilización y adquisición de equipos que conlleven al uso ineficiente de agua, energía, materiales, productos y a la contaminación del agua, suelo, aire. entre otros. Esta etapa nos permite familiarizarnos mejor con los procesos productivos de la entidad, y los servicios que se realizan que son: Fregado, Revisión técnica, Mantenimiento, Averías, Chapistería y soldadura, Pintura, Maquinado, Ponchera y Electricidad. Así como recopilar la información necesaria para analizarlas y compararlas entre sí, Se evalúo, diagnóstico y planificó con el propósito identificar, mitigar, prevenir, eliminar los efectos de la contaminación en el lugar que se originan, nos permite evaluar el flujo de las actividades que se realizan en la unidad enlazada de forma secuencial como un proceso e identificar las que presenten mayor oportunidad de mejoras. Brinda una visión general de las opciones de PML a analizar, se determinó los datos cualitativos de los flujo de energía y materiales, gastos por encima de lo establecido, generación de residuos sólidos, líquidos, materiales peligrosos y emanaciones gaseosas que puedan reducirse, rehusarse o reciclarse, La adquisición de productos, materiales, insumos, no amigables con el medio ambiente y con capacidad de sustitución o tratamiento, Almacenamiento de productos químicos, contenedores que no están señalizados, artículos que aparezcan tirados en cualquier lugar.

Derechos reservados COPIMERA 2015

Poseen las cartas tecnológicas acordes a los equipos del parque. Los medios de medición están verificados y calibrados. No se aplican las medidas generales de seguridad e higiene de la actividad de taller (algunas áreas están sucias, no esta activado el punto contra incendio). Las fuentes de recolección de datos fueron a través de: •! Documento base del sistema interno (orden de trabajo). •! Inspección visual de las áreas. •! Registros de contabilidad. •! Registros de almacenes. •! Mediciones realizadas. •! Recibos de pagos de agua, electricidad. •! Pizarras, murales. •! Entrevistas con operarios y trabajadores. •! Registros de compras. •! Resultados de auditorías. •! Modelos de talleres.

Evaluación de los resultados: En el análisis del proceso, se tuvo en cuenta, la producción realizada, las entradas se identifican, cuantifican y analizan (materiales, materias primas, portadores energéticos, agua, energía, recursos, insumos), incluyendo sus costos correspondientes, el tipo, cantidad y origen de los residuos, desechos, y pérdidas, operaciones.

275


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

4.! Recomendación de los procesos seleccionados para un análisis más detallado que pasarían a la Evaluación Profunda en Planta, previo contrato con la empresa

Indicadores fundamentales de talleres: I. Cantidad de averías por mantenimiento = Cantidad de averías = 47 Cantidad de mttos 19 Cantidad de averías por mantenimiento=2,47 av/mtto Este debe ser menor de 2,2 av/mtto

CONCLUSIONES Y RECOMENDACIONES 1.! Se pudo constatar en el análisis bibliográfico realizado la existencia de toda una teoría sobre los fundamentos de la producción más limpia, de las ventajas, experiencias y metodologías para su introducción. 2.! A través de los resultados obtenidos en esta investigación se logró identificar las opciones de PML en la Unidad Empresarial de base de Equipos y Talleres. 3.! Dar cumplimiento al Plan de Mejoras de la Estrategia Ambiental de la Unidad empresa para reducir o eliminar el impacto negativo en un 35%.

II. Tiempo promedio de una avería = Tiempo Total Cant. averías Tiempo promedio de una avería= 1893 47 Tiempo promedio de una avería= 40,2 horas Este indicador debe ser menor de 57 horas. Esta Unidad posee un Índice de ejecución del 24 % con un 2% por debajo de lo establecido debido en lo fundamental a los gastos indirectos al aumento de los tiempos por espera! de piezas, materiales, y otros. Se realizo el análisis de los problemas ambientales existentes para seleccionar de ellos los que pueden solucionarse a partir de opciones de P+L y se aplico el Software Eco inspector 2.0 mediante el cual se estiman las potencialidades de P+L de acuerdo a los problemas detectados.

Recomendaciones! 1.! Generalizar las propuestas de prácticas de Producción más limpias a otros talleres automotrices del Grupo Empresarial de la Construcción en la Habana (GECONS). 2.! Evaluar otras alternativas de PML que permitan obtener ganancias económicas y aumentar el desempeño ambiental de la entidad. 3.! Continuar con la evaluación e implantación de las opciones de soluciones de PML planteadas.

Resultados obtenidos. Se elaboró el plan de mejoras las que se comenzaron a implementar, aunque aún no se ha implantado el Plan de Mejoras de PML en su totalidad, estamos a un 35% y se han obtenido los resultados siguientes: 1.! Se realizó un contrato con materias primas del municipio Marianao y con la Gomera Nelsón Fernández para la entrega de las materias primas (3,5 toneladas de acero, 700 Kg de plomo y 11 baterías). Por lo que se ha dejado de emitir a la atmósfera 700 kg de plomo, se mejoró la organización y limpieza del centro. 2.!

Se han entregado en la gomera 19 neumáticos a recapar.

3.+

Se capacitado el personal por las áreas específicas en la temática ambiental.

4.+

Referencia+ 1.! Arellano Acosta, D M, (2002) Producción más limpia. Concepto y Alcance GECYT 1er Taller La dimensión ambiental en las empresas cubanas. 2.! Barzaga Tamayo JL “Aplicación de la PML en el diseño y ejecución de obras de arquitectura en la empresa de servicios de ingeniería y diseño de Granma Estudio de Caso (2009). Tesis en opción al Grado Científico de Máster en Ingeniería Ambiental. ISPJAE. 3.! Bermúdez García, José M. (2009) Aplicación de producciones más limpia a partir del tratamiento de los residuales de los lavados de los calentadores de aire regenerativo en la Empresa Termoeléctrica Cienfuegos. 4.! Centro de Información, Gestión y Educación Ambiental (CIGEA). Plan Nacional para la Introducción de la Producción Más Limpia en la Gestión Ambiental Empresarial. (2004). 5.! CUBAENERGIA Hacia una eficiencia energética. Curso de universidad para todos Suplemento Especial (2004).

Se logro un ahorro de agua del 30 %.

Informe 1.! Se elabora un informe detallado con la descripción de las etapas del proceso incluyendo las materias primas, residuos, aguas residuales, emisiones consumidores de energía. 2.! Resultado de la evaluación de los datos y del software.(hojas de trabajo del mismo), Procesos con mayores potencialidades de P+L. 3.! Resultados a las opciones de PML propuestas en las diferentes áreas.

Derechos reservados COPIMERA 2015

276


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

6.! Experiencias de aplicación de la producción más limpia en cuba Ficha técnica. Grupo Empresarial CEMVID 2007. 7.! Ferrer Carvajal, R Producción y servicios más limpios y la búsqueda de la Calidad Total por las empresas. GECYT- CITMA CUBA.

8.! Ley 81/1997 o Ley del Medio Ambiente. Cuba. Ministerio de Ciencia Tecnología y Medio!Ambiente.

ANEXOS+ FIG+1+DIAGRAMA+DE+EVALUACION+RAPIDA+EN+PLANTA+PARA+LA+ UNIDAD++

+

Derechos reservados COPIMERA 2015

277


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

FIG+2+GRÁFICO+RESULTANTE+DEL+SOFTWARE+ECOINSPECTOR+ COMPARACIÓN+ENTRE+LOS+PROCESOS

+

+ + + + + + + + + + + Derechos reservados COPIMERA 2015

278


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ + + + + + + FIG+3+GRÁFICO+POTENCIALES+DE+pml+ + + + + + + + + + + + + + + + + !

Derechos reservados COPIMERA 2015

279


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

FABRICACIÓN+DE+UN+GENERADOR+UNIVERSAL+PARA+UNA+TURBINA+EÓLICA+UTILIZANDO+ ANÁLISIS+DE+ELEMENTOS+FINITOS+FEA+Y+MAQUINADO+CNC+ 1

Msc. Victor Sotelo Neyra1; Msc. Fabricio Paredes Larroca2.

IDIC-ULIMA, vsotelo@ulima.edu.pe, 2IDIC-ULIMA, fparedes@ulima.edu.pe

! !

Resumen+

! 1.+

INTRODUCCIÓN+

El presente proyecto permite innovar en el diseño y fabricación de un nuevo modelo de generador eléctrico de baja potencia, especializado para la línea de micro turbinas eólicas. En el estudio se propone fabricar un generador, con las características de desempeño de acuerdo a un diseño, donde la solución al problema de tamaño (potencia) y velocidad puede resolverse y utilizarse para investigaciones de innovación tecnológica o fabricación a pedido del cliente.

El presente trabajo de investigación pertenece a la rama de generación eléctrica, trata del diseño y la construcción de un generador DC, utilizando las nuevas técnicas de simulación por el método de análisis de elementos finitos FEA, aplicado a un generador de una turbina eólica de baja potencia. Tiene como objetivo principal el diseño de un generador que opere condicionado por las características de la turbina y que trabaje en pareja, de manera que teniendo el punto óptimo de operación, principalmente velocidad de rotación y torque, se obtengan los parámetros de construcción del generador y se aproveche al máximo la energía disponible del viento. En el Perú se pueden encontrar micro turbinas eólicas, algunas se construyen localmente de forma artesanal, entre los 200 a 1500 vatios, se busca solucionar los problemas encontrados al seleccionar el generador adecuado, donde actualmente se coloca un motor DC trabajando como generador. En el presente proyecto se ha logrado construir un generador DC, una turbina eólica y un controlador electrónico. Se ha logrado controlar el generador para la carga de baterías, utilizando un DSP y electrónica de potencia, logrando obtener una velocidad óptima de operación en la turbina. Las chapas de acero fueron cortadas en una fresadora y un torno CNC, de acuerdo al diseño y las pruebas de simulación obtenidas en el programa Maxwell de Ansys. Se concluye que es posible diseñar y construir sistemas completos de generación eólica, utilizando herramientas avanzadas de Ingeniería, de acuerdo a las condiciones encontradas en nuestra región. ! Palabras+Clave:!Energía, CAE, CNC, FEA, Generación

Figura+1.!Turbina!eólica!montada!en!un!edificio!de!5!pisos!en!la! Universidad!de!Lima.!

El sistema de generación construido en los proyectos precedentes, tuvo como objetivo principal que se pueda disponer de energía fácil y económicamente, sobre todo que cuide al medio ambiente al utilizar energías limpias y renovables, de manera que como plan a futuro se puedan

!

Derechos reservados COPIMERA 2015

280


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

construir en el Perú generadores eléctricos para los poblados que se encuentran alejados del sistema interconectado nacional, como poblados en la selva o en lugares apartados. Si bien hoy en día existen soluciones, la mayoría de ellas tiene un costo muy elevado y son fabricadas totalmente en el extranjero.

máxima posible y esta depende de regular adecuadamente la velocidad de rotación de los álabes, haciendo un manejo del torque opuesto del generador se regula la velocidad con un valor de λ óptimo, que generalmente es un valor alrededor del número 7, en otras palabras se busca una velocidad de rotación donde la velocidad tangencial en la punta de los álabes es siete veces la velocidad del viento. [Ref 1].

En el presente proyecto, se busca como fin la independencia tecnológica, de manera que se puedan disminuir costos utilizando tecnologías y materiales nacionales, para que los conocimientos adquiridos luego puedan ser proporcionados a la sociedad para el bien común.

En el presente proyecto se ha diseñado un generador con las características de un motor Universal (estator con chapas de acero), por el hecho de que no es un generador para operar en un estado estable, sino que va a recibir señales de corriente variables todo el tiempo, de manera que el torque producido ajuste a la pareja turbina-generador en una velocidad óptima de operación para cada condición de viento.

En el caso del generador de una turbina eólica, la complejidad del diseño se debe a que el viento cambia constantemente, de manera que el generador debe soportar diferentes cargas de operación a diferentes velocidades, lo que obliga al uso de sistemas de control inteligentes en base a procesadores digitales DSP, de otra manera la energía disponible no es bien aprovechada y las piezas mecánicas del generador sufren daños por vibraciones, aceleraciones exageradas o por mala coordinación entre el torque proveniente de los álabes contra el torque proveniente del generador al cargar las baterías.

Si fuera el caso de una producción de energía constante, por ejemplo un motor de combustión de velocidad controlada, solo sería necesario fabricar un generador DC, con imanes permanentes, sin embargo en el caso del viento, los generadores deben ser muy dinámicos y robustos. ! A.+ PLANTEAMIENTO+DEL+PROBLEMA+ + En el Perú se pueden encontrar micro turbinas eólicas, algunas se construyen localmente de forma artesanal, entre los 200 a 1500 vatios, se busca solucionar los problemas encontrados al seleccionar el generador adecuado, donde actualmente se coloca un motor DC trabajando como generador y donde solo queda la alternativa de comprar un modelo que no fue diseñado para trabajar con turbinas y que se debe adaptar, teniendo como consecuencia dificultades electro-mecánicas y una mala performance.

El controlador del generador debe enfrentarse a un problema donde las perturbaciones del viento son impredecibles, mientras está regulando un punto de operación para llegar a la estabilidad ya se está requiriendo un nuevo punto de operación para las siguientes condiciones de viento, las consignas por lo tanto deben ir variando, escogiendo la mejor alternativa para que la turbina entregue la mayor cantidad de energía disponible en ese momento al generador, el cual debe ir generando un torque, equivalente al torque que carga las baterías, para ir regulando su velocidad óptima.

•!

Las máquinas eléctricas se pueden controlar hoy en día electrónicamente, lo que permite abrir un gran espacio para el desarrollo de nuevos diseños que hagan uso de las nuevas tecnologías de la electrónica de potencia y los nuevos materiales, así como de las herramientas modernas de ingeniería asistida por computador. En el Perú recién se comienzan a utilizar las herramientas de diseño con software avanzado, como el análisis de elementos finitos FEA.

Dentro de los principales problemas de control en las turbinas eólicas de baja potencia, se encuentra el hecho de que un mal manejo del torque proveniente del generador, que finalmente es lo que se convierte en energía aprovechable, puede generar inestabilidad o incluso la destrucción de sus partes, maltratando a los álabes, produciendo fallas en la transmisión o una generación eléctrica insuficiente entre otros, sobre todo cuando se tiene ráfagas de vientos repentinas y con cambios de dirección aleatorios.

•!

La potencia que puede producir una turbina para una cierta condición de viento, depende mucho de su diseño, dentro de los parámetros que se busca optimizar se encuentra la tasa de velocidad de punta λ, lambda, que es la relación entre la velocidad de la punta del álabe y la velocidad del viento frente a la turbina. Hay un punto óptimo donde la potencia es la Derechos reservados COPIMERA 2015

Se plantea para el proyecto diseñar y fabricar un generador a medida.

Se plantea para el proyecto utilizar herramientas de diseño de última generación.

Los generadores eléctricos que se encuentran en el mercado son genéricos y utilizan lo mínimo de materiales para que sean económicos. A menor velocidad de giro mayor es el costo. Cuanto más simple más económico pero menos eficiente. Si bien es posible utilizar una computadora 281


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

y un inversor electrónico para controlar la captación de la energía y así mejorar la eficiencia, esto incrementa el costo de los equipos. También se presenta el problema de que la energía del viento no es constante y que la velocidad va cambiando constantemente, obligando al diseñador a colocar una caja de cambios que produce una gran cantidad de pérdidas, puesto que una caja de cambios se diseña para operar de forma constante, cuanto más variable se diseñe más aumenta los costos, lo cual no es conveniente para un sistema de baja potencia que supuestamente es económico. •!

B.+

Hay cuatro tipos de generadores utilizados en las turbinas eólicas, donde el criterio de escoger cuál de ellos depende mucho de la cantidad de energía que se espera obtener, depende mucho de la velocidad de rotación y también si esta última debe ser constante o variable. Los generadores eléctricos de baja potencia pueden ser de corriente continua DC (campo y armadura devanados), los del tipo sin escobilla BLDC, los de imán permanente PMs y los generadores síncronos. En mediana y alta potencia, los generadores más comerciales son diseñados en base a los generadores síncronos de 6 u 8 polos, así como algunos modelo de rotor y estator devanado de inducción, los últimos modelos usan el diseño de inducción de doble alimentación para velocidad variable, en los cuales la energía producida es almacenada y controlada mediante conversores, a diferentes velocidad de viento, para luego ser invertidas y entregadas a la red eléctrica en condiciones normales de transmisión, mediante otro grupo de conversores de alta potencia.

Se plantea para el proyecto controlar el generador con un microprocesador DSP. ! PROPUESTA+DE+SOLUCIÓN+

+

Se propone el diseño y fabricación integral de un generador que pueda ser compatible con las necesidades que se requieren para trabajar en pareja con una turbina de viento. •!

Se propone diseñar un generador de corriente continua, sin imanes, que sea capaz de adaptarse a las características de operación de una turbina eólica.

•!

Se propone buscar los materiales, utilizar métodos y procesos de manufactura como CAD-CAE-CAM.

•!

Se fabrica el generador con una potencia de 65 W y se realizan pruebas de operación. El generador puede aumentar su potencia hasta los 200 W al colocar más chapa aumentando su tamaño. Implica rebobinado.

•!

Aprovechar el conocimiento tecnológico obtenido, para propiciar el uso de sistemas que mejoran la calidad de vida y cuiden del medio ambiente.

Sin embargo en algunas turbinas nuevas, se está comenzando a utilizar el modelo de conversión de potencia total “full power conversion” con generadores de imán permanente, por tratarse de generadores de baja velocidad y de alta eficiencia. Algunos diseños únicos han sido desarrollados para disminuir las cargas en los ejes de transmisión y los costos de producción, son diseños que han sido explorados por grandes compañías como NREL WindPACT e investigadores como Poore y Bywaters. Una forma de mejorar la capacidad y conveniencia es construir un generador “direct-drive” que elimina la complejidad de tener una caja de cambios (uno de los objetivos de nuestro proyecto), donde ocurre uno de los problemas mayores de control y eficiencia de todo el sistema turbina-generador. El problema principal de eliminar la caja, es que al disminuir las velocidades del generador aumenta el número de polos, por lo tanto un gran diámetro.

!

C.+ ANTECEDENTES+

La reducción de los precios y el aumento de la disponibilidad de los imanes permanentes de tierras raras están abriendo la posibilidad de nuevos diseños. Los diseños con imanes permanentes tienden a ser más compactos y livianos, con menores pérdidas eléctricas y de campo en los devanados.! ! D.+ OBJETIVO+ + El presente proyecto tiene como objetivo el diseño y fabricación de un generador eléctrico, que sea compatible con el sistema de generación de la turbina eólica instalada en la Universidad. Obteniendo el conocimiento será posible la construcción de sistemas de generación eólicos diseñados y fabricados completamente en nuestro país, disminuyendo

+ Las máquinas eléctricas y la electrónica de potencia tradicionales no son muy eficientes en sistemas eólicos de baja potencia, entre los 100 W - 20 kW, porque en la mayorías de ellos hay energía que se pierde en el viento por falta de eficiencia, en aras de que el sistema de la turbina sea económico y que el generador sea lo más barato posible. Si se compara la cantidad de energía que se puede captar con el generador, las pérdidas superan el 70%. Tan solo el generador eléctrico sólo alcanza una eficiencia del 55%. En cambio en sistemas de gran potencia la eficiencia no es tan importante sino más bien que se debe cumplir con las condiciones que imponen las redes eléctricas. Lo expuesto brinda como conclusión que los sistemas de generación de baja potencia deben ser mejor diseñados para poder mejorar la eficiencia y aprovechar al máximo la extracción de la energía del viento. Derechos reservados COPIMERA 2015

282


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

costos y adoptándolos a las características que se requieren en nuestra región. ! A.+ Objetivos+específicos+de+la+investigación+ + El primer objetivo es diseñar y simular un generador eléctrico, de manera que se puedan cambiar las dimensiones y especificaciones, de acuerdo a una necesidad específica como adaptarse a las condiciones de operación de la turbina eólica de la Universidad.

Los parámetros de diseño más importantes ingresados al programa Maxwell con su herramienta RMXpert [Ref 2], se muestran en la Tabla #1:! ! Tabla!#1.!Parámetros!de!diseño! ! + Valor+ Unidad+ Potencia+ 65+ W+ Velocidad+ 7150+ r.p.m.+ Torque+ 0.2+ N.m+ ! ! B.+ Modelo+3D+del+Ansys+Maxwell+ ! Como salida de los diagramas y dibujos de la herramienta de software Ansys Maxwell, se puede exportar un diseño en 3D para poder luego importarlo en el programa de dibujo Invento de Autodesk. También se puede exportar un modelo 3D para otras aplicaciones Ver figuras Figura 2 y Figura 3.

El segundo objetivo es fabricar un prototipo de generador eléctrico con las herramientas y máquinas de nuestros laboratorios. Se desea probar que se puede fabricar un generador en el Perú de acuerdo a un diseño deseado. El conocer los procesos de manufactura necesarios permitirá realizar futuras investigaciones sobre el electromagnetismo. ! 2.+ METODOLOGÍA+ + La metodología de trabajo se separó en dos aspectos:

!

A.+ Marco+Teórico:+

C.+ Marco+Tecnológico:++

Como primer paso se realiza la búsqueda de la información más actualizada sobre el diseño y fabricación de generadores eléctricos. Se busca cuáles son las técnicas de control de los campos eléctricos. El segundo paso es el aprendizaje de los programas de ingeniería asistida por computador CAE para hacer el análisis de elementos finitos, de manera que se pueda probar de forma simulada las características del generador diseñado. En el proyecto se utilizó el paquete de software Maxwell de la firma Ansys, aplicación en la cual se analizaron y optimizaron todos los parámetros del generador diseñado.

Se buscan los materiales que permitan la construcción de las piezas mecánicas y eléctricas, como las placas de acero no orientado para los núcleos del rotor y estator, los conductores de cobre y aislantes, los materiales para los ejes, escobillas, los rodamientos, la carcasa y las conexiones. !

!

! Figura 3. Modelo 3D de todo el Generador (Fuente Ansys) Como quinto paso se fabrica un módulo de pruebas colocando el generador frente a un motor donde se puedan realizar las pruebas de laboratorio. Finalmente como sexto paso se procede a la instalación del generador en la turbina eólica de la Universidad.

! ! Figura 2. Diseño del Generador en 2D (Fuente Ansys) + Derechos reservados COPIMERA 2015

283

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! Cuando el diseño se importa en el programa Inventor hay que tener en cuenta la escala y las dimensiones reales del objeto. También el programa Inventor debe identificar algunas figuras que pueden ser identificadas en el siguiente programa de proceso CNC, y es que se deben identificar los centros de los agujeros, los ejes de simetría, las extrusiones y los cortes del objeto importado desde el programa Maxwell. Ver ¡Error! No se encuentra el origen de la referencia.. ! E.+ Procesamiento+CNC+en+el+programa+EdgeCam+ ! El programa EdgeCam sirve para dar las instrucciones de corte a las máquinas de control numérico CNC, tiene como entrada a los objetos tridimensionales como el estator y el rotor importados desde el programa Inventor.

!

D.+ Fabricación+del+estator+ !

La construcción del estator del generador se realiza por corte mecanizado en la fresadora de control numérico CNC. Obtenido el diseño mediante el programa Maxwell de Ansys, se procesa el dibujo 3D en el programa Inventor de Autodesk. El dibujo debe coincidir con las dimensiones y la proporción exacta que entrega la hoja de datos de diseño del programa Maxwell. El propósito es crear un dibujo que pueda ser integrado a los programas de corte de la fresadora CNC. La plantilla del dibujo se puede obtener por exportación del diseño en formato STEP. !

Los diseños sirven como reglas o plantillas por donde las cuchillas de corte deben seguir las trayectorias a medida que se va moviendo las torretas de corte de la fresadora. La cuchilla de corte gira a gran velocidad y tiene una dureza mucho mayor al acero magnético de las chapas a cortar. En la ¡Error! No se encuentra el origen de la referencia. se puede observar el estator, junto con una serie de líneas llamadas Paths, es por esos caminos por donde van a moverse las cuchillas de corte. El procedimiento normal de corte se inicia importando el objeto en 3D. !

Figura 4. Modelo 3D en formato STEP (Fuente Ansys) !

!

! Figura 6. Procesamiento del corte CNC para el estator (Fuente EdgeCam)

! Figura 5. Dibujo 3D del estator en Inventor de Autodesk Derechos reservados COPIMERA 2015

Luego se le pide al programa que identifique algunas figuras conocidas como círculos, centros de círculos, agujeros, trayectorias cerradas, surcos y proyecciones. Luego se identifica el metal que se va a cortar, en este caso

!

284

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

se trata de acero magnético. Como siguiente paso de especifica las dimensiones de la materia prima y finalmente se le indica al programa los perfiles por donde debe cortar, indicándoles si se trata de cortes planos, cortes de tipo desbaste o simplemente seguimiento de perfiles. El siguiente paso es la verificación de los procesos de corte, la herramienta de software EdgeCam permite hacer una simulación del corte de la materia prima, ver figuraFigura 7. En este paso se dirige los movimientos de corte de las fresas. Se escogieron fresas de 1mm, 2mm, 3mm, 10mm y 40mm de diámetros para las distintas operaciones de maquinado. Finalmente se le solicita al programa procesar las instrucciones necesarias para la máquina de control numérico CNC, el lenguaje de programación utilizado es el lenguaje G, el cual se puede observar en la figura Figura 8. ! ! Figura 8. Código G EdgeCam para el corte CNC para el estator ! F.+ Maquinados+y+ensamblados+ ! A continuación se presentan una serie de fotografías de los trabajos realizados con las máquinas de control numérico, los ensambles de las piezas y los bobinados del estator y del rotor. En las figura 9 se observa el corte del estator con la fresadora de control numérico, la base con la materia prima se coloca en un tornillo de banco sujeto a la mesa de la fresadora. A medida que van saliendo las piezas cortadas se realiza la separación lámina por lámina para obtener las chapas que se pueden observar en la figura Figura 10. !

! Figura 7. Simulación del corte CNC EdgeCam para el rotor (Fuente EdgeCam) !

Derechos reservados COPIMERA 2015

!

285

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

!

! Figura 11. Corte de las láminas de aislamiento de conductores de estator +

+ Figura 9. Fresadora CNC cortando el estator ! !

! Figura 12. Entelado y Cocido del bobinado de estator! !

! Figura 10. Chapas del estator en proceso de lijado

!

En la figura Figura 11 se ve el armado del núcleo del estator, el atornillado de sujeción y el esmaltado del núcleo. En la figura Figura 12 se ve el bobinado del estator y la protección mediante telas especiales para su protección. En las figuras 13 a 16 se observan los mismos pasos hasta obtener el armado del rotor, y en las figuras 15 y 16 se observa el generador completamente armado.

! Figura 13. Chapas del rotor Derechos reservados COPIMERA 2015

286

!


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

El programa Maxwell permite analizar el desempeño del generador, dando como resultado de la simulación las curvas de torque, potencia, eficiencia entre otros, todos referidos con respecto a la velocidad de rotación en rpm.

! Figura 14. Devanado de la bobina de rotor

Figura 17. Curva de Torque (Nm) vs ángulo de rotación (grados) En la Figura 17. Curva de Torque (Nm) vs ángulo de rotación (grados), se puede observar un torque de arranque de cerca de 0.2 Nm, y luego va decayendo hasta 0.038 Nm a la velocidad nominal de 11800 rpm.

! Figura!15.!Instalación!de!rotor!! !

Figura 18. Curva de Potencia (vatios W) vs ángulo de rotación (grados)

Figura!16.!Generador!eléctrico!terminado! 1)+ Gráficas+de+desempeño+del+Generador+ Derechos reservados COPIMERA 2015

!

287

En la Figura 18. Curva de Potencia (vatios W) vs ángulo de rotación (grados) se observa una potencia de cerca de 50 Watts, sin embargo la potencia máxima puede llegar a los 65 W cuando corre a 8500 rpm.


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

En la Fig. 1 Curva de Eficiencia (%) vs ángulo de rotación (grados) se observa una eficiencia máxima del 55.65 % a régimen nominal de 11800 rpm.

Fig. 1 Curva de Eficiencia (%) vs ángulo de rotación (grados) En la Figura 19. Curva de Amperaje (A) vs ángulo de rotación (grados) se puede observar una corriente de arranque de 26 Amperios aproximadamente, si bien dicha corriente permite tener un gran torque de arranque, una duración muy larga en el arranque puede llegar a quemar los conductores de cobre o deteriorar el aislamiento.

Figura 19. Curva de Amperaje (A) vs ángulo de rotación (grados) !

Derechos reservados COPIMERA 2015

288


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ 3.+ !

simulación muy poderosa, es una aplicación utilizada por las grandes empresas de fabricación de máquinas eléctricas y actualmente se disponen en nuestra Institución la versión Research Academic, lo que permite por Licenciamiento presentarlo en investigaciones en medios de publicación científica. Se recomienda continuar con investigaciones en el campo del electromagnetismo donde hay muchos campos donde buscar una especialización o un diseño de una máquina eléctrica innovadora.

CONCLUSIONES+

A.+ El presente proyecto de investigación ha tenido como

uno de los objetivos principales el investigar sobre el diseño de generadores eléctricos. Dentro de los estudios realizados, se ha logrado el diseño de un generador eléctrico hecho a medida, de acuerdo a las características deseadas para una turbina eólica.

B.+

Dentro de la información que se recopiló para el diseño, se aprendieron las competencias necesarias para lograr el manejo de la teoría electromagnética, se investigaron los diferentes tipos de máquinas eléctricas y su teoría de funcionamiento. Los integrantes del proyecto fueron capacitados en un curso de electromagnetismo y se recibió apoyo para el aprendizaje de una herramienta de software, el Ansys Maxwell que es utilizado por la industria para el diseño de máquinas. También se ha logrado introducir en el diseño las nuevas tecnologías de ingeniería como es el análisis de elementos finitos FEA en electromagnetismo [Ref 3].

C.+ En la actualidad las máquinas eléctricas tienen una gran dependencia del acero al silicio, es decir los núcleos, los estatores y rotores son muy pesados por la densidad del material del que están hechas las chapas magnéticas, así como del cobre y otros materiales, esto es una gran desventaja para el futuro de los autos eléctricos y vehículos menores que podrían usar baterías. Se recomiendan futuras investigaciones sobre el tema de optimización de motores eléctricos, tanto en su aspecto de dimensionamiento cómo de la eficiencia en el control. 5.+ +

C.+ Se ha comprobado que la simulación coincide

[1] Anaya,O., Jenkins,N., Ekenawake, J., Cartwrght,P., Hughes, M., 2009, “Wind Energy Generation, Modelling and Control”, Wiley

plenamente con los ensayos realizados con el generador real.

D.+ Se ha logrado la fabricación de un modelo de

[2] ANSYS, 2014, “RMXpert Online Help”, Ansys Electromagnetics, at http://www.ansys.com

generador eléctrico, del tipo de corriente continua sin imanes permanentes. La construcción se realizó gracias al estudio de los materiales, el uso de las herramientas computarizadas de los laboratorios CIM de nuestra Universidad y a la ayuda de varias aplicaciones de software de dibujo y post procesamiento CNC. Para la fabricación del generador se ha investigado sobre los procesos de manufactura, de modo que se han recorrido los mismos pasos que se dan al construir una máquina eléctrica de mayor escala.

+ 4.+ !

[3] Nakasone, Y. Yoshimoto, S., Stolarski, T., 2006, “Engineering analysis with Ansys software”, Elsevier [4] Manfred Stieber, 2008, “Wind Energy Systems for Power Generation”, Springer [5] P. Krause, O. Wasynczuk, S. Sudhoff, 2002, “Analysis of Electrical Machinery”, IEEE PES, Wiley Interscience !

RECOMENDACIONES+

A.+ Se recomienda la investigación de otros modelos de generadores eléctricos, aprovechando los conocimientos adquiridos y las herramientas de diseño que se disponen actualmente. Con nuevas investigaciones sobre la fabricación de máquinas eléctricas se puede lograr mejorar la eficiencia del sistema de generación, así como se podrían diseñar motores hechos a medida para distintas aplicaciones.

B.+ El paquete de software de elementos finitos que se utilizó en el proyecto es una herramienta de Derechos reservados COPIMERA 2015

REFERENCIA+

289


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ +

+

+ Eficiencia+del+carbón+activado+obtenido+experimentalmente+a+partir+de+residuos+agrícolas+ del+Alto+Mayo+ Yrwin Francisco Azabache Liza1, Yeltsin Terrones Vásquez1 1

Moyobamba, Perú.

!

!

Resumen+

ríos, arroyos, a tierras no cultivadas o las queman. La contaminación por las cáscaras de café es tan considerable como la producida por las de coco y cacao, aunque no se puede ver mucho este impacto, porque la producción de café generalmente se concentra en el campo agrícola o en fincas. El carbón activado es un adsorbente preparado a partir de materiales carbonosos que se caracteriza por poseer una alta superficie interna y una buena distribución de poros, propiedades que le permiten atrapar una gran diversidad de moléculas. (Bardález A. 2005).

Este trabajo tiene como finalidad determinar la eficiencia del carbón activado obtenido experimentalmente a partir de residuos agrícolas del Alto Mayo. La población del presente trabajo de investigación viene a ser todos los residuos agrícolas conformado por cascaras de coco, café y cacao. La muestra fue 1kg de cáscara de coco extraída de la provincia de Rioja, 1kg de cascara de café extraída del distrito de Yantaló y 1kg de cáscara de cacao extraída del distrito de Jepelacio.

La activación química de residuos lignocelulósicos con ácido fosfórico produce carbones con una estructura porosa bien desarrollada cuyas características dependen fundamentalmente de la relación de impregnación. Las relaciones de impregnación bajas producen carbones con una estructura predominantemente micro poroso, mientras que relaciones de impregnación altas producen carbones con una porosidad ancha y una importante contribución de micro poros anchos y meso poros (García, 2008).

Para ello se realizó un análisis de las características físicoquímicas de muestras de coco, cacao y cáscaras de café (porcentaje de humedad, carbono fijo, cenizas totales, porosidad y materia volátil), y se evaluó la temperatura de carbonización-activación (con rangos de 550°C, 600°C, 650°C, 700°C, 750°C) en un tiempo de 1 min, 1:30 min, 2 min, 2:30 min, 3 min; haciéndose variar los gramos de carbón activado a pesos de 0.5 gr, 0.75 gr, 1.0 gr, 1.25 gr, 1.5 gr. El cual indica que a una temperatura de 650°C, la cascara de café posee 96.32% de adsorción en la solución de azul de metileno en comparación a los residuos de coco y cacao, en consecuencia la cascara de café tiene mayor eficiencia en la adsorción en la remoción del azul de metileno.

En Cuba existen condiciones para la producción de carbón activado a nivel industrial. De acuerdo con ello, la producción de este material, es de altos precios y demanda creciente en el ámbito mundial, deberá estar enfocada, como estrategia fundamental, hacia el sector del mercado, tanto nacional como internacional, vinculado con la protección del medio ambiente (Fernández y Castillo, 2006).

Palabras Clave: Eficiencia de carbón, carbón activado, azul de metileno.

En México se está proponiendo un nuevo tipo de agroindustria que utilice a una materia prima nacional (cascara de coco) considerada basura, transformándola en una industria sustentable de un material con mayor valor agregado (carbón activado), que genere ingresos económicos a las personas que viven del coco, nuevos empleos y que ayude a reducir la importación de este producto. (Luna, González, Gordon y Martín, 2007).

Introducción+ En el Alto Mayo existen cultivos de coco, café, cacao, entre otros. Esto trae como consecuencia que la generación de residuos agrícolas sea abundante y como consecuencia se genera un impacto ambiental, además de ser el hábitat apropiado para la proliferación de vectores de diferentes plagas o enfermedades.

Se sintetizaron carbones activados por activación química de cáscara de castaña obteniéndose materiales con micro y meso porosidad y con áreas superficiales entre 1176-1434 m2/g y al incrementar la razón de impregnación y la temperatura de

En los cultivos de café, mediante un proceso mecánico se separa la cascara de la pepa interior. Las cáscaras obtenidas no tienen casi ninguna aplicación y por eso las arrojan, a los Derechos reservados COPIMERA 2015

290


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

activación en los carbones preparados, aumentó su grado de porosidad. (Paredes 2011). Los tratamientos que mejor decoloran para las variedades de coco enano y gigante es utilizando ácido fosfórico a 50 ppm, sobresaliendo en un 0.6% más eficiente respecto al otro agente activante (ácido sulfúrico), a la misma concentración. (Bárdales 2005). Este trabajo de investigación tiene como finalidad determinar la eficiencia del carbón activado obtenido experimentalmente a partir de residuos agrícolas del Alto Mayo.

%H = porcentaje de Humedad. El poder adsorbente del carbón activado puede ser evaluado por su capacidad de decolorar sustancias que contienen colorantes o tintes, de esta manera se tiene una idea de la cantidad de centros activos que éste posee. Haciendo uso del espectrofotómetro se realiza la lectura de cuanto ha adsorbido el carbón activado frente a la solución de azul de metileno. Mediante este método se determina que porcentaje de la solución ha sido adsorbida por el carbón activado. La solución de azul de metileno utilizada fue de 1 ppm, en la cual fue estable el volumen de la solución que fue 20 ml.

Materiales+Y+Métodos++

Resultados+

El área de estudio abarca las provincias de Rioja y Moyobamba, ambas provincias se localizan en el departamento de San Martin, ubicando detalladamente se intervino en la ciudad de Rioja, el distrito de Yantaló y el distrito de Jepelacio ambos pertenecientes a la provincia de Moyobamba. La población del presente trabajo de investigación viene a ser todos los residuos agrícolas conformado por cascaras de coco, café. La muestra fue 1kg de cascara de coco extraída de la provincia de Rioja, 1kg de cascara de café extraída del distrito de Yantaló y 1kg de cascara de cacao extraída del distrito de Jepelacio. 1.+

Tabla 1. Porcentaje medio de adsorción de la solución de azul de metileno con carbón activado de cascara de coco.

Determinación de la humedad. *+ − *%"#$%&'(' = ."/00 *+

Donde: Pi = Peso inicial P2 = Peso inicial Pf = Peso final P1 = Peso final

Porcentaje medio de adsorción

550°C

39.92

600°C

53.84

650°C

60.36

700°C

85.34

750°C

80.42

Fuente: Datos obtenidos por el investigador

100 %"ADSORCIONN"DE"LA" SOLUCION"DE"AZUL"DE" METILENO

2.+ Determinación de las cenizas totales. *4 %"1&2+3( = ."/0 */ 3.+ Determinación de carbono fijo *4 %"1(56727"-+87 = ."/00 */ 4.+ Determinación de la porosidad

80 60 40 20 0

550°C 600°C 650°C 700°C 750°C

%( 39.92 53.84 60.36 85.34 80.42 ADSORCIÓN

A)+ Procedimiento: La porosidad de la materia prima, se calculó de la siguiente manera:

Gráfico 1. Adsorción de la solución de azul de metileno con carbón activado de cascara de coco con variación de la temperatura.Fuente: Tabla 1

1.+ Se colocó el material en una probeta, se midió su volumen. 2.+ Luego se colocó agua hasta el tope del material. 3.+ Se mide el volumen agregado y se divide entre el volumen ocupado por el material. 4.+ Se hicieron 5 repeticiones para cada muestra (cascaras de coco, café y cacao), posteriormente se promedió.

En este gráfico, se puede apreciar que la capacidad de adsorción del azul de metileno con carbón activado obtenido de la cascara de coco, se incrementa a medida que se aumenta la temperatura. Mostrándose que a 550°C se obtuvo un porcentaje de adsorción de 39.92, a 6000C ésta se incrementa en un porcentaje de 53.84, a 6500C se incrementa en un porcentaje de 60.36. Además se observa que la máxima eficiencia en adsorción de la solución de azul de metileno, que se produce con el carbón activado es a una temperatura de 700°C con un porcentaje de adsorción de 85.34 y

5.+ Determinacion de la materia volátil %"9: = /00 − %"1 − %1&2+3( − %"# Dónde: %Mv = porcentaje de materia volátil. %C = porcentaje de carbono fijo. %Ceniza = porcentaje de Ceniza. Derechos reservados COPIMERA 2015

Temperatura

291


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

posteriormente a 750°C disminuye la adsorción en un porcentaje de 80.42.

750°C

Porcentaje medio de adsorción

550°C

69.62

600°C

78.74

650°C

89.86

700°C

88.66

750°C

63.62

%"ADSORCIONN"DE"LA" SOLUCION"DE"AZUL"DE" METILENO

Tabla 2. Porcentaje medio de adsorción de la solución de azul de metileno con carbón activado de cascara de café Temperatura

Fuente: Datos obtenidos por el investigador

%"ADSORCIONN"DE"LA" SOLUCION"DE"AZUL"DE" METILENO

84.72

Fuente: Datos obtenidos por el investigador

120 100 80 60 40 20 0

55 0° C

60 0° C

65 0° C

70 0° C

75 0° C

%( 55.28 81.78 96.32 91.62 84.72 ADSORCIÓN

100 Gráfico 3: Adsorción de la solución de azul de metileno con carbón activado de cacao con variación de la temperatura. Fuente: Tabla 3

80 60 40 20 0

55 0° C

60 0° C

65 0° C

70 0° C

Interpretación: En este grafico se observa, que el carbón activado obtenido de la cascara de cacao, inicialmente a una temperatura 550°C tuvo un porcentaje de adsorción de 55.28. Posteriormente a medida que se incrementa la temperatura de carbonizaciónactivación se va incrementando los porcentajes de adsorción, llegando a la temperatura más alta de 650°C con un porcentaje de adsorción del 96,32. Luego al incrementar la temperatura, se observa q disminuye la adsorción, tal es el caso 700°C con un porcentaje de 91,62 de adsorción y a 750°C con un porcentaje de 84.72 de adsorción.

75 0° C

%( 69.62 78.74 89.86 88.66 63.62 ADSORCIÓN Gráfico 2: Adsorción de la solución de azul de metileno con carbón activado de café con variación de la temperatura. Fuente: Tabla 2

Interpretación: En el grafico se puede observar, que el carbón activado obtenido de la cáscara de café, inicialmente a una temperatura de 550°C es el 69.62 porcentaje de adsorción, a 600°C se obtuvo el 78.74 porcentaje de adsorción, mostrándose que la temperatura óptima alcanzada es 650°C con un porcentaje de adsorción máxima de 89.86. Así como también se observa que a partir de 7000C el porcentaje de adsorción va disminuyendo a 88,66 y a 750°C el porcentaje es de 63,62. Tabla 3 Porcentaje medio de adsorción de la solución de metileno con carbón activado de cascara de cacao.

El carbón activado es un término general que se aplica a toda una serie de productos derivados de materiales carbonosos; es un material amorfo que presenta un área superficial excepcionalmente alta y se caracteriza por tener una proporción de micro poros (poros menores que 2 nanómetros). Estas características le confieren propiedades adsorbentes excepcionales que pueden ser aprovechadas en diferentes áreas. La preparación de carbón activado se realiza a partir de materia orgánica en su mayoría de origen vegetal, por carbonización o por acción de sustancias químicas (agentes químicos). (Rodríguez, F. 2005).

azul de

Temperatura

Porcentaje medio de adsorción

550°C

55.28

600°C

81.78

650°C

96.32

700°C

91.62

Derechos reservados COPIMERA 2015

Discusión+

En el Alto Mayo se practican los cultivos de coco, café, cacao, la cual se consideran como fuentes de ingreso. Durante el proceso de cosecha se genera una gran cantidad de residuos agrícolas que son arrojados y no son aprovechados por los agricultores, esto como consecuencia genera impactos ambientales como la lixiviación, problemas estéticos del medio, además la acumulación de estos se considera como un medio apropiado para la proliferación de distintos vectores de

292


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

enfermedades, por lo que implicaría serios problemas sanitarios. ( Bardález A. 2005). En la presente investigación se centró en una variable que es la temperatura. Esta variable es muy importante ya que influye sobre la naturaleza en la formación del centro activo del carbón y en la formación de los poros del carbón activado (macro poros, meso poros y micro poros). A partir de este análisis, se identificó cual es la temperatura optima (eficiencia) en donde se produce una mayor adsorción de la solución de azul de metileno.

3.! Bastidas Marlon, Buelvas Lina M., Márquez María I. y Rodríguez Kellys. (2009). “Producción de carbón activado a partir de precursores carbonosos del departamento del cesar, Colombia”. Colombia. 4.! C.L. Mantell. (2009). “ADSORTION”, Primera Edición, segunda Reimpresión, Editorial Mc.Graw-Hill Book Company, INC. 5.! Fernández Rodríguez Aramís, Castillo Eguis Casto Rafael. (2006). “Aspectos industriales de la producción de carbón activado y sus aplicaciones en la mitigación ambiental”. La Habana-Cuba, 6.! García Matamoros Jorge Bedia. (2008). “Catalizadores carbonosos obtenidos mediante activación química de residuos lignocelulósicos”. Málaga. 7.! Giraldo, L.; García, V., Moreno, J. C. (2008). “Caracterización superficial en fase gasy líquida de carbones activados”. Revista de ingeniería. Bogotá, Colombia. 8.! Ioannidou, O. y A. Zabaniotou. (2007). “Agricultural residues as precursors for activated carbon production”. Greece. 9.! Leyva, R. (2007). “Importancia y aplicaciones de la adsorción en fase líquida, en sólidos porosos preparación, caracterización y aplicaciones”. Pag. 155207. Bogotá, Colombia. 10.! Luna Donaciano, González Armando, Gordon Manuel y Martín Nancy. (2007). “Obtención de carbón activado a partir de la cascara de coco”. México. 11.! Paredes Doig Ana Lucia. (2011). “Estudio de la adsorción de compuestos aromáticos mediante carbón activado preparado a partir de la cascara de castaña”. Lima-Perú. 12.! Rodríguez, F. (2005). “Carbón Activado: Estructura, Preparación y Aplicaciones”, Revista Uniandes, pág. 66– 6. Granada.

Al realizar el análisis de la eficiencia del carbón activado (porcentaje de adsorción de la solución de azul de metileno), se ha demostrado que el carbón activado de la cascara de coco, café y cacao, tienen diferente porcentaje de adsorción, debido a la cantidad y distribución de poros que presenta cada uno de ellos, por lo que se ha observado que a mayor distribución de poros del carbón activado entonces va haber mayor porcentaje de adsorción.

Conclusiones+ Durante el proceso de adsorción, se determinó que la eficiencia del carbón activado de la cascara de coco es a una temperatura de 700°C (85.34%), tiempo de contacto del carbón activado con la solución de azul de metileno de 1:30 min (85%) y agregando 0.5 gr (85.6%). La eficiencia del carbón activado de la cascara de café es a una temperatura de 650°C (89.86%), tiempo de contacto del carbón activado con la solución de azul de metileno de 2 min (76.9%) y agregando 1 gr (85.6%). La eficiencia del carbón activado de la cascara de café es a una temperatura de 650°C (96.32%), tiempo de contacto del carbón activado con la solución de azul de metileno de 1 min (88.1%) y agregando 0.5 gr (89.4%). De acuerdo al análisis estadístico realizado, se concluye que la temperatura óptima que debe ser sometido la cáscara de coco para la obtención del carbón activado es de 7000C, la cascara de café a 650°C y finalmente la cascara de cacao a 650°C. Se concluye que entre los tres residuos agrícolas, el carbón activado obtenido de la cascara de café presenta mayor adsorción en la remoción del azul de metileno, con una eficiencia de 96.32%.

Agradecimiento:++ Al Colegio de Ingenieros del Perú; Consejo Nacional, dirigido por el Ing Carlos Herrera Descalzi. A la Universidad Nacional de San Martin/ Tarapoto.

Bibliografía:! 1.! Ahmad, A.L.; Loh, M.M. and Aziz, J.A. (2010). “Preparation and characterization of activated carbon from oil palm wood ant its evaluation on methylene blue adsorption”. 2.! Bardález Viena A. (2005). “Obtención química de carbón activado a partir del endocarpo de coco (Cocos nucifera) en la región SAN MARTÍN”. Tarapoto- Perú. Derechos reservados COPIMERA 2015

293


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! !

Telecomunicaciones Articulos: 1.! Análisis socio-técnico de grandes sistema tecnológicos: el caso de la TV en Colombia. 2.! Sistemas de telecomunicación con antenas múltiples con información imperfecta del canal. ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

294


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !

Derechos reservados COPIMERA 2015

!

295


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ ANÁLISIS+SOCIO#TÉCNICO+DE+GRANDES+SISTEMA+TECNOLÓGICOS:++ EL+CASO+DE+LA+TV+EN+COLOMBIA+ 1

Juan Arturo Carmago U1, Antonio Garcia Rozo2, Juna Manuel González.3

UniMinuto, Bogotá, Colombia, 2ACIEM, Bogotá Colombia, 3Uniandes Bogotá Colombia,

RESUMEN+ En el artículo de presenta de una manera resumida un ejemplo de análisis socio-técnico de grandes proyectos tecnológicos, buscando resaltar el papel de la tecnología, de la ingeniería, en la conformación de la sociedad, y la forma como en este proceso se conforma de la identidad local de la ingeniería.

con base en grandes hitos, algunos de orden tecnológico, otros de naturaleza institucional, los cuales han sido determinantes en la configuración de la arquitectura del sistema y su evolución. ! MARCO+CONCEPTUAL+ La revisión de las trayectorias de la TV en América latina son un buen ejemplo de lo que podríamos llamar estilo tecnológico, o sea la forma como las tecnologías se adaptan al entorno modificándolo o siendo modificadas por el, como se puede ver al recorrer la historia de esta tecnología en el continente [2].

INTRODUCCIÓN+ Un aspecto fundamental de la labor del ingeniero en la actualidad es poder enfrentar los problemas de diseño, teniendo en cuenta el contexto social, económico y político dentro del cual se ubican las soluciones propuestas. A nivel educativo está claramente planteado que uno de los objetivos de la formación de los ingenieros es:. …diseñar un sistema, componente o proceso para satisfacer las necesidades deseadas dentro de restricciones realistas tales como restricciones económicas, ambientales, sociales, políticas, éticas, de salud y seguridad, de fabricación, y de sostenibilidad”1

Un sistema socio-técnico complejo como lo es la televisión está compuesto por muchos elementos de diversa naturaleza. Muchas veces es difícil tener una visión de conjunto de un sistema así por cuanto se aborda, desde la academia y desde la política pública, de manera compartimentalizada. Esto hace que sea difícil comprender el funcionamiento del sistema, las interrelaciones entre sus componentes, y las fuentes de cambio del sistema en distintos momentos. Tal y como lo planteó Hughes (1989) con respecto a los sistemas de generación y distribución de energía eléctrica en tres grandes ciudades a finales del siglo XIX, pueden desarrollarse sistemas con diferentes estilos alrededor de una misma tecnología, en cuya conformación influye el entorno social en el que se desarrollan. Con esto en mente, el objetivo de este trabajo ha sido realizar el análisis socio-técnico del sistema de televisión en Colombia para poder dilucidar el estilo tecnológico del mismo y analizar la trayectoria desde su aparición en 1954.

Esto nos ha llevado a iniciar una serie de estudios, para que desde la ingeniería podamos entender su interacción con la sociedad de una forma clara y sistemática, generándose un nuevo campo de reflexión al interior de las Facultades y gremios de nuestra profesión. Estas reflexiones adquieren aun mas importancia cuando nos enfrentamos al reto planteado como lema de este congreso: INGENIERÍA E INNOVACIÓN ANTE LOS DESAFÍOS DE LA COMPETITIVIDAD. El trabajo presentado tiene como propósito analizar la trayectoria de la televisión, vista como un sistema socio-técnico en particular, con el fin de dilucidar e interpretar el estilo tecnológico particular que adquirió este sistema en Colombia y su evolución hasta hoy, con el fin de contribuir a el entendimiento de las interacciones entre la Tecnología y la Sociedad. La trayectoria y los cambios del sistema se mirarán 1

La televisión ha sido abordada desde muchos ángulos, disciplinas y áreas profesionales2, y ha sido definida de muchas maneras diferentes: ha sido concebida como tecnología, industria, sector económico, medio de comunicación, servicio público, forma cultural, forma de producción estética, entre

Criterios ABET 2000

Derechos reservados COPIMERA 2015

2

296


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

otras acepciones. Todo esto dificulta su análisis y en especial ver la interacción entre la tecnología y la sociedad.

Para entender la esfera tecnológica, tomamos un esquema de base en el que se incluyeron los principales bloque tecnológicos que a largo del desarrollo de este sistema han ido siendo objeto de los principales cambios tecnológicos e institucionales, presentado en la Grafica Nº 2.

Aquí abordamos la televisión como un sistema socio técnico, entendido como la conjunción de artefactos, organizaciones, políticas públicas, conocimientos, legislación, contenidos y usuarios. Nos interesa identificar las configuraciones de dicho sistema en diferentes momentos del tiempo desde su introducción al país en 1954 y así poder mirar su evolución y trayectoria. Para abordar este análisis, diseñamos un marco analítico que nos permitiera visualizar el sistema en conjunto articulando los diferentes elementos que lo componen, el cual de una manera implicada presentamos en la Grafica Nº1. El énfasis en este trabajo, y como un paso inicial para dilucidar el estilo tecnológico, ha sido las interrelaciones entre los componentes tecnológicos e institucionales del sistema y recurrimos a el enfoque del impulso tecnológico, para evitar los extremos de los enfoques de los determinismos social o tecnológicos[3].

SISTEMA'DE'TELEVISIÓN

Grafica Nº 2 Esquema de base de la estructura tecnológica del sistema de TV

Esfera'Institucional'(arreglos)

+

institucionales)

Financiación

Programación Control'y' vigilancia

Esfera'Tecnológica'(medio) Producción

Emisión

Transporte

CUERPO+DEL+DOCUMENTO+

Planeación

Distribución

Recepción

Las decisiones tecnológicas sobre televisión han estado en todo momento interrelacionadas con decisiones organizacionales e institucionales. Los esfuerzos por orientar, organizar y gobernar la televisión han llevado al establecimiento de reglas de juego y a la creación de normas, organizaciones, instrumentos y procedimientos. Ha habido una marcha entrelazada entre transformaciones tecnológicas y cambios institucionales, en algunas ocasiones las primeras jalonando las segundas, en otras ocasiones los desarrollos institucionales determinando las configuraciones tecnológicas. Con el paso de los años el sistema de televisión se ha conformado en un complejo entramado que sigue evolucionando al incorporar desarrollos tecnológicos nuevos en el mundo y adaptarlos al medio local, y desarrollar marcos institucionales que permiten el funcionamiento del sistema, y que dan lugar a hablar de la Televisión Colombiana.

(receptores)

Regulación

Audiencia

Provisión

Operación'y' mantenimiento

Esfera'Comunicacional'(textos) Información

Educación

Cultura

Entretenimiento

Publicidad

Grafica Nº 1 Componentes del sistema de televisión: visión simplificada

En este marco entendemos la televisión como un sistema complejo que involucra al menos cuatro grandes esferas que están interrelacionados entre sí: •! Esfera comunicacional, que se refiere a los textos, contenidos o tipos de mensajes. •! Esfera o estructura tecnológica, que se refiere a los distintos tipos de artefactos requeridos para la producción, emisión, transporte, distribución y recepción de esos contenidos. •! Esfera institucional, que se refiere a las reglas de juego, organizaciones, normas y procedimientos que organizan, ordenan, direccionan, orientan, regulan y permiten que el sistema opere. •! La audiencia, que se refiere a quienes reciben los distintos contenidos o mensajes. Derechos reservados COPIMERA 2015

La adopción de los adelantos tecnológicos siempre ha estado inmersa en los debates que a nivel mundial se dan por el dominio de los mercados por parte de los grandes jugadores, los cuales, habiendo participado en los desarrollos y contando con industrias de gran poderío, establecen estándares alrededor de los cuales giran las decisiones de las demás naciones: japoneses, norteamericanos, franceses y alemanes han estado presentes en los diferentes momentos tratando que Colombia adopte sus especificaciones. Esta estandarización impone a las decisiones, ya de por si tecnológicamente complejas, unas 297


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

condiciones de orden geopolítico y económico, algo que nos recuerda que las decisiones técnicas involucran una multiplicidad de factores heterogéneos.

dificultades de la transmisión “en vivo”, y en asocio con las compañías de publicidad permitieron mantener el sistema al aire. Con esta estructura sistema televisivo colombiano adquirió entonces un carácter mixto, esto es una infraestructura tecnológica estatal, utilizada por empresas productoras del sector privado, esquema que permaneció vigente hasta la apertura de la red cuarenta años más adelante.

PRIMERA ETAPA En un primer momento, en 1953, y como producto de una decisión política se implanto la televisión, como una de las obras de infraestructura para el desarrollo del país, definidas por el gobierno de facto del General Gustavo Rojas Pinilla.. Con un solo canal en Blanco y Negro, instalado, operado y manejado por el estado desde su oficina de información y prensa, ODIPE, se inicio el sistema, debiéndose importar para una distribución direccionada, unos pocos receptores de TV, para crear la audiencia y poder transmitir la ceremonia de celebración del primer aniversario de la toma del mando por parte del General Rojas Pinilla.

Desde el punto de vista de su manejo institucional, después de la caída del régimen del General Rojas, en 1957, se creo una institución descentralizada, adscrita al ministerio de Comunicaciones, el Instituto de Radio y Televisión, INRAVISION, buscando su autonomía técnica y financiera, y una independencia ideológica, aunque su director era nombrado por el Presidente de la Republica.

Su arquitectura de transmisión y distribución en Banda Base, que había sido concebida en 1951, implementada de forma expedita por la necesidad de tener en el menor tiempo posible un sistema de difusión para el estado, fue un gran acierto para las condiciones geográficas del país y le permitió un rápido crecimiento de su cubrimiento. Sin embargo el país debió formar prácticamente de la nada el capital humano (técnicos e ingenieros, productores y actores) necesario para soportar la introducción de la televisión, convirtiéndose esta labor en otro de los retos que se debió sortear; se debió recurrir a importar conocimiento y personal de otros países de América Latina, como Cuba o Argentina, que ya tenían experiencia en campos como la producción y la transmisión para crear en el país escuela de una manera poco formal. Grafica Nº 4 Sistema Mixto

LA PRODUCCION EN VIDEO Un nuevo hito tecnológico que cambio la estructura del sistema fue la incorporación de la tecnología de grabación en cinta magnética de las señales de televisión. Aunque esta tecnología estaba en el mercado desde comienzos de la década de los cincuenta, solo hasta 1964 comenzó a ser utilizado en la televisora colombiana, inicialmente para reproducir material procedente del extranjero y más adelante para la producción local de contenidos. Esta tecnología cambio drásticamente el entorno, especialmente para los productores, podían lograr una mejor calidad de sus producciones al hacerla “fuera del aire”, pudiendo editarla, pero también los ponía a competir con los programas producidos en otros países, alterándose también el componente de provisión de contenidos en la esfera institucional.

Grafica Nº 3 Sistema Inicial

El nuevo sistema rápidamente genero un nuevo entorno, en el que si bien el estado manejaba la totalidad del aparato tecnológico, necesitaba de material para emitir, lo cual dio origen a empresas productoras, que sorteando todas las Derechos reservados COPIMERA 2015

298


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Con esta nueva estructura, en 1965, se había obtenido un cubrimiento del ochenta por ciento de las zonas más pobladas del país y la totalidad de las ciudades principales, contando con 15 estaciones repetidoras. En estas condiciones el gobierno lanzo de un segundo canal, inicialmente con cubrimiento en la capital y las regiones aledañas,3 incrementado la estructura tecnológica del sistema.

dio un gran cambio en el componente de producción, estimulando una industria local, al reducir los costos de operación de la producción de contenidos, y al permitir reutilizar y comercializar contenidos audiovisuales producidos en otros países y exportar algunas producciones a países de la región. Desde el punto de vista de la audiencia la evolución de numero de televisores, fue muy lenta. A finales de los cincuenta el numera era cercano a 1 aparato de TV por cada mil habitantes, recordando que en su fase inicial estos equipos fueron importados por el gobierno; a mediados de los años sesenta se inicio la fabricación en Colombia, llegando a comienzos de los setenta a 33 aparatos de TV5 por cada 100 habitantes.

Con este nuevo canal se dio un importante cambio estacional al permitir que toda su programación fuera realizada por una empresa privada. La estrategia de negocio de Teletigre, como fue bautizado el nuevo canal, consistió en la importación de series norteamericanas enlatadas (noción utilizada para denominar la compra y transmisión en el país de series extranjeras), limitando la producción local a los programas de noticias. El control y la vigilancia de este nuevo actor, requirió también de cambios institucionales al interior de INRAVICION. Este “experimento” duro hasta 1971, año en el que ya tenia un cubrimiento nacional, finalizándose la concesión, retornado el segundo canal a manos del estado, dentro el modelo mixto ya descrito.

EL CAMBIO A COLOR Un tercer hito en el desarrollo de la estructura tecnológica de la TV en Colombia se produce de una manera un tanto tardía con el paso a la televisión a color, en 1979. En el mundo esta transición ya se había dado de tiempo atrás, y en la audiencia colombiana se comenzó asentir su necesidad al ver que diferentes acontecimientos mundiales que ya eran transmitidos a color; el país había entrado en era de las comunicaciones vía satélite en 1971, sistema a través del cual llegaba una amplia programación internacional a color. En este sentido el sector privado de gran influencia en el componente de producción, en 1974 en una unión empresarial entre los principales competidores del sector, creo un estudio de producción a color. Esta nueva empresa, GRAVI, si bien se realizaban programas para transmitir en el viejo sistema de B/W localmente, ya estaba pensado que su producción podía ser envía al exterior a color, y estaba preparada para el cambio, que era inminente. El proceso de cambio duro casi cinco años, e implicaba un gran cambio en los diferentes equipo de la estructura, los cuales al continuar con el modelo de tipo mixto, debía ser asumido por el estado. Adicionalmente se debía seleccionar un estándar, entrando en competencia las normas NTSC norteamericana, PAL alemana, SCAM francesa, entre otras, lo que llevaba el tema del cambio a un plano político. Para este proceso de selección se creo un comité de alto nivel, que determino que técnicamente el estándar mas avanzado era el PAL, pero que las consideraciones comerciales y geopolíticas, aunadas a un criterio pragmático que atendía la existencia de miles de

Grafica Nº 5 La introducción del video

Adicionalmente las habilidades técnicas y artísticas relacionadas con esta nueva forma de producción mediante la grabación y edición de los programas televisivos fueron siendo introducidas gradualmente a lo largo de esa década,4 lo cual 3

El cubrimiento se relaciona con la presencia de señal radiodifundida de televisión en una determinada región, este parámetro no debe confundirse con la penetración, indicador más ácido que mide la relación entre receptores y el número total de hogares en un país. La penetración estaba muy por debajo del 30% en Colombia en el periodo que estamos describiendo.

colombiana”, realizado en el marco de este proyecto, el ingeniero Helmer Granja señalaba la importancia de los medios de reproducción y edición del material audiovisual para el desarrollo posterior de la TV en el país. 5 En este sentido, el Director del departamento de Economía de la Universidad del Valle destacaba que: “desde la implantación del sistema de TV en 1954, el consumo de aparatos receptores de televisión ha logrado difundirse de forma muy lenta y limitada dentro de la mayoría de hogares colombianos. Como referencia podemos mencionar que en 1973 tan solo 33 de cada 100 hogares había logrado incorporar este bien en su canasta de consumo”

4 En, “Foro sobre Televisión e Integración regional en Colombia. Perspectivas tecnológicas de la Televisión

Derechos reservados COPIMERA 2015

299


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

receptores de contrabando que operaban en el formato norteamericano, recomendaron la adopción de norma NTSC.

institucionales en torno a la regulación y al control y vigilancia del sistema. De otra parte, y con el fin de permitir el desarrollo de las regiones, permitiendo una descentralización del estado, se crean los canales regionales, con independencia institucional y tecnológica, incrementándose la complejidad del sistema. A esto dos hechos se suma la llegada la país de la tecnología de recepción de señales satelitales de televisión mediante antenas parabólicas, y ante la carencia de reglamentación, se expandió rápidamente, y creo una multitud de redes de distribución de estas señales por redes de cable coaxial. Estas nuevas redes aumentaron considerablemente las posibilidades de los televidente y los expusieron una programación mucho mas variada que la que se transmitía a nivel nacional. Ante la aparición de esta modalidad, el gobierno entro a reglamentar lo que llamo televisión por subscripción, en medio de las tensiones propias de la pérdida de autonomía de público frente a las iniciativas privadas. En el año 1991, se produjo un gran cambio institucional: se expidió una nueva Constitución Nacional, en la que para las telecomunicaciones se planteo un nuevo escenario en el que la competencia y la participación privada, marcaban la pauta; podría verse como una respuesta, a la identidad que venia adquiriendo el sistema.

Grafica Nº 6 Esquema con el cambio a color

El cambio tuvo un impacto directo en la producción local, especialmente la realizada por el estado o las productoras pequeñas, pues no solo su realización era mas compleja y costosa, sino que debía competir abiertamente con los enlatados que se obtenían del extranjero. La audiencia tuvo un incremento notable pues la novedad del cambio llevo cambiar de manos un buen numero de los receptores B/W, que dada la compatibilidad de la norma, pudieron seguir en operación por varios años. En medio de este proceso de cambio, se da otro cambio en la configuración del sistema con la introducción de un tercer cana, el canal 11, de cubrimiento nacional y dedicado a una programación educativa, en el que entraron a participar los Ministerios de Educación y de Comunicaciones DIVERSIFICACION TECNOLOGICA E INSTITUCIONAL La década de los ochenta, trajo varios cambios en la conformación del sistema tanto en ámbito institucional como en el tecnológico, que continuaron conformado la identidad del sistema. En el campo institucional, el gobierno decidió entregar el manejo de la televisión a la Consejo Nacional de Televisión, entidad publica, en la que se pertenencia tener representación de todos los actores sociales involucrados, dejando a INRAVISION el manejo de la operación y el mantenimiento de la estructura tecnológica; adicionalmente se crea el Consejo para la Vigilancia de la Televisión, modificando los arreglos

Derechos reservados COPIMERA 2015

Grafica Nº 7 La diversificación

300


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

La nueva Constitución ordeno la creación de la Comisión Nacional de Televisión,6 CNTV, entidad estatal encargada de orientar el proceso de liberalización, y de velar por el cumplimiento de las metas sociales del servicio, garantizando al mismo tiempo la equidad de condiciones para los operadores en competencia.

la producción, programación y operación de los canales públicos de TV y de la Radio Nacional. Como un paso necesario, para la televisión publica radio difundida en este nuevo entorno, la CNTV dio el paso hacia una televisión de alta definición, ya de naturaleza digital. En el 2008 se inicio el proceso de selección del estándar que se debería tener, recorriendo caminos similares a los recorridos cuando se dio el cambio a color, con una institucionalidad mas solida. Los actores internacionales que intervinieron fueron los Estados Unidos, defendiendo su norma ATSC un poco antigua, la Unión Europea, con la norma DBV, el Japón y el Brasil con la norma ISDB actualizada por los brasileros.

Una primera consecuencia de este nuevo entorno institucional fue la concesión de licencia de operación a dos canales privados, de propiedad de las dos cadenas de medios mas importantes del país: Caracol y RCN. De esta forma el sistema, quedo conformado, por múltiples operadores televisión por cable, un conjunto de canales regionales que antes la nuevas circunstancias perdían toda posibilidad de competencia, tres canales nacionales propiedad del estado y dos canales nacionales privados, ente los cuales no solo se debía destruir la audiencia sino las pautas publicitarias. DE LO ANALOGO A LO DIGITAL Un nuevo hito tecnológico entro a jugar partida en el ámbito de la televisión a comienzos del siglo XXI: la convergencia tecnológica de los servicios de telecomunicaciones, producto de la digitalización las redes y terminales de los diferentes medios: teléfonos, televisión y por supuesto las redes de datos. En este entorno, los sistemas de distribución por cable lograron una penetración muy grande (casi el 80%), dada esta convergencia comenzaron a ofrecer sistema de múltiples servicios, voz, datos y televisión, bajo un único cable. Desde el punto institucional, en 2004 el gobierno suprimió las empresas INRAVISIÓN y Audiovisuales (empresa estatal dedicada a la producción de contenidos creada en 1976)7 aduciendo problemas de índole financiera, técnica y operativa, y creó la empresa descentralizada RTVC (Departamento Nacional de Planeación e Inravisión, 2005) a quien encomendó

Grafica Nº 8 La era digital

La recomendación técnica emitida por el consejo ad-hoc, creado para este propósito, recomendó el uso de la normativa europea, por sus mejores prestaciones tanto en la calidad de la imagen como en interactividad y movilidad, parámetros básicos esta definición. Bajo este estándar se inicio la transformación de toda la red de canales públicos y privados a la TDT o televisión Digital Terrestre desde 2012, teniéndose que realizar una operación paralela de los sistemas análogos y digital hasta el 2019, fecha e la que se dará el “apago analógico”.

6 Las funciones de la CNTV a partir de la Nueva Ley de Televisión fueron las siguientes: “Encargada de vigilar, regular, controlar y promover el servicio” Pp.32. Mientras que, en la página Web de la CNTV dan cuenta de la formación así: “la Ley 182 de 1995, el objetivo general del Plan Estratégico es garantizar los derechos de televidentes y usuarios, promover audiencias críticas bajo esquemas participativos, dirigir la incorporación exitosa de la televisión colombiana en la era digital (TDT) y de la IpTV e impulsar un servicio público de televisión comprometido con el desarrollo del Estado Social de Derecho, la libertad, la paz, la equidad social y el reconocimiento de la diversidad”. (Benedetti,1995) 7 La Compañía de Informaciones Audiovisuales es una empresa industrial y comercial del Estado, creada bajo Decreto 24 20 de 1976. En desarrollo del objeto para el cual fue constituida, se desempeña como productora y programadora de televisión cuyo contenido tiene como propósito formar, informar, y recrear contribuyendo al desarrollo integral del ser humano y a la consolidación de la democracia y la cohesión social.

Derechos reservados COPIMERA 2015

Al igual que en el caso del cambio a color la TDT plantea un cambio sistema, cuyos efectos solo se ha visto en la esfera institucional. Un primer cambio fue la desaparición de la CNTV, órgano de gran poder de las décadas anteriores, repartiendo sus funciones en tres órganos diferentes, dos de carácter general y de carácter particular. El manejo de las frecuencias o espectro usado por la televisión paso a la ANE, Agencia Nacional del Espectro, donde estas son tratadas en igualdad con las de los demás servicios. El tema de las redes de 301


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

transmisión y distribución quedo bajo control de la CRT, Comisión de Regulación de Telecomunicaciones. Los aspectos propiamente dichos de contenidos quedaron en manos de ANTV o Agencia Nacional de Televisión.

pasando a otras organizaciones, buscándose con esto una especialización y una mayor eficiencia y eficacia en las funciones necesarias y en el desempeño de las organizaciones correspondientes. Sin embargo, durante varias décadas los arreglos institucionales en torno a la televisión fueron relativamente estables. Incluso, la primera ley sobre televisión no se emitió sino hasta 1985 bajo la administración de Belisario Betancur (Ley 42). Antes de esto se habían emitido normas de menor rango (decretos y resoluciones) que iban perfilando reglas y funciones e iban ajustando situaciones que necesitaban de alguna mejora. Esa primera ley en 1985 buscó entonces por primera vez tomar el sistema como un todo en materia normativa e institucional, recogiendo y organizando la normatividad existente en el momento.

CONCLUSIONES Resaltamos tres aspectos importantes de esta manera de abordar el estudio de la televisión. Primero, no existe un desarrollo o un patrón preestablecido de diseño institucional: los diseños de reglas, las formas en que se despliegan, y los efectos que tienen dependen en gran medida de los contextos históricos, sociales, políticos, tecnológicos y culturales en que se dan. En el caso de la televisión en Colombia hay evidencia de muchos diseños institucionales muy particulares y muy diferentes a lo que ha ocurrido en otros países.

Otro elemento que ejemplifica la complejización institucional del sistema de televisión colombiano es que el sistema pasó de ser completamente estatal en un comienzo a uno mixto, administrado y operado por el estado pero con participación de programadoras privadas en contenidos. Los canales de televisión eran operados y administrados completamente por el Estado a través de Inravisión, pero había concesión de espacios horarios para la transmisión de contenidos a través de programadoras privadas. También fue un sistema completamente centralizado hasta 1984 cuando apareció el primer canal regional en el país, Teleantioquia. La Ley 42 de 1985 buscaba organizar el sistema ante la complejización administrativa del sistema, la política de descentralización del mismo a través de canales regionales, y la apertura a la televisión por suscripción que comenzaba a aparecer en el país.

Segundo, no existe un desarrollo o un patrón preestablecido de estructura tecnológica: por ejemplo, el cubrimiento del sistema utilizando enlaces en banda base, con un alcance más allá del casco urbano o interdepartamental, fue consecuencia de las restricciones geográficas nacionales y no producto de una arquitectura preestablecida. Igualmente sucedió con la televisión por suscripción respecto a las redes existentes. Tercero, las relaciones entre los componentes de un sistema de televisión son complejas: cambios en una de las esferas desencadenarán transformaciones en las otras, lo que significa que los cambios en el sistema y en la trayectoria del mismo pueden tener origen en cualquiera de las esferas que componen el sistema, ya sea el tecnológico o el institucional.

Estos cambios llevaron a la aparición de nuevas funciones que no se estaban realizando en el país en materia de televisión, la emergencia de nuevos actores relacionados con esas funciones, y a cambios en la estructura tecnológica reflejados en nuevas redes para los canales regionales y al sistema de satélite y de cable correspondientes a la televisión por suscripción. Sin embargo, para 1991 el sistema de televisión del país presentaba una arquitectura no muy diferente a la de las décadas anteriores. A partir de 1991 se dieron muchos cambios importantes en el sistema resultado de grandes cambios en legislación. Desde 1991 ha habido 5 leyes sobre televisión, tres artículos en la Constitución Nacional de 1991, un acto legislativo (reforma constitucional con respecto a televisión) y una cantidad importante de sentencias de la Corte Constitucional.

La trayectoria resultante no puede ser explicada exclusivamente en términos de los intereses de los grupos de poder involucrados, ni tampoco como un mero desenvolvimiento de las redes tecnológicas en pos de la eficiencia. Por el contrario, se trata de un proceso heterogéneo, que incluye coyunturas y eventos no planeados, mediante el cual algunos de los grupos de participantes consolidaron su poder. Una característica importante en la historia del sistema de televisión en el país, tal y como se mencionó arriba, es la complejización institucional que ha sufrido a lo largo de los años, llevando a modificaciones en regulación y a cambios en los actores relevantes durante su historia. En los primeros años de televisión en el país una sola oficina era la encargada de todas las funciones que existían para hacer operativa la televisión: la Oficina de Información y Propaganda (ODIPE), directamente vinculada a la Presidencia de la República. A partir de 1963 todas las funciones estuvieron a cargo del Instituto Nacional de Radio y Televisión (INRAVISION).

Un punto más importante para resaltar aquí es que hasta el 2008 todos los cambios estaban claramente relacionados con la televisión, manteniéndose sin problema la división existente en legislación y regulación entre televisión y telecomunicaciones. Es decir, los cambios eran internos al sistema, sin modificar la naturaleza del mismo. La convergencia va a atentar contra esta división histórica existente, y este va a ser el reto más importante – cómo regular la televisión, incluso cómo entender y concebir la televisión, cuando se agrega internet y telefonía

Con el paso del tiempo, la complejización institucional llevó a que varias de las funciones a cargo de Inravisión fueran Derechos reservados COPIMERA 2015

302


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

móvil como vehículos de contenidos audiovisuales (Noam 2008). En este sentido, la digitalización que representa un hito tecnológico significativo para el sistema de televisión del país, diferente a cualquier otro cambio ocurrido en los 55 años anteriores está modificando la naturaleza misma del sistema de televisión, requiriendo del diseño de otro tipo de sistema que pueda asumir la convergencia.

2.! ANZOLA, P. (1978) “TV: color de hormiga”, En, Revista Nueva Frontera, Bogotá: Año, Sept.-Dic. 1978. 3.! ARBOLEDA Uribe, Esmeralda de. (1962) Memoria de la Ministra de Comunicaciones al Congreso Nacional de 1962. Bogotá, Editorial Andes. 4.! BARRERO, Fernando (1984) en REVISTA TELETEXTO No 2. 5.! BARRERO, Fernando (1986) Entrevista al director de Inravisión Fernando Barrero en la Revista "Gaceta", publicación del Círculo de Periodistas de Bogotá, CPB. Reproducida en “La TV será de la comunidad”, REVISTA TELETEXTO. No. 20. Inravisión, Bogotá, Enero 1986. 6.! BENEDETTI, Armando (1995) Memorias al Congreso por el señor Ministro de Comunicaciones, Bogotá, Ministerio de Comunicaciones. 7.! Imprenta Nacional de Colombia, 1995 8.! BOTERO Boshell, Douglas (1969) Memoria del Ministro de Comunicaciones al Congreso de la República. 1968. Bogotá, Imprenta Nacional. 9.! CASTAÑEDA G. (1994) La televisión señal con interferencias, Colombia Hoy, Vol. 5, No. 128. y Colombia Hoy No. 129. Bogotá: Nov. de 1994. 10.! DECRETO 3267 del Ministerio de Comunicaciones de Colombia. Expedido y aprobado por el Congreso de la República de Colombia el 20 de diciembre de 1963. Diario Oficial, No.31265, 30 de diciembre de 1963. 11.! DEPARTAMENTO NACIONAL DE PLANEACIÓN e INRAVISION (2005) Estudio de caso: análisis de la televisión regional en Colombia. Bogotá, Departamento Nacional de Planeación. Documento DIFP SPSD 52. 12.! ESCOBAR Mendez, Miguel (1964) Memoria al Congreso Nacional. 1964. Bogotá, Ministerio de Comunicaciones. 13.! FADUL, Miguel y PEÑALOSA, Enrique (1959) Estudio económico sobre la Radiotelevisora Nacional. Bogotá, (Biblioteca Uniandes) 14.! INRAVISIÓN (1994) Informe de Gestión, 1992-1994. Bogotá. Imprenta Nacional de Colombia. 15.! OFICINA DE INFORMACIÓN Y PROPAGANDA DE LA PRESIDENCIA DE LA REPÚBLICA (ODIPE). Seis meses de gobierno. Bogotá, Imprenta Nacional. Oficina de Información y Propaganda de la Presidencia de la República (ODIPE). Un país que trabaja. Bogotá: Imprenta Nacional, 1954. 16.! QUIJANO, Joaquín (1951) “Una red Nacional de telecomunicaciones Resumen de un proyecto”. En, Anales de Ingeniería. No. 632. Vol.58, Oct. - Dic. 17.! RADIODIFUSORA NACIONAL DE COLOMBIA, No. 128. Boletín de Programas. Mar. 1955. 18.! RADIODIFUSORA NACIONAL DE COLOMBIA, No. 163. Boletín de Programas. Feb. 1958. 19.! RAMIREZ R. Bernardo (1983) Memoria al Congreso. 1982-1983. Bogotá, Ministerio de Comunicaciones. 20.! RESTREPO, Fernando. Entrevista realizada en Diciembre de 2008.

Desde 1954 hasta aproximadamente el 2010 existía una separación clara entre televisión y tecnologías de información y comunicaciones, similar a lo que ha sido la historia en la mayoría de países del mundo. El sistema de televisión ha tenido unas fronteras claras, y la mayoría de los cambios del sistema se han ocasionado por transformaciones a su interior. Claramente un sistema como el de televisión está anidado en otros sistemas mayores, y algunos cambios pueden originarse por fuera. Tal es el caso del cambio de ideología ocurrido en los 1980s en el que el estado pierde protagonismo en la conducción de procesos de desarrollo y de orientación económica, y el mercado se convierte en el espacio privilegiado para la conducción de la economía. Esto desembocó en una oleada de privatización de actividades que alguna vez estuvieron en cabeza de estados, también entonces materializándose en la privatización de la televisión en la mayoría de países del mundo, incluyendo Colombia. Esto eventualmente se materializó en la esfera institucional del sistema de televisión del país con la Ley 335 de 1996 que creó la televisión privada en el país que resultó en la aparición de los canales nacionales privados, generando un cambio significativo en el sistema. Sin embargo, se puede plantear que durante unos 55 años había una sensación de estabilidad y claridad en cuanto a las fronteras del sistema de televisión en el país. La privatización de la televisión no modificó esto, creó unas nuevas ramificaciones en la esfera tecnológica con la infraestructura correspondiente a los canales privados, y profundizó la división del trabajo entre estado y privados, el primero encargado de la televisión educativa y cultural, los segundos dedicados al entretenimiento. Las discusiones desde la CNTV con respecto a la TDT entre 2004, cuando inició el interés de la entidad en llevar a cabo este cambio, hasta el 2008 cuando se seleccionó el estándar, también ubicaron la introducción de la televisión digital como una innovación dentro del sistema, con efectos dentro del sistema. AGRADECIMIENTOS+ [Escribir los agradecimientos] REFERENCIAS+ 1.! ABELLO Roca, Antonio (1982) Memoria al Congreso Nacional. 1981-1982. Bogotá, Ministerio de Comunicaciones.

Derechos reservados COPIMERA 2015

303


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

21.! REVISTA NUEVA FRONTERA. Véase también: Revista Teletexto. Bogotá: Sept.-Dic. 1978 22.! REVISTA TELETEXTO BARRERO F. en Teletexto No 2. 1984. Entrevista a Teresita Morales. 23.! Noviembre de 2008. Entrevista a Fernando Restrepo, Noviembre de 2008. 24.! REVISTA TELETEXTO No. 2, INRAVISION Bogotá Año. 1984 25.! REVISTA TELETEXTO. No. 20. INRAVISION Bogotá: Ene. 1986 26.! SANIN Posada, Noemí. (1984) Memoria al Congreso. Bogotá, Ministerio de Comunicaciones. 27.! AMARAL, Diego (2004) (Comp.) 50 años: la televisión en Colombia, una historia para el futuro. Bogotá, Caracol Televisión. 28.! ARÉVALO, J y HERRERA, Juan Pablo (2004) “Dos modelos para el análisis de la industria de televisión” En Colombia, Cuadernos de Economía, v. XXIII, n. 41, p. 143-170, Bogotá. 29.! BASTEIRO M. (1979) La televisión: cuatro décadas en Colombia. 30.! BIBLIOWICZ, Azriel (1973) Lo público es privado: un análisis de la Televisión Colombiana. New York: Ed. Cornell University Dissertation Series. Ithaca. 31.! BRUNSDON, Charlotte (2009) “Television Studies”. En The Museum of Broadcast Communications, ww.museum.tv/archives/etv/T/htmlT/televisionst/television st.htm. 32.! CARDENAS G. (2002) Las telecomunicaciones en Hisponoamérica. Pasado, presente y futuro. Bogotá. 33.! FEDERACIÓN LATINOAMERICANA DE ASOCIACIONES DE FACULTADES Y ESCUELAS DE COMUNICACIÓN SOCIAL (1990) La televisión en Colombia: treinta años de documentación. Bogotá, Publicaciones Universidad Javeriana. 34.! FESCOL. (1982) Televisión y Democracia en Colombia. Bogotá: Fescol y Gobierno de Canada, Fundación para educación permanente en Colombia. 35.! FOX, Elizabeth (1993) “International relations and national policies of Latin American broadcasting”. Tesis Doctoral en International Relations. The American University, Faculty of the School of International Service. Washington. 36.! FUENZALIDA V. (2000) La televisión pública en América Latina. Reforma o privatización. Santiago de Chile, Fondo de Cultura Económica. 37.! HERRAN, María Teresa (1991) La industria de los medios masivos de comunicación en Colombia. Bogotá, FESCOL. 38.! HUGHES Thomas (1994) “Technological Momentum”, En Marx Leo y Smith Roe (Eds.), Does technology drive history?: the dilemma of technological determinism. MIT Press, Cambridge, MA. 1994 39.! _________ (1989) The evolution of large technological systems. En Bijker W, Hughes T. & Pinch T. (Eds.) Social construction of technological systems: new directions in Derechos reservados COPIMERA 2015

the sociology and history of technology. MIT Press. Cambridge MA. 40.! WILLIAMS, R. (2003) Television: technology and cultural form. London- New York: Routledge;

Juan Arturo Camargo Uribe. Ingeniero Electrónico Universidad Javeriana (86), Master en Robotics and Industrial Automation, Imperial College, Londres (91), Maestro en Historia, Universidad Nacional de Colombia (2008) y Doctor en Historia, Universidad de los Andes (2013). Actualmente trabaja como Director de Investigaciones de Uniminuto y como profesor de Historia de la Tecnología en la Universidad de los Andes. Sus intereses de investigación incluyen la educación en ingeniería, la participación ciudadana en los procesos de cambio socio-técnico y la historia de la tecnología, con énfasis en sus aspectos sociales y culturales y la configuración concomitante del ordenamiento social. Correo electrónico juan.camargo@uniminuto.edu Juan Manuel Gonzalez Scoboi. Economista de la Universidad de los Andes, Bogotá Colombia, Maestría y Ph. D en Geografía de la Universidad Estatal de Pennsylvania, EEUU. Profesor Asociado del Centro Interdisciplinario de Estudios Sobre Desarrollo, CIDER de la Universidad de los Andes en Bogotá, Colombia. Director del mismo Centro entre 2003 y 2012. Areas de trabajo: desarrollo rural; pobreza; instituciones y desarrollo; medio ambiente y desarrollo; tecnología, sociedad y desarrollo. Estas áreas han sido desarrolladas a través de docencia en pregrado y posgrado, investigación y consultoría a lo largo de 22 años. Correo electrónico jmgonzal@uniandes.edu.co

304


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Antonio García Rozo. Ingeniero Electrónico de la Universidad Javeriana (72),Profesor Titular y Honorario de la Universidad de Los Andes. Actualmente se desempeña como Vice-Presidente Nacional de ACIEM, Director de la Comisión de Reglamentos Técnicos de la Construcción de ACIEM y como Director de Proyectos de AGR y

Derechos reservados COPIMERA 2015

Cía. Ltda. , empresa consultora, de la cual es socio fundador. Sus áreas de interés en investigación son: diseño de sistemas a alto nivel, diseño de CI, y los estudios de ingeniería, tecnología y sociedad. Correo electrónico angarcia@uniandes.edu.co

305


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

SISTEMAS+DE+TELECOMUNICACIÓN+CON+ANTENAS+MÚLTIPLES+CON+ INFORMACIÓN+IMPERFECTA+DEL+CANAL+ Mario Hernán Casteñeda Gárcía Munich, Alemania

Resumen+

significativo de la capacidad de los sistemas de telecomunicación inalámbrica contando con el mismo conjunto de recursos de radio [1,2]. Vale la pena indicar que las antenas múltiples se pueden utilizar también para otro fin, como es para proveer diversidad, es decir, mejorar la calidad del enlace sin necesariamente incrementar la capacidad del canal [3]. En este artículo, nos concentramos en el uso de las antenas múltiples para incrementar la eficiencia espectral. Es importante mencionar que el incremento de la capacidad vaticinado en [1,2], esta basado sobre la premisa de que tanto el receptor como el transmisor cuentan con la información perfecta del estado del canal (conocido como CSI por su acrónimo en ingles: channel state information). Esta suposición se puede justificar más facilmente en el receptor, donde es posible estimar el canal de transmisión con el uso de señales de referencia que envia el transmisor [4,5]. Sin embargo, contar el conocimiento perfecto del canal en el transmisor resulta ser en la práctica algo poco realista en ciertos escenarios. Para evidenciar lo anterior, consideremos un sistema bidireccional de comunicación como lo son la mayoria de los sistemas de telefonía móvil o celular en la actualidad. En dichos sistemas, se puede separar la transmisión en el canal de bajada y en el canal de subida ya sea por la duplexación por división de tiempo (TDD, por sus acrónimo en inglés: time division duplex) o por duplexacion por división de frecuencia (FDD, por sus acrónimo en inglés: frequency division duplex). Para observar como el transmisor puede obtener información acerca del canal (CSI) en los sistemas TDD y FDD, a continuación nos enfocamos en el canal de bajada, es decir en los enlaces de una estación base a los usuarios en una celda. Asumimos que la estación base esta equipada con antenas múltiples y que le transmite a varios usuarios, los cuales solo disponen de una antena en sus dispositivos como se muestra en la Fig. 1. El análisis también se puede extender al caso de antenas múltiples en los dispositivos de los usuarios. Dichos

Se ha demostrado que el uso de antenas múltiples puede incrementar de forma significativa la eficiencia espectral de los sistemas de comunicación inalámbrica. Por ejemplo, al equipar una estación base con varias antenas, se permite la transmisión simultánea a varios usuarios en los mismos recursos de radio. Sin embargo, para alcanzar las ganancias que ofrecen las antenas múltiples es necesario que el transmisor cuente con información acerca de los canales de transmisión de los usuarios. Dicha información puede ser obtenida a través de la estimación del canal de subida en los sistemas TDD (duplexación por división de tiempo) o por medio del feedback del canal de bajada en los sistemas FDD (duplexación por división de frecuencia). Esto implica, no obstante, que en la estación base la información disponible acerca de los canales no es perfecta ya que contiene errores de estimación y/o de cuantificación. Además de esto, no se puede obviar el hecho que parte de los recursos de radio se deben reservar para la estimación y el feedback de los canales. En este artículo presentaremos como se puede diseñar el pre-codificador en los sistemas de telecomunicación con antenas múltiples, también conocidos como sistemas MIMO, contando solamente con información imperfecta de los canales de transmisión.

Introducción El tráfico de datos sobre un canal inalámbrico se puede incrementar al contar con más recursos de radio, es decir con un mayor ancho de banda. Sin embargo, obtener más ancho de banda puede resultar en muchas ocasiones inaccesible o muy costoso, debido al limitado espectro con el se cuenta en la realidad. Por esta razón resulta atráctivo buscar mecanismos para alcanzar una mayor capacidad sin tener que recurrir al uso de más recursos de radio. A finales de la década de los noventa, se ha demostrado que el uso de antenas múltiples permite la multiplexación espacial y el incremento Derechos reservados COPIMERA 2015

306


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

sistemas con varias entradas (antenas múltiples en la estación base) y con varias salidas (múltiples usuarios) son también conocidos como sistemas MIMO (por su acrónimo en inglés : multiple input - multiple output).

Fig. 1

de la transmisión en los sistemas MIMO con información imperfecta del canal. En este artículo presentaremos como se puede diseñar el transmisor en la estación base contando solo con información imperfecta de los canales de los usuarios, como se da en la realidad. En este artículo nos enfocaremos en un sistema FDD, donde comparado con un sistema TDD la calidad del CSI en la estacion base es menor (es decir esta sujeta a más fuentes de error) debido a la cuantificación. Otra razón por la cual consideramos un sistema FDD, es porque muchos de las redes actuales de telefonía móvil funcionan en base a la duplexacion de división de frecuencia. Sin embargo también discutiremos brevemente los sistemas TDD. Para este fin, primero presentamos la nomenclatura empleada en este artículo. Enseguida proveemos una descripción del sistema para luego discutir la cuantificación del canal y como la estación base obtiene información del canal de propagación de los usuarios. Seguidamente presentaremos como se puede diseñar el transmisor en base a CSI imperfecto. Después se presentaran algunos resultados con pre-codificadores en base a CSI imperfecto. Antes de concluir el artículo, discutiremos algunos de los retos que los sistemas MIMO deben afrontar en las futuras redes de telecomunicación.

Enlace de bajada con antenas múltiples en la estación base

Con antenas múltiples en la estación base, es posible transmitir simultaneamente a varios usuarios en los mismos recursos de tiempo-frecuencia. Para lograr esto, sin embargo, la estación base necesita obtener el CSI del canal de bajada de los usuarios. En caso de un sistema TDD, dicha información del canal de bajada puede ser obtenida de la estimación del canal de los usuarios en el enlace de subida. Para esto se hace uso de la reciprocidad que existe entre el enlace de subida y el enlace de bajada en los sistemas TDD. En este caso la información disponible de los canales de propagación de la usuarios en la estación base no es perfecta ya que esta sujeta a errores de estimación y de calibración debido al hecho que los componentes de radio frecuencia en el receptor y transmisor de la estación base no son completamente recíprocos. En comparación, en un sistema FDD no existe tal reciprocidad ya que la transmisión en cada enlace ocurre en diferentes frecuencias (anchos de banda). Por lo tanto, la estación base requiere de la retroalimentación (conocido como feedback en inglés) de los canales de bajada de los usuarios. Eso implica que los usuarios deben primero estimar su canal de bajada con señales de referencia enviadas por la estación base. Luego cada usuario procede a cuantificar el estimado que ha obtenido de su canal, para después enviarlo a la estación base a través de retroalimentación en el enlace de subida. De este modo observamos que la estación base no cuenta con información perfecta de los canales de los usuarios ya que la información retroalimentada esta sujeta a errores de estimación y de cuantificación. Como hemos visto en los sistemas descritos anteriormente, no es muy realista asumir que la estación base siempre cuenta con información perfecta del canal de los usuarios. De esta forma los resultados mostrando las ganancias de los sistemas MIMO [1,2] en base al CSI perfecto de los canales no son aplicables directamente en cierto escenarios en la realidad. Por lo tanto, es fundamental evaluar el desempeño Derechos reservados COPIMERA 2015

Nomenclatura En este artículo utilizamos las letras cursivas minúsculas para indicar escalares, mientras que las letras cursivas minúsculas y letras cursivas mayúsculas en negrita representan vectores (columna) y matrices, respectivamente. La congujación compleja, la transposición y la congujación compleja más la transposición del vector x (o matriz A) esta indicada por x* ( A*), xT ( A T ) y xH ( AH ), respectivamente. Adicionalmente, definimos |c| como el valor absoluto del escalar c, mientras que ||x||2 indica la norma o magnitud del vector x..

Descripción+del+sistema+ Consideremos una estación base equipada con M antenas para transmisión y recepción, que está encargada de transmitirle datos a K ≤ M usuarios (en una celda por ejemplo), cada uno con tan solo una antena en su dispositivo móvil como esta indicado en la Fig. 1. En caso que existan más usuarios que número de antenas de la estación base, es decir K > M , se debe proceder primero a una selección de usuarios (scheduling en inglés) [6], para seleccionar un conjunto de máximo M usuarios a los cuales la estación base puede transmitirles simultaneamente. La razón de esto es porque la estación base equipada con M antenas cuenta con tan solo M grados de libertad [7].

307


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

Aun y cuando las redes inalambricas o de telefonía móvil consisten de varias celdas y estaciones bases, en este trabajo asumimos que no existe interferencia de estaciones base adyacentes y nos concentramos por lo tanto en tan solo una sola celda. Las M antenas múltiples en la estación base permiten la transmisión simultánea hasta a M usuarios en el enlace de bajada a traves de pre-codificación [8]. De forma similar es posible llevar acabo también la recepción de la transmisión simultanea de hasta M usuarios en el enlace de subida.

Los últimos TF símbolos son reservados para la retroalimentación de los usuarios, donde los usuarios envían información cuantificada acerca su canal de bajada. De esta forma vemos que los símbolos en el enlace de subida estan distribuidos como se observa en la Fig. 2, donde T = TUL + TUL,D + TF .

Adicionalmente asumimos que los canales de propagación de los usuarios en el enlace de subida (UL, por su acrónimo en ingles: uplink) y en enlace de bajada (DL, por su acrónimo en ingles: downlink) permanecen constante durante un intervalo que consiste de T símbolos. En un sistema FDD, en enlace de bajada esta separado del enlace de subida en la frequencia, es decir el enlace de bajada ocupa cierta banda de frecuencia, mientras que el enlace de subida ocupa otra banda de frecuencia como se muestra en la Fig. 2. Esto permite la transmisión simultánea en ambos enlaces. En la Fig. 2, los intervalos del enlace de bajada estan indicados debajo de los intervalos del enlace de subida. Adicionalmente, W y ts se refieren al ancho de banda disponible en cada enlance y a la duración en segundos de un intervalo, respectivamente.

Fig. 2

Asumimos que los primeros TDL símbolos en el enlace de bajada de un sistema FDD son utilizados por la estación base para la transmisión de una señal de referencia común, la cual permite a cada uno de los K usuarios estimar su canal de bajada. Para lograr un estimado del canal que contiene M dimensiones (una por cada antena de transmisión), es necesario que TDL ≥ M [4]. El resto de los TDL,D símbolos del intervalo son reservados para la transmisión de datos a los usuarios como se muestra en la Fig. 2. La transmisión de datos se lleva acabo por medio de un pre-codificador basado en la información de los canales que los usuarios reportan a la estación base por medio de feedback. Por lo tanto tenemos que

Como referencia, también presentamos como se lleva acabo dicha distribución de recursos en un sistema TDD. En dichos sistemas, el enlace de bajada (DL) y el enlace de subida (UL) estan separados en el tiempo, es decir la transmisión en cada enlace se efectua de forma alterna como se muestra en la Fig. 3. Asumiendo la misma cantidad de recursos de radio (en tiempo y frecuencia) que consideramos para el sistema FDD descrito en la Fig. 2, esto implica que en el sistema TDD cada enlace podria utilizar dos bandas de frecuencia pero solo durante la mitad del tiempo. Mientras tanto, en un sistema FDD cada enlace utiliza solo una banda de frecuencia pero de forma continua.

T = TDL + TDL,D.

Similarmente a un sistema FDD, los primeros TUL símbolos (en cada banda de frecuencia) en el enlace de subida de un sistema TDD son destinados para la transmisión de señales referencia desde cada uno de los K usuarios, lo cual permite que la estación base puede estimar el canal de subida de cada uno de los usuarios. El resto de los símbolos del intervalo son utilizados para la transmisión de datos de los K usuarios hacia la estación base. Para la recepción de esta transmisión simultánea de los usuarios se emplea un filtro basado en los canales de los usuarios estimados previamente. Como hemos explicado anteriormente, después de la transmisión en el enlace de subida de un sistema TDD se lleva acabo la transmisión en el enlace de bajada. Bajo la suposición de baja movilidad de los usuarios, es decir que el canal no cambia mucho de un intervalo al otro, y haciendo uso

Mientras tanto los T símbolos del intervalo en el canal de subida deben ser destinados para la transmisión de señales de referencia de los usuarios, transmisión de datos de los usuarios hacia la estación base y para la retroalimentación (feedback) de CSI como detallaremos a continuación. Los primeros TUL símbolos son reservados para la transmisión de señales de referencia de cada uno de los K usuarios, lo cual permite que la estación base puede estimar el canal de subida de cada uno de los usuarios. Para lograr que no exista interferencia entre la estimación de los canales, es necesario que TUL ≥ K. Los siguientes TUL,D símbolos representan la fase de transmisión de datos los usuarios hacia la estación base. Para la recepción de esta transmisión simultánea se emplea un filtro basado en los canales (de subida) de los usuarios estimados previamente. Derechos reservados COPIMERA 2015

Distribución de los intervalos en los enlaces de bajada y subida de un sistema FDD

308


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

la reciprocidad que existe entre los canales en los enlaces de subida y bajada de un sistema TDD, esto implica que el CSI del enlace de subida de los usuarios se puede utilizar para el canal de bajada. Por lo tanto no es necesario destinar recursos para la estimacion del canal en el enlace de bajada como en un sistema FDD, ni de efectuar la retroalimentación de los canales de bajada como en la Fig. 2.

Fig. 3

En base a las ventajas anteriormente descritas para un sistema TDD, uno se podría preguntar porque considerar un sistema FDD en lo absoluto. Por un lado cabe mencionar que una buena parte del espectro disponible para la telefonía móvil son bandas de frecuencia emparejadas, es decir que consisten en dos bandas, una para el enlace de subida y otra para el enlace de bajadas. Dichas bandas estan separdas por una banda de reserva y por lo tanto no son idóneas para los sistemas TDD. (Las dos bandas mostradas en la Fig. 3 no representan dos bandas de frecuencia fisicamente separadas ya que la figura solo es utilizada para fines comparativos). Desde el punto de vista técnico, cabe mencionar que si bien es cierto que un sistema TDD requiere de menos recursos de radio para permitir que la estación base cuente con CSI de los enlaces de subida y bajada de los usuarios, la potencia de transmisión disponible en cada enlace debe ser distribuida en dos bandas (el doble del ancho de banda que en un sistema FDD) como podemos ver en la Fig. 3. En cada enlace del sistema TDD, esto significa sin duda alguna una reducción de 3 dB de la potencia disponible en cada banda comparado con la potencia disponible en una banda de frecuencia por cada enlace en un sistema FDD. Además de esto existen otros factores no siempre técnicos que se deben de considerar al momento de decidir entre emplear un sistema u otro. El próposito de esta breve sección no era en realidad comparar ambos sistemas o justificar el uso de un sistema FDD en este artículo, sino que mencionar que una comparación entre sistemas TDD y FDD no resulta ser tan sencilla como podria parecer [10].

Distribución de los intervalos en los enlaces de bajada y subida de un sistema TDD

Comparación:+TDD+vs.+FDD+ En comparación con un sistema FDD, se puede observar en las Fig. 2 y 3, que en un sistema TDD, menos recursos de radio deben ser destinados (entre señales de referencia y para el feedback) para permitir que la estación base obtenga información de los canales de los usuarios en los enlaces de subida y de bajada. Esto representa una ventaja para los sistemas TDD. Además de esto, la calidad del CSI obtenido es diferente entre un sistema TDD y un sistema FDD. Por un lado, la calidad de la información obtenida del canal de subida en cada sistema es la misma, ya que la estación base cuenta en ambos casos con un estimado del canal obtenido en base a TUL símbolos de referencia. Sin embargo, para el enlace de bajada de un sistema FDD la información disponible en la estación base esta sujeta no sólo a errores de estimación (dependiendo del número de los TDL símbolos de referencia), sino que también sufre de errores de cuantificación debido a que el canal estimado de cada usuario, o mejor dicho la información del mismo, solo puede ser enviada a la estación base con un número limitado de bits [9]. En comparación, ya que la estación base en un sistema TDD utiliza el estimado del canal de subida para la pre-codificacion en el enlace de bajada, la información disponible para el enlace de bajada solo esta sujeta a errores de estimación (asumiendo baja movilidad de los usuarios). Esto representa sin duda alguna otra ventaja para un sistema TDD.

Derechos reservados COPIMERA 2015

CSI+del+canal+de+bajada+ Como hemos mencionado anteriormente, nos enfocamos en el enlace de bajada de un sistema FDD. Representaremos los canales de propagación desde la m-esima antena (para m=1,...,M) de la estación base hacia el k-esimo (para k=1,...,K) usuario con una variable normal con media igual a cero y varianza igual a uno [11] la cual llamaremos hk,m. En realidad, la varianza de los canales de los usuarios no será igual ya que los usuarios están ubicados a distintas distancias de la estación base, es decir los canales de los usuarios sufren distintas atenuaciones en promedio. Sin embargo, asumir la misma varianza para todos los usuarios simplifica el análisis sin tener efecto alguno en la conclusión general. Por otro lado, vale la pena mencionar que se puede extender el analsis que efectuamos a continuación al caso con usuarios con distintas varianzas. En todo caso, la variable hk,m modela la atenuación (que consiste de un factor multiplicativo conocido como fading en inglés) y una rotación de fase que se lleva acabo en un canal de propagación. Si recolectamos todos los canales hk,m desde cada una de las M antenas de la estación base, obtenemos un vector complejo M-dimensional hk que representa el canal completo desde la estación base al k-esimo usuario en el enlace de bajada. Como hemos explicado anteriormente, el canal del enlace de bajada hk es estimado en cada usuario k utilizando las TDL señales de referencia en el enlace de bajada (vea Fig. 2). 309


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

Asumiendo una estimación del canal en base al mínimo error cuadrático medio (MMSE, por sus acrónimo en inglés: minimum mean square error), denotaremos al estimado como ĥk y el error resultando de la estimación como ek, de tal forma que el canal hk se puede descomponer de la siguiente forma: hk = ĥk + ek ,

significativas comparado con una distribución uniforme cuando consideramos el tráfico de datos [12] [13]. Esto implica que el componente del canal más importante para determinar la estrategia de transmisión en la estación base es el IDC de los usuarios. Por lo tanto, en este artículo solo consideramos el feedback del IDC (estimado y cuantificado) de los usuarios a la estación base por medio de un canal de retroalimentación. A continuación discutimos como los usuarios cuantfican el IDC de su canal estimado.

donde ĥk y ek resultan ser vectores M-dimensionales cuyos elementos consisten de variables aleatorias independientes con una distribución normal con media cero y varianza 1-σ2eDL y σ2eDL, respectivamente, donde [4]

Cuantificación DEL idc Como hemos mencionado anteriormente, cada usuario envia el CSI de su canal de bajada a la estación base por medio de retroalimentación (feedback) en el enlace de subida. Para este fin, asumimos que cada usuario puede enviar una cantidad de B bits, lo cual es conocido en la literatura en inglés como limited feedback [14]. Esto implica que el IDC del canal estimado se puede cuantificar con B bits. Para cuantificar el IDC, que consiste de un vector que contiene M componentes (donde cada componente es un número complejo) se podrían emplear 2M cuantificadores de números reales ya sea para cuantificar la parte real e imaginaria o el valor absoluto y fase de cada componente1. Para dicha cuantificación se necesitarian minimo B=2M bits, lo cual significaria que los cuantificadores individuales solo pueden cuantificar con un tan solo bit! Además de esto, seria complicado determinar como asignar los bits a los 2M cuantificadores individuales en caso de contar con un numero de bits que no sea un múltiplo de 2M.

donde tenemos que PDL es la potencia total de transmisión disponible en la estación base y σ2n es la varianza del ruido blanco gaussiano aditivo que sufre el receptor de cada uno de los usuarios. De la ecuación anterior podemos observar que el error de estimación se puede reducir ya sea incrementando la potencia de transmisión PDL o incrementando el número de las señales de referencia TDL. En ambos casos se lograria un mejor estimado del canal. Se puede observar que la varianza del error de estimación también se podria reducir si pudiermos reducir la varianza del ruido σ2n . Sin embargo, el ruido en el receptor siempre esta presente, y de hecho es el factor limitante en los sistemas de telecomunicación. El estimado del canal ĥk (de igual forma se podría factorizar el canal hk) se puede expresar como el producto de dos componentes como se muestra a continuación

Una forma más eficaz para cuantificar el IDC consiste en emplear la cuantificación vectorial, que trata en cuantificar todo el vector del IDC de una vez. Dado el mismo número de bits, dicho procedimiento permite alcanzar un error de cuantificación más pequeño que en caso de utilizar cuantificadores individuales como hemos mencionado anteriormente. Con los B bits con los que cada usuario cuenta para enviar el CSI acerca de su canal de bajada a la estación base, el IDC de cada usuario se puede cuantificar en base a un conjunto (por cada usuario) predeterminado de 2B vectores muestras, donde cada vector muestra tiene magnitud igual a uno como el IDC. En el proceso de cuantificación, uno de estos vectores muestra será seleccionado como el representante del IDC estimado por cada usuario.

donde el primero ||ĥk||2 representa prácticamente la información de la magnitud del canal (IMC) y el segundo componente consiste de un vector normalizado cuya magnitud es igual a uno, que representa la información de la dirección del canal (IDC), el cual denotaremos con el vector ĥn,k es decir donde vemos que la norma de ĥn,k es ĥn,k H ĥn,k = ||ĥn,k ||22 = 1. Para poder transmitir simultáneamente a los K usuarios, los IDC de los usuarios es esencial ya que de esta forma la estación base sabría por ejemplo hacia que dirección transmitir la información que corresponde a cada usuario. Por otro lado, la IMC de los usuarios se podría utilizar para asignar diferentes potencias a la transmisión de cada usuario. Esto permitiría por ejemplo, asignar más potencia a los usuarios que tienen un canal más débil, es decir los usuarios cuyos canales tienen un IMC más pequeño, para garantizar cierta calidad del servicio. Sin embargo, las ganancias que se pueden obtener con una distribución de la potencia no uniforme (optimizada) entre las transmisiones de los usuarios, no son Derechos reservados COPIMERA 2015

Determinar el mejor conjunto de 2B vectores muestras no es una tarea fácil. Para este fin se pueden extender para el caso vectorial los algoritmos que son utilizados para la selección de los mejoras muestras en el caso de un cuantificador de números reales como el Lloyd-Max Quantizer (LMQ) [15]. En todo caso, la dificultad de determinar el mejor conjunto de 2B 1 Cabe mencionar que en realidad uno necesita 2M-1 cuantificadores individuales ya que la amplitud, por ejemplo, del último componente del vector se puede deducir de las magnitudes de los otros M-1 componentes debido a que sabemos que el IDC tiene magnitud igual a uno.

310


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

vectores muestras es una de las desventajas de un cuantificador vectorial. Para la cuantificación de la IDC de los usuarios, dicha selección depende también de la distribución del IDC de cada usuario. En caso que el canal de un usuario este restringido a ciertas direcciones debido a la ubicación del usuario, es decir el IDC del usuario solo puede tomar ciertos valores, esto se puede tomar en cuenta en el diseño del mejor conjunto de vectores muestra para dicho usuario. Sin embargo, esto implicaría un diseño adaptivo del conjunto de vectores muestra para cada usuario lo cual resulta en la necesidad de destinar recursos de radio para la actualización de los conjuntos de vectores muestra. Si bien es cierto que un conjunto de vectores muestra que toma en cuenta dichas restricciones del IDC conlleva a una reducción del error de cuantificación, esto se logra a expensas de recursos de radio y mayor complejidad.

la mayor correlación con el IDC del canal estimado del usuario k. Debido a que los vectores muestra del conjunto Ck también representan direcciones, es decir tienen magnitud igual a uno como el IDC, el valor máximo que puede alcanzar | tHk,j ĥn,k | es igual a 1. En caso de alcanzar este valor máximo, esto significa que no existe ningún error de cuantificación, ya que ambos vectores representan la misma dirección. En general esto no será el caso y el error de cuantificación del IDC cuantificado hq,k depende del número B de bits de cuantificación. A medida de que se incrementa B, se reduce el error de cuantificación de forma exponencial [18]. Por otro lado, la complejidad para encontrar el mejor representante para cuantificar el IDC incrementa de forma exponencial con B. De hecho, esto es precisamente otra de las desventajas de la cuantificación vectorial: la complejidad necesaria para encontrar el mejor vector muestra (candidato) de la cuantificación. Como existen 2B vectores muestra en el conjunto Ck , cada vector muestra puede ser representado por un índice único de B bits. Por lo tanto, el k-esimo usuario le comunica a la estación base el canal cuantificado hq,k por medio del feedback de los B bits que representan el índice que corresponde al mejor vector muestra del conjunto Ck..

Ahora bien, tomando en cuenta que hemos asumido que los canales de propagación desde cada antena de la estación base a los usuarios son independientes y están distribuidos de acuerdo a una distribución normal, eso significa que todas las direcciones (representadas por el IDC) en el espacio Mdimensional son equiprobables para todos los usuarios. El conjunto de vectores muestra óptimo en este caso no se conoce y por lo tanto recurrimos a emplear el cuantificador vectorial aleatorio conocido como Random Vector Quantizer (RVQ) por su acrónimo en inglés [9][16]. Con el RVQ, los 2B vectores muestra se generan de forma aleatoria, es decir se seleccionan 2B direcciones aleatorias (IDCs) en el espacio Mdimensional como posibles candidatos para cuantificar el IDC. A pesar de que dicho cuantificador vectorial no es óptimo, su desempeño esta muy cerca del óptimo también para un pequeño número de antenas M y valores razonables de B [14]. Otra ventaja de utilizar el RVQ, es que permite cierta facilidad para el análisis, es decir se pueden derivar ciertas expresiones de forma exacta [16][17]. Para evitar que dos o más usuarios al cuantificar su IDC, seleccionen el mismo vector del conjunto de vectores muestra generado con el RVQ (eso conllevaría a problemas en el cálculo del pre-codificador en la estación base ya que dos o más usuarios indican la misma dirección a la estación base), asumimos que existen K conjuntos distintos de vectores muestra, uno para cada usuario. Esto se puede lograr con una simple rotación de un conjunto madre de vectores muestra para generar distintos conjuntos de vectores muestra.

Esto significa que el conjunto de 2B vectores muestras del k-esimo usuario no solo debe estar disponible en el k-esimo usuario, sino que tambien en la estación base, lo cual implica que la estación base debe conocer todos los K conjuntos de vectores muestras. También asumimos que no existen errores de transmisión en el canal de retroalimentación, ya que de lo contrario la estación base recibiria un índice erróneo que no corresponde al mejor vector muestra de un usuario. Denotemos el producto interno entre el IDC estimado y el IDC cuantificado como

donde la magnitud de ck esta definida como cos θk y representa la correlación entre el IDC estimado y el IDC cuantificado. En base a esto, podemos expresar el IDC del canal estimado en función del IDC cuantificado como se muestra a continuación

donde denotamos el error de cuantificación como eq,k, él cual es perpendicular al IDC cuantificado hq,k, o sea

El IDC del canal estimado del k-esimo usuario se puede cuantificar dado el conjunto de vectores muestra Ck como se muestra a continuación [9]:

Este hecho impone cierta estructura en la distribución de eq,k, es decir que esta uniformemente distribuido en el subespacio (M-1)-dimensional que esta perpendicular a hq,k [19]. Esto es un aspecto importante a considerar en el diseño del precodificador, el cual es ignorado en el diseño del mismo en otros trabajos [20][21].

donde hq,k representa el IDC cuantificado. De la ecuación anterior vemos que el mejor candidato para representar el IDC estimado ĥn,k del usuario k, corresponde al vector muestra con Derechos reservados COPIMERA 2015

311


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

Dicha descomposición de ĥn,k se puede observar en la Fig. 4 donde vemos el que el ángulo θk representa el ángulo entre el IDC del canal estimado y el IDC cuantificado del usuario k. En caso de que θk = 0, entonces no existe ningún error de cuantificación ya que ĥn,k y hq,k que serian colineales.

Dicha descomposicion nos permite derivar y presentar en forma compacta el pre-codificador en base a los canales cuantificados de los usuarios, es decir en base a Hq. Después del feedback del CSI de cada usuario, la estación base tendria acceso a los K canales cuantificados de los usuarios, es decir la estación base solo cuenta con el conocimiento de Hq para el diseño del pre-codificador y desconoce el resto de los componentes de la descomposicion anterior (error de cuantificación, error de estimación). + +DISEÑO+DEL+TRANSIMOR+CON+IDC+CUANTIFICADO+

Fig. 4

Definamos el vector M-dimensional de pre-codificación que corresponde al usuario k como pk, de tal forma que recolectando los K vectores de pre-codificación de los K usuarios obtenemos la matriz de pre-codificiación P (dimensión M x K): P = [ p1 p1 . . . pK ]

Descomposición del IDC ĥn,k del canal estimado del usuario k

En base a las ecuaciones anteriores, podemos expresar el canal hk del usuario k de la siguiente forma

Los M elementos del vector pk de pre-codificación del usuario k representan los valores con los cuales la señal que debe ser transmitida al usuario k sera multiplicada en cada una de las M antenas de transmisión. De hecho, con el vector pk de pre-codificación el canal efectivo del usuario k se convierte en hTk pk . Ahora analizaremos como determinar los vectores de pre-codificación de los K usuarios.

donde hemos utilizado la siguiente sustitución

De la decomposición del canal hk del usuario k, identificamos claramente el error de estimación ek y el error de cuantificación eq,k.

Por ejemplo, en caso que estamos interesados en maximizar la relación de señal a ruido (SNR por su acrónimo en ingles: signal to noise ratio) para el usuario k, el vector pk debe estar dirigido o apuntar hacia la dirección donde se encuentra el usuario k, es decir se forma un haz en la dirección del usuario k. Sin embargo, la estación base no sabe precisamente donde se encuentra el usuario k y por lo tanto no puede formar el haz perfectamente. De hecho, como hemos mencionado explicado anteriormente, la estación base solo cuenta con una idea de la dirección estimada y cuantificada del usuario k, que esta representada por el IDC hq,k que el usuario k le comunico a la estación base por medio del feedback. En este caso, para maximizar el SNR del usuario k dado el CSI imperfecto con el que cuenta la estación base, o sea en base al IDC estimado y cuantificado del usuario k, se deberia seleccionar el vector de pre-codificación del usuario k

Ahora juntamos todos los canales de cada usuario como vectores filas en la matriz H de tal forma que podemos expresar la relación anterior de forma más compacta para todos los usuarios. Para esto necesitamos definir las siguientes matrices

donde el operador diag(x) resulta en una matrix cuadrada cuyos elementos en la diagonal resultan ser los componentes del vector x, mientras el resto de los componentes de la matrix son igual a cero. En base a las definiciones anteriores, podemos generalizar la decomposicion del los canales de todos los usuarios de la siguiente forma: Derechos reservados COPIMERA 2015

de la siguiente forma: donde PDL / K representa la potencia de transmisión asignada a cada usuario, ya que asumimos una distribución uniforme de la potencia entre las transmisiones de los K usuarios. En este 312


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

caso tenemos que ||pk ||22 = PDL / K ya que hq,k tiene norma igual a 1, de tal forma que:

Si consideramos la suma del mínimo error cuadrático medio (MMSE) entre los símbolos transmitidos y los símbolos recibidos de los K usuarios como criterio para el diseño del pre-codificador, se puede demostrar que en este caso la matriz de pre-codificacion es igual a [19]

Si escogemos el vector de pre-codificación como antes descrito para cada usuario k=1,...,K, podemos expresar la matriz de pre-codificación de la siguiente forma

donde tenemos que

de tal forma que obtenemos un diseño del pre-codificador en la estación base solo en función del IDC de los K usuarios. Sin embargo, dicha estrategia no considera la interferencia que se genera entre la transmisiones simultáneas a los usuarios, ya que los IDC de los usuarios no son (en general) ortogonales uno con el otro. Por lo tanto es necesario considerar otros diseños. Otra posibilidad consiste en precisamente diseñar el precodificador intentando evitar la interferencia entre la transmisiones a los usuarios. Cabe mencionar que como la estación base no cuenta con los canales perfectos de los usuarios, sino que solo con el IDC estimado y cuantificado de los K usuarios, la interferencia solo se puede evitar en base a esta información. En este caso, la matriz de pre-codificación se puede expresar como se detalla a continuación [18]:

son variables que dependen del número de bits B utilizados para la cuantificación y de la varianza del error de estimación σ2eDL, la cual depende en el número TDL de simbolos de referencia que son empleados para la estimación del canal de bajada. Nos referiremos a este diseño como MMSE. Como veremos en la siguiente sección, el pre-codificador MMSE es capaz de alcanzar una tasa de transmisión más alta que el precodificador ZF. EVALUACIóN DEL PRE-CODIFICADOR Para evaluar el desempeño del pre-codificador ZF y del pre-codificador MMSE que hemos presentado anteriormente, debemos primero definir la relación de señal a interferencia más ruido (SINR, por su acrónimo en inglés: signal to interference and noise ratio) que se detalla a continuación

donde D es una matriz cuadrada (K x K) con todos los elementos igual a cero a excepción a los elementos en la diagonal, donde el i-esimo elemento en la diagonal esta dado por

para i=1,...,K , donde vZF,i representa la i-esima columna (para i=1,...K) de HqH (Hq HqH)-1. Con este diseño, el vector de precodificación del usuario k es ortogonal a los IDCs (estimados y cuantificados) del resto de los usuarios. Nos referiremos a este diseño como zero forcing (ZF) en base a su nombre en inglés que se debe a que se intenta forzar a cero la interferencia entre las transmisiones de los usuarios. Sin embargo, el diseño en base a ZF en este caso no garantiza que en efecto la transmisión al usuario k no genere interferencia a las transmisiones de los otros usuarios, ya que el precodificador no esta basado en los IDC de los canales reales, sino que como hemos dicho antes, esta basado en los IDC que los usuarios reportaron a la estación base, o sea que los IDC de los usuarios estan sujetos a errores de estimación y cuantificación.

Derechos reservados COPIMERA 2015

donde en el numerador tenemos la magnitud al cuadrado del canal efectivo para el usuario k que se obtiene con el vector de pre-codificación desde la estación base hacia al usuario k, el cual hemos definido en la sección anterior. Mientras que el denomidar contiene la varianza del ruido más la suma de la magnitud al cuadrado de los canales efectivos con los vectores de pre-codificación del resto de los usuarios j (para j=1,...,K con la excepcion j ≠ k) desde la estación base al usuario k. Esta suma de las magnitudes al cuadrado de estos canales efectivos representa la suma de la interferencia, ya que hTk pj (para j=1,...,K con la excepcion j ≠ k) representa el canal efectivo por medio el cual el k-esimo usuario recibe la interferencia de la transmisión que esta destinada al j-esimo usuario.

313


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

En base a esta definición podemos expresar la tasa de transmisión (dado en bits por segundo por Hz (bps/Hz) ) que experimenta el usuario k durante la fase de transmisio de datos, asumiendo que la distribución de la simbolos transmitidos corresponde a una distribución normal, es igual a

Ahora bien, estamos interesados en caracterizar el desempeño en promedio del pre-codificador, por lo cual consideramos entonces el valor esperado de la suma de las tasas de transmisión de los K usuarios. Denotamos el promedio de la suma de la tasa de transmisión de todos los usuarios K como R que esta dada como se muestra a continuación Fig. 5 Con estas definiciones podemos proceder a mostrar algunos resultados con el pre-codificador ZF y el precodificador MMSE. En la Fig. 5 se muestra la suma de las tasas de transmisión R como función del SNR en el canal de bajada (10 log10 PDL / σn2 ) para el caso de M=5, K=5, B=10 y TDL=5 con el pre-codificador ZF y con el pre-codificador MMSE en base al IDC imperfecto, es decir en base al IDC estimado y cuantificado que los usuarios reportan a la estación base por medio de feedback. Para fines de comparación incluimos la tasa con el pre-codificador ZF y con el precodificador MMSE pero asumiendo el CSI perfecto, es decir la estación base conoce perfectamente el canal de transmisión de cada usuario sin estar sujeto a errores de estimación o de cuantificación. La pérdida por emplear el CSI imperfecto con ZF o MMSE es claramente visible. También podemos observar para cada caso la tasa de transmisión con el MMSE es más alta que con el diseño basado en ZF. Otro punto interesante de mencionar es el hecho de que la tasa de transimisión con el IDC imperfecto se satura a medida que incrementa el SNR. Esto se debe a que el error neto de la cuantificación depende de la potencia asignada a la transmisión de los usuarios, y por lo tanto incrementa con el SNR. De hecho, para valores altos de SNR el efecto del error de la cuantificación domina por sobre el error de estimación y el ruido, lo cual conlleva a una saturación.

Si incrementamos el número de bits disponibles para el feedback del IDC de los usuarios a B=16, podemos observar en la Fig. 6 que la pérdida debido al CSI imperfecto se reduce. Sin embargo, igual existe una saturación de la tasa de transmisión a medida que incrementa el SNR. Para evitar la saturación es necesario que el error de cuantificación decrezca con el SNR. Esto solo se puede lograr incrementando con el SNR el número de bits B que estan disponibles para el

feedback como se muestra a continuación [18][19]: lo cual podría implicar, sin embargo, un incremento con el SNR de la cantidad de recursos de radio necesarios para el feedback. De hecho si tomamos en cuenta estos recursos, puede que no sea óptimo incrementar el número de feedback bits como antes descrito [22].

Fig. 6

Derechos reservados COPIMERA 2015

Suma de las Tasas de Transmisión (M=5, K=5, B=10, TDL=5)

314

Suma de las Tasas de Transmisión (M=5, K=5, B=16, TDL=5)


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.

Futuras+redes+de+comunicación+

número de antenas en la estación base, pero su efecto es mas pronunciado en el caso de MIMO masiva. Existen muchos artículos en la actualidad que tratan de minimizar el efecto del tal llamado pilot contamination en MIMO masiva [23]. Debido al ancho de banda limitado que existe en las frecuencias bajas de los sistemas actuales, para las futuras redes de comunicación se espera el uso de ancho de banda en frecuencias mas altas (>6Hz), en las frecuencias de onda milimétrica [26]. En estas frecuencias, sin embargo, el canal de propagación es distinto a los canales en las frecuencias bajas, ya que existen menos reflexiones y además existen mayores pérdidas de propagación. Esto implica que los grados de libertad del canal son menor que en los canales de las frecuencias bajas, lo cual debe ser tomado en cuenta en el diseño del pre-codificador y en la estimación del canal en las frecuencias altas. La suposición que hemos hecho, por ejemplo, de modelar los canales desde cada antena de la estación base hacia un usuario con una variable normal, solo es válido en caso de muchas reflexiones como se da en los canales en las frecuencias bajas. Por otro lado para compensar las pérdidas de propagación en la comunicación de onda milimétrica, se requiere el uso de muchas antenas múltiples tanto en el transmisor como en el receptor, lo cual genera retos adicionales.

Estudios recientes prevén que las futuras redes de telecomunicacón deberán poder soportar un incremento de 1000x del tráfico de datos comprado con las redes de hoy en dia! Dicho reto no se podrá alcanzar con una simple evolución de las redes actuales y requiere la introducción de nuevas tecnologias como ser la densificación de estaciones base, la comunicación de onda milimétrica y el uso de MIMO masiva [23]. A continuación discutimos brevemente algunos de los retos que deben enfrentar los sistemas con antenas múltiples considerando la introducción de onda milimétrica y MIMO masiva. Como hemos mencionado anteriormente, la capacidad de un sistema con antenas múltiples incrementa con el número de antenas. La idea básica de MIMO masiva es equipar las estaciones base con un gran número de antenas múltiples (e.g. 100 antenas), mucho mayor que lo tenemos en la actualidad, de tal forma que los canales desde la estación base a los usuarios se convierten en canales ortogonales a medida que el número de antenas se incrementa [24]. De esta forma, el diseño del pre-codificador se simplifica ya que la selección de los vectores de pre-codificación que maximizan el SNR, que básicamente solo consisten en el IDC de los usuarios, es prácticamente óptimo y no es necesario invertir una matriz como se require en el diseño basado en ZF o MMSE. Se prevé que MIMO masiva se implemente con un sistema TDD, ya que en un sistema FDD el número de señales de reference TDL para estimar el canal de bajada y el número de bits B necesarios para cuantificar de forma aceptable el canal de bajada de cada usuario incrementan con el número de antenas en la estación base. Esto representa sin duda alguna un incremento significativo de la cantidad de recursos de radio necesarios para permitir que la estación base cuente con el CSI de los usuarios. Sin embargo, al considerar ciertas caracteristicas prácticas del canal, talvez es posible emplear MIMO masiva en un sistema FDD [25]. Considerando un sistema TDD, donde la estimación de los canales de los usuarios se lleva acabo en base a las señales de referencia que envian los usuarios en el enlace de subida como hemos descrito en este artículo, uno de los mayores limitantes para MIMO masiva es la contaminación de las señales de referencia (conocido como pilot contamination en inglés). Para garantizar que no haya interferencia en la estimación de los canales de subida de los usuarios, es necesario utilizar señales de referencia ortogonales entre los usuarios y por eso asumimos TUL ≥ K. Ahora bien, si consideramos varias celdas adyacentes con varios usuarios en cada uno, vemos que la longitud de las señales de referencia en este caso deberia ser mayor que el número total de usuarios en todas las celdas. Esto resulta ser algo impráctico en la realidad ya que se necesitaría destinar muchos recursos de radio para la estimación y por lo tanto se recurre a reutilizar las señales de referencia en distintas celdas, lo cual genera contaminación (interferencia) en la estimación de los canales. Esto es un problema que no solo se presenta con un gran Derechos reservados COPIMERA 2015

Conclusion+ En este artículo hemos analizado el diseño de precodificadores para una estación base equipada con antenas múltiples en base a información imperfecta del canal, es decir en base a la dirección estimada y cuantificada de la dirección de los usuarios. Hemos presentado como la estación base puede obtener información acerca del canal de los usuarios en un sistema TDD y en un sistema FDD. El proceso de cuantificación del CSI de los usuarios también se ha analizado. El desempeño de distintos pre-codificadores se ha evaluado por medio de simulaciones, donde el efecto de la información imperfecta del canal se ha observado. Finalmente, se han presentado algunas de las tecnologías que podrían ser parte de las futuras redes de telecomunicación y en este contexto, se han discutido algunos de los retos que los sistemas MIMO deben afrontar en las futuras redes de telecomunicación.

Agradecimientos+ Ya que este artículo esta basado en mi tésis doctoral [19], me gustaria agradecer a toda mi familia por todo su apoyo, al igual que a mi supervisor Prof. Josef A. Nossek de la Technische Universitaet Muenchen. Referencias [1] G. J. Foschini, M. J. Gans, ”On Limits of Wireless Communications in a Fading Environment when using Multiple Antennas”, Wireless Personal Commun., Vol. 6, no. 3, pp. 311-335, Mar. 1998.

315


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras. [2] I. E. Telatar, ”Capacity of Multi-Antenna Gaussian Channels”, Europ. Trans. Telecomm., Vol. 10, pp. 585-595, Nov. 1999.

[16] K. Au-Yeung, D. J. Love, ”On the Performance of Random Vector Quantization Limited Feedback Beamforming in a MISO System”, IEEE Trans. Wireless Communications, Vol. 6, no. 2, pp. 458-462 , Feb. 2007.

[3] L. Zheng, D. N. C. Tse, "Diversity and Multiplexing: A Fundamental Tradeoff in Multiple-Antenna Channels," IEEE Trans. on Information Theory, Vol. 49, No. 5, pp. 1073 - 1096, May 2003.

[17] M. H. Castañeda, A. Mezghani, J. A. Nossek, "Design of Single User Limited Feedback Systems," IEEE Trans. on Wireless Comm., vol. 13, no. 10, pp. 5812 – 5825, Oct. 2014.

[4] B. Hassibi, B. M. Hochwald, ”How Much Training is Needed in a Multiple-Antenna Wireless Link?”, IEEE Trans. on Information Theory, Vol. 49, no. 4, pp. 951-964, Apr. 2003.

[18] N. Jindal, ”MIMO Broadcast Channels with Finite-Rate Feedback”, IEEE Trans. on Information Theory, Vol. 52, No. 11, pp. 5045 - 5060, Nov. 2006.

[5] M. Medard, ”The effect upon Channel Capacity in Wireless communication of perfect and imperfect knowledge of the Channel,” IEEE Trans. on Information Theory, Vol. 46, pp. 933-946, May 2000.

[19] M. H. Castañeda Garcia, Design of Multiuser Multiantenna Wireless Communication Systems, Shaker Verlag, 2015. [20] N. Benvenuto, E. Conte, S. Tomasin, M. Trivellato, ”Predictive Channel Quantization and Beamformer Design for MIMO-BC with Limited Feedback,” in IEEE Global Telecommunications Conference (GLOBECOM) pp. 3607-3611, Dec. 2007.

[6] M. Castañeda, S. Theiler, J. A. Nossek, ”Optimum Number of Users to Feedback”, in International ITG Workshop in Smart Antennas (WSA), Mar. 2013. [7] E. Biglieri, R. Calderbank, A. Constantinides, A. Goldsmith, A. Paulraj, H. V. Poor, MIMO Wireless Communications, Cambridge University Press, 2010.

[21] M. N. Islam, R. Adve, ”Linear Transceiver Design in a Multiuser MIMO System with Quantized Channel State Information”, in International Conference on Acoustics, Speech, and Signal Processing (ICASSP), pp. 3410-3413, Mar. 2010.

[8] M. Joham, M., W. Utschick, J. A. Nossek, ”Linear Transmit Processing in MIMO Communications Systems”, IEEE Trans. on Signal Processing, Vol. 53, No. 8, pp. 2700 - 2712, Aug. 2005.

[22] M. Castañeda, A. Mezghani, Josef A. Nossek, ”Optimal Resource Allocation in the Downlink/Uplink of Single-User MISO/SIMO FDD Systems with Limited Feedback”, in Workshop on Signal Processing Advances in Wireless Communications (SPAWC), Jun. 2009.

[9] W. Santipach, M. L. Honig, ”Capacity of Beamforming with Limited Training and Feedback”, Proceedings IEEE International Symposium on Information Theory (ISIT), pp. 376-380, Jul. 2006.

[23] F. Boccardi, R. W. Heath, A. Lozano, T. L. Marzetta, P. Popovski, "Five Disruptive Technology Directions for 5G," IEEE Comm. Magazine, pp. 74-80, Feb. 2014.

[10] M. Castañeda, J. A. Nossek, ”FDD and TDD Single-User Capacity Bounds”, in International ITG Conference on Systems, Communications and Coding (SCC), Jan. 2013.

[24] T. L. Marzetta, “Noncooperative Cellular Wireless with Unlimited Numbers of Base Station Antennas,” IEEE Trans. on Wireless Comm., vol. 9, no. 11, pp. 3590-3600, Nov. 2010.

[11] J. G. Proakis, Digital Communications, McGraw Hill, Cuarta Edición, 2000.

[25] A. Adhikary, J. Nam, J.-Y. Ahn, G. Caire, "Joint Spatial Division and Multiplexing—The Large-Scale Array Regime ," IEEE Trans. on Information Theory, vol. 59, no. 10, pp. 6441-6463, Oct. 2013.

[12] J. Lee, N. Jindal, ”High SNR Analyis for MIMO Broadcast Channels: Dirty Paper Coding versus Linear Precoding”, in IEEE Trans. on Information Theory, Vol. 53, No. 12, pp. 4787-4792, Dec. 2007.

[26] A. Alkhateeb, J. Mo, N. G. Prelcic, R. W. Heath Jr, “MIMO Precoding and Combining Solutions for Millimeter-Wave Systems,” IEEE Communications Magazine, vol.52, no.12, pp. 122-131, Dec. 2014.

[13] M. Castañeda, I. Slim, J. A. Nossek, ”Transceiver Design in Multiuser MISO Systems with Limited Feedback,” in IEEE Global Telecommunications Conference (GLOBECOM), Dec. 2010. [14] D. J. Love, R. W. Heath Jr., W. Santipach, M. L. Honig, ”What is the Value of Limited Feedback for MIMO Channels?”, IEEE Commun. Mag., Vol. 42, no. 10, pp. 54-59, Oct. 2004. [15] A. Gersho, R. M. Gray, Vector Quantization and Signal Processing, Kluwer Academic Publishers, 1992.

Derechos reservados COPIMERA 2015

316


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

317


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! !

Foro Libre Articulos:

1.! Programa de gestión de prevención de riesgos ocupacionales, basados en la ley general de prevención de riesgos en los centros de trabajo. Ley 254, El Salvador. 2.! Somos importantes una visión de la ingeniería e innovación ante los desafíos de la competitividad. 3.! Diseño de estructura de interfaz Universidad-Empresa (EDIU)

! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! Derechos reservados COPIMERA 2015

!

318


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

! ! ! ! ! ! ! !

Derechos reservados COPIMERA 2015

!

319


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

PROGRAMA+DE+GESTIÓN+DE+PREVENCIÓN+DE+RIESGOS+OCUPACIONALES,+BASADOS+EN+ LA+LEY+GENERAL+DE+PREVENCIÓN+DE+RIESGOS+EN+LOS+CENTROS+DE+TRABAJO.+LEY+254,+ EL+SALVADOR.+ Carmen del Pilar Hernández Menjívar Facultad de Ingeniería, Universidad Dr. José Matías Delgado

+ RESUMEN+ ! La Ley General de Prevención de Riesgos en los Centros de Trabajo, formula aspectos reguladores y novedosos en el área de Seguridad y Salud Ocupacional (SSO), todos ellos encaminados con un objetivo central como lo es la protección de los trabajadores. Para ello la Ley establece el cumplimiento de aspectos tales como: Establecimiento de Funcionarios que velan por el buen cumplimiento de la normativa, Seguridad en la Infraestructura de los Lugares de Trabajo, en la que se plantean las condiciones estructurales que ofrezcan una garantía para el trabajador, Condiciones de Salubridad, en la que manifiesta los aspectos mínimos que deben permanecer las instalaciones de la organización, Marco Sancionatorio que establece penalidades económicas al no cumplir con la norma; todos estos aspectos están encaminados para la formulación y el cumplimiento de un Programa de Gestión de Prevención de Riesgos, que consta de 10 elementos que conforman el sistema y que garantiza el bienestar físico, emocional, mental y social del trabajador. En el presente documento se presenta una recopilación de datos históricos recomendaciones para implementar un Programa de Gestión de Riesgos.

NOMEMCLATURA+ SSO: Seguridad y Salud Ocupacional. LGPRLT: Ley General de Prevención de Riesgos en los Lugares de Trabajo. Decreto 86: Reglamento de Gestión de la Prevención de Riesgos en los Lugares de Trabajo. SNNAT: Sistema Nacional de Notificaciones de Accidentes de Trabajo

PROGRAMA+DE+GESTIÓN+DE+PREVENCIÓN+ DE+ RIESGOS+ OCUPACIONALES,+ BASADOS+ EN+ LA+ LEY+ GENERAL+ DE+ PREVENCIÓN+ DE+ RIESGOS+EN+LOS+CENTROS+DE+TRABAJO.+ LEY+254+DE+EL+SALVADOR+ En el año 460 AC, se cuenta con que Hipócrates de Cos, relaciona enfermedades, con el medio ambiente social y laboral, un ejemplo de ello son las intoxicaciones por plomo en trabajos de minas. Otros antecedentes importantes encaminados en el área de la Seguridad y Salud Ocupacional son1: 1 Basados en páginas web de Ministerios de Trabajo y antecedentes de la Seguridad y Salud Ocupacional de varios países

Derechos reservados COPIMERA 2015

320


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

1512: Ley de Indias, por el Rey Fernando el Católico cuyo propósito era regular las condiciones de trabajo de los americanos colonizados.

En base a estas tragedias, se incrementan los protocolos de SSO en el mundo para evitar repetir muertes y daños debidos a accidentes laborales.

1750 a 1840: Revolución Industrial

En base a esto se plantea un Programa de Gestión de Prevención de Riesgos Ocupacionales, basados en la LGPRLT y Decreto 86:

1892: En los EE.UU., en la planta de Joliet de la Illinois Steel Company, se crea el primer Servicio Empresarial de Seguridad

Este programa consta de 10 elementos, en los cuales se debe garantizar la participación activa de los trabajadores, tanto en la elaboración, puesta en práctica y evaluación del programa.

1907: Creación del Ministerio de Trabajo en Uruguay 1920: Se funda en Ginebra, la Organización Internacional de Trabajo (O.I.T.)

Los elementos que debe contener el Programa son3:

1946: Creación de Ministerio de Trabajo en El Salvador

1)! Mecanismos de evaluación periódica del programa de Gestión de Prevención de Riesgos Ocupacionales. 2)! Identificación, evaluación, control y seguimiento permanente de los riesgos ocupacionales, determinando los puestos de trabajo que presentan riesgos para la salud de los trabajadores, actuando en su eliminación y adaptación de las condiciones de trabajo, debiendo hacer especial énfasis en la prevención de la salud reproductiva, principalmente durante el embarazo, el post parto y la lactancia. 3)! Registro actualizado de accidentes, enfermedades profesionales y sucesos peligrosos, a fin de investigar si estos están vinculados con el desempeño del trabajo y tomar las correspondientes medidas preventivas. 4)! Diseño e implementación de su propio plan de emergencia y evacuación 5)! Entrenamiento de manera teórica y práctica, en forma inductora y permanente a los trabajadores sobre sus competencias, técnicas y riesgos específicos de sus puestos de trabajo, así como los riesgos ocupacionales generales de la empresa, que le pueden afectar. 6)! Establecimiento del programa de exámenes médicos y atención de primeros auxilios en el lugar de trabajo.

1970: EEUU, Se crea la Administración de Seguridad y Salud Ocupacional (OSHA) 2012: Ley General de Prevención de Riesgos en los Lugares de Trabajo en El Salvador LGPRLT. Se hace hincapié en estos hechos ya que revelan información importante acerca de cómo se ha evolucionado con el tema de la SSO y pese a que se puede creer que es un tema nuevo, se comprueban, los años en que se ha visto en la necesidad de crear Instituciones, reglamentos y herramientas que permitan minimizar los riesgos laborales. Así como se ha hecho referencia a la historia de la evolución de la SSO, se pueden mencionar 2 accidentes laborales que han marcado y conmocionado a nuestra humanidad2: •! Fuga de Isocianato de Metilo Bhopal, India, 1984, 20,000 muertos, 50000 intoxicados •! Planta Nuclear Chernóbil, Ucrania, 1986, 4,000 muertos.

2

http://www.bbc.com/mundo/noticias/2014/12/141202_india_bophal_tragedia_in demnizaciones_ac

Derechos reservados COPIMERA 2015

3

321

Art. 8 LGPRLT


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

7)! Establecimiento del programas complementarios, 2)+ Identificación, evaluación, control y seguimiento sobre consumo de alcohol y drogas, prevención permanente de los riesgos ocupacionales, de infecciones de transmisión sexual, VIH/SIDA, determinando los puestos de trabajo que salud mental y salud reproductiva. presentan riesgos para la salud de los 8)! Planificación de las actividades y reuniones del trabajadores, actuando en su eliminación y CSSO. adaptación de las condiciones de trabajo, 9)! Formulación de un programa de difusión y debiendo hacer especial énfasis en la prevención promoción de las actividades preventivas en los de la salud reproductiva, principalmente durante lugares de trabajo, los se adopten en la empresa el embarazo, el post parto y la lactancia. de colocarán en lugares visibles para los trabajadores y deberán ser comprensibles. Para poder implementar este elemento se 10)!Formulación de programas preventivos y de deben considerar: sensibilización sobre violencia hacia las mujeres, acoso sexual y demás riesgos psicosociales. •! Elaboración de un mapa de riesgos. •! Estudios para medición de contaminantes. Implementación de un Programa de Gestión de Prevención de Riesgos Ocupacionales: Toma de acciones que permitan el manejo efectivo de los riesgos identificados, este se puede 1)+ Mecanismos de evaluación periódica del hacer por medio de la descripción de los procesos programa de Gestión de Prevención de Riesgos con la asignación de mejoras por medio de un nuevo Ocupacionales. procedimiento utilizando técnicas que permitan reducir la exposición a riesgos, como por ejemplo la Para este criterio se debe tomar en cuenta4: adopción del manejo correcto de cargas, dejando por último el uso de Equipo de Protección Personal – •! Medidas cuantitativas y cualitativas de alcance. EPP como última barrera. •! Seguimiento de grado hasta el cual se cumple los objetivos y metas establecidos. Evaluación de riesgos en este caso se pueden tomar como base la evaluación de riesgos laborales •! Medidas proactivas que incluyan la verificación tomada del Instituto Nacional de Seguridad e de condiciones de seguridad y salud ocupacional, Higiene en el Trabajo - INSHT así como medidas reactivas, a fin de mejorar las condiciones antes descritas. 3)+ Registro actualizado de accidentes, •! Registros de resultados de seguimiento y enfermedades profesionales y sucesos medición para facilitar el análisis subsiguiente de peligrosos, a fin de investigar si estos están acciones preventivas y correctivas. vinculados con el desempeño del trabajo y tomar las correspondientes medidas Para dar cumplimiento a este Ítem se sugiere la preventivas. elaboración de listas de chequeo de la gestión de riesgos por cada uno de los 10 elementos que Se establece en el Art. 17 de la Ley General de conforman al programa, siempre y cuando se puedan Prevención de Riesgos que los miembros del Comité sustentar y comprobar el funcionamiento del punto a de Seguridad y Salud Ocupacional serán los evaluar (Anexo A) encargados del registro y reporte de los accidentes de trabajo, para el reporte de los accidentes de trabajo al Ministerio de Trabajo y Previsión Social, de El Salvador es el encargado de esta tarea será el Secretario del Comité y cuenta con 72 horas después 4 Art. 39 Decreto 86 Derechos reservados COPIMERA 2015

322


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

de sucedido el accidente para reportarlo al correo del Ministerio de Trabajo en el área del SNNAT.

En caso que en la Institución se realice una investigación de enfermedad profesional, se debe contratar a un médico especialista que realice un diagnóstico y se base en una investigación exhaustiva de los antecedentes del trabajador.

Para ello se propone cumplir con el siguiente procedimiento en caso de accidente laboral:

4)+ Diseño e implementación de su propio plan de emergencia y evacuación El plan de emergencia ofrece la primera respuesta de emergencia en todos los supuestos que se consideren como razonablemente posibles. Esta respuesta, contempla tareas de auxilio, clasificación, atención y evacuación de heridos. Sobre esta respuesta inicial debe encajar de manera ordenada toda la ayuda exterior que vaya llegando a la zona siniestrada, permitiendo la realización de tareas más complejas y sobre todo dando a la respuesta de emergencia un mayor potencial en sus labores (auxilios, clasificación, atención y evacuación de heridos hacia centros hospitalarios.) La respuesta del plan a cada una de las fases contempladas debe ser flexible a las necesidades del momento, permitiendo una rápida transferencia de los recursos hacia el próximo paso. El plan de emergencia contemplará la forma en que se dará a conocer a las personas que en él van a actuar y será probado mediante simulacros de emergencia de una manera completa para valorar de forma global la eficacia del plan. Tras la realización del simulacro se realizará una reunión de los integrantes del Comité y Brigadas para evaluar la eficacia del plan y ajustarlo a los cambios surgidos en la empresa.

Fig. # 1: Procedimiento en caso de accidente de trabajo

Para el ítem de identificación de Enfermedades Profesionales, que según OHSAS 18001, lo define como: Condición física o mental adversa identificable que proviene y/o se empeora por la actividad laboral y/o alguna situación relacionada con el trabajo.

Derechos reservados COPIMERA 2015

5)+ Entrenamiento de manera teórica y práctica, en forma inductora y permanente a los trabajadores sobre sus competencias, técnicas y riesgos específicos de sus puestos de trabajo, así como los riesgos ocupacionales generales de la empresa, que le pueden afectar. 323


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

y responsabilidades capacitaciones.

En este ítem se sugiere implementar: Un manual de Bienvenida donde explique cómo la empresa aplica el Programa de Gestión de Prevención de Riesgos Ocupacionales.

E

Este programa es de carácter preventivo y se enfoca en educación y sensibilización a los trabajadores.

Renovar la Cartelera de Seguridad y Salud Ocupacional explicando los nuevos procedimientos asociados a cada tarea.

Este programa trata de incidir en los trabajadores para evitar el consumo de alcohol y drogas, por lo que se recomienda charlas preventivas, volantes informativos y descriptivos de la temática donde se manifieste las consecuencias por consumo.

Plan anual de entrenamiento5 en la cual debe ser impartida por medio de empresas asesoras acreditadas, peritos en las áreas especializadas en sus áreas de experticia o entidades de formación técnica.

Además establece de forma integral que el programa incluya prevención en el área de enfermedades de transmisión sexual haciendo hincapié en VIH/SIDA en la cual la organización debe promover capacitaciones, facilitar información de prevención y debe velar por principios relativos a la salud mental y reproductiva, para esto se sugiere una programación anual de charlas breves y divulgaciones en carteleras que sean de fácil compresión y lectura.

E stablecimiento del programa de exámenes médicos y atención de primeros auxilios en el lugar de trabajo. Este ítem aborda un programa de exámenes médicos y de laboratorio, estos están basados de acuerdo a la naturaleza de la empresa y previo a la identificación y evaluación de riesgos de el numeral 2 de la LGPRLT, en la que se establece que los trabajadores se les deben entregar los resultados en original y la Institución guardar copias al Programa de Gestión. Estos resultados también se relacionan con la vinculación del numeral 3: Registro de Enfermedades Profesionales.

8)+

P lanificación de las actividades y reuniones del CSSO. La LGPRLT establece la obligación del establecimiento de un Comité de Seguridad y Salud Ocupacional, En aquellas empresas donde laboren quince o más trabajadores o aquellos que se consideren necesarios por la naturaleza de la empresa.

También se contempla el resguardo de equipo de atención de primeros auxilios con sus respectivos procedimientos así como funciones Art. 50 Decreto 86

Derechos reservados COPIMERA 2015

a

stablecimiento del programas complementarios, sobre consumo de alcohol y drogas, prevención de infecciones de transmisión sexual, VIH/SIDA, salud mental y salud reproductiva.

Reunir a los empleados y explicar los riesgos asociados a cada puesto de trabajo.

5

previo

7)+

Una presentación de Riesgos de acuerdo al puesto de trabajo que ocupará y los riesgos asociados a la naturaleza de la Institución

6)+

asignadas

324


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

El comité es conformado por los delegados de prevención que son designados en parte iguales por representantes patronales y electos por los trabajadores y son en proporción al número de trabajadores de la organización.

mujeres, acoso sexual y demás riesgos psicosociales. Este numeral establece claramente 5 medidas concretas exigidas por ley a continuación se plantean posibles soluciones para cada una de ellas7

El CSSO, es clave y responsable de administrar el Programa de Gestión de Prevención de Riesgos Ocupacionales y son los encargados de elaborar su propio reglamento basado en la Ley, donde se establecen sus funciones. 9)+

Minimizar los efectos negativos del trabajo monótono y repetitivo. Debido a que las operaciones de muchas organizaciones deben realizar en constantes repeticiones se plantea el uso adecuado de equipos y herramientas así como procedimientos correctos que velen por la seguridad del trabajador.

F ormulación de un programa de difusión y promoción de las actividades preventivas en los lugares de trabajo, los se adopten en la empresa de colocarán en lugares visibles para los trabajadores y deberán ser comprensibles.

Establecer medios para que las relaciones laborales sean beneficiosas y respetuosas en busca de la comunicación efectiva. Se sugiere: Buzón de sugerencia de Seguridad y Salud Ocupacional, que el Comité de Seguridad y Salud Ocupacional mantenga una relación cordial y que los empleados sean consultados periódicamente para mantener una comunicación efectiva.

En este literal la ley solo pide incluir 3 acciones para el fomento de una cultura de prevención como lo son6: •! •! •!

D ivulgación en lugares visibles de la política de SSO de la organización. D ivulgación de consejos prevención de riesgos.

de

seguridad

y

Hacer participar a los trabajadores en la adopción de cambios en la organización de trabajo relacionados con seguridad y salud ocupacional. En las diferentes charlas que se realice con el personal podrá exponer su punto de vista ante la adopción de nuevas medidas de organización del trabajo en tema de Seguridad y Salud Ocupacional.

Manuales e Instructivos de los riesgos a los que están expuestos los trabajadores. Este último ítem se contempla en el numeral 2 de dicho programa, ya que primero se deben evaluar los riesgos y hacer una propuesta de mejora para minimizar los riesgos.

10)+ Formulación de programas preventivos y de sensibilización sobre violencia hacia las

6

7

Art 53, Decreto 86

Derechos reservados COPIMERA 2015

Sensibilizar sobre las causas y efectos de violencia hacia la mujer y del acoso sexual. Por medio de una campaña de concientización publicada mes a mes sobre prevención de

F

325

Art 55, Decreto 86


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Conclusión:

violencia a la mujer en la cartelera de Seguridad y Salud Ocupacional, así como 1 vez al año una campaña de concientización sobre el tema.

Las medidas y controles deben ser fundamentales para la aplicación de un sistema de Seguridad y Salud Ocupacional, pero se debe tener en cuenta que existen factores adicionales que muchas veces no se toman en cuenta como lo es la motivación de los empleados, personal capacitado y la conciencia en el beneficio que genera una cultura de prevención de Seguridad y Salud Ocupacional, evitando así la eliminación de condiciones inseguras para los trabajadores.

Recolectar propuesta de todos los niveles y ámbitos de lugares de trabajo, con especial atención en el control de los riesgos psicosociales Se sugiere emplear una campaña de ayuda a sus empleados del manejo efectivo de riesgos psicosociales tales como estrés por medio de divulgación en cartelera y una campaña de concientización sobre el tema, así como encuestas de clima laboral.

Recomendación: Utilizar normativas, leyes y reglamentos benefician para mantener un Programa de Seguridad y Salud Ocupacional, ayudando a su vez a implementar un proceso lógico que establezca las directrices de trabajo en el área permitiendo garantizar la integridad del trabajador. Agradecimientos A Dios Todopoderoso. A la Universidad Dr. José Matías Delgado, por la confianza, el apoyo brindado y siempre apoyarme para mi crecimiento profesional. Un agradecimiento especial a la Ing. Silvia Regina Barrios de Ferreiro, Decana de la Facultad de Ingeniería de la UJMD, por su apoyo incondicional y el espíritu de fortalecer el desarrollo profesional de su equipo de trabajo. A mí amada familia. Referencia:

Fig. 2 # Evaluación periódica del Programa de Gestión de Prevención de Riesgos.

Ley General de Prevención de Riesgos en los Centros de Trabajo. Ley 254. El Salvador Decreto 86 y 89: Regalmento de la Prevención de Riesgos en los Lugares de Trabajo. El Salvador.

Todos estos 10 pasos no se puede olvidar una evaluación periódica Programa de Gestión de Prevención de Riesgos Ocupacionales por lo que se sugiere: Derechos reservados COPIMERA 2015

326


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

ANEXO A TABLA # 1: LISTA DE CHEQUEO PARA EL ITEM: RIESGOS OCUPACIONALES Riesgos Ocupacionales. Puntos a Evaluar S i

1.!

Cumple N o

E xiste un Sistema de identificación de riesgos ocupacionales.

2.!

E xiste un sistema de evaluación de riesgos ocupacionales.

3.!

E xiste un sistema de control de riesgos ocupacionales.

4.!

S e lleva a cabo un seguimiento permanente de los riesgos ocupacionales.

5.!

E stán identificados, evaluados y controlados los riesgos según los puestos de trabajo.

6.!

E xiste acciones que permitan el manejo efectivo de los riesgos identificados y evaluados, estableciendo como prioridad la actuación en la fuente u origen. Comentarios y puntos de mejora.

Derechos reservados COPIMERA 2015

327

N / A

Observ aciones

Acciones Sugeridas


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ !

INGENIERIA+E+INNOVACION+ANTE+LOS+DESAFIOS+HACIA+LA+COMPETITIVIDAD+CIMEQH+ ! ! !

Ing. Jose Ernesto Calix Mendoza PRESIDENTE CIMEQH, TEGUCIGALPA, HONDURAS!

+

Resumen+

significativa en la posición competitiva de un país. Estos indicadores por lo general son: 1.! Tasas de Interés! 2.! Costo de Mano de Obra! 3.! Productividad! 4.! Promedios Arancelarios! 5.! Participación de las Exportaciones en las Importaciones. 1.! Tasas de Interés: un factor importante en la competitividad es el costo al que las Empresas tienen acceso al crédito. 2.! Costos de la Mano de Obra: otro factor que influye de manera significativa en la competitividad frente a otros países es el costo de la Mano de Obra, salario medio por obrero o remuneración media del personal ocupado. 3.! Productividad: se plantea el índice de productividad como la relación entre los cambios en la producción y los cambios en las horas hombre trabajadas. 4.! Promedios Arancelarios: debido a que nuestra industria requiere de insumos intermedios y bienes de capital importados, 5.! Participación de las exportaciones en los productos importados: un incremento en la participación de nuestras exportaciones utilizados como insumos en cada uno de los productos que se importan o ingresan al país es indicativo de una mejora competitiva.

El presente Artículo plantea el concepto de Competitividad como un fin que se logra a través del esfuerzo combinado de múltiples factores: educativos, sociales, productivos, tecnológicos e innovadores que permiten a los Países en general y a las Empresas en particular, garantizar su posicionamiento y sostenibilidad en el mercado global de competencia en producción de bienes y prestación de servicios. Se inicia con la definición conceptual de competitividad, para que una vez identificados los factores que inciden directamente en su logro; se pueda finalmente inferir como los cambios tecnológicos y la constante innovación facilitan y permiten su establecimiento como nuevo paradigma de las Empresas del siglo XXI y, como los países que adoptan los cambios y adecuan su infraestructura productiva adquieren ventajas para enfrentar los desafíos de la competitividad.

+

Introducción+ La Competitividad, es el resultados de la interacción de diferentes factores, entre los cuales se destacan: los costos de los insumos, el costo del financiamiento y los factores de producción, la productividad, los precios de los productos terminados, el régimen impositivo y la organización de los mercados y sistemas de distribución. En consecuencia, es imposible expresar la competitividad usando un solo indicador, por lo tanto, en lugar de presentar un Índice Global, se presentan una serie de indicadores que influyen de manera

Derechos reservados COPIMERA 2015

A través del desarrollo de estos conceptos veremos que el verdadero recurso basico para el desrrollo es el conocimiento, pues en los ultimos 14 años el conocimiento en la humanidad duplicó al conocimiento de todos los siglos anteriores y algunos estiman que a partir del 2012, el proceso es exponencial al grado que cada 73 minutos (dos horas y cuarto) se dobla el

328


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

conocimiento. Asi mismo se ha vuelto cada vez mas comun que las personas estudien dos o tres carreras mas durante su vida. Entender la importancia de la inversion en educación, investigación y desarrollo como herramientas que contribuyen a la competitividad de los pueblos en los mercados actuales, es determinante para el desarrollo de cada Nación. 3.!

Nomenclatura+ Productividad = ΔValor Agregado Insumos Usados Valor agregado:

Tipo de producto Tecnología del producto

Insumos usados:

Tecnologia de la producción Calidad del Recurso humano Equipamiento Tecnologias de apoyo

4.!

5.!

Competitividad+global:+ Los recursos económicos básicos ya no son el capital, los recursos naturales o el trabajo, los recursos básicos son y serán “el conocimiento”. El valor es ahora creado por la productividad y la innovación, ambos generados como consecuencia de la aplicación del conocimiento al trabajo. El fin de las ventajas comparativas es un hecho, paradójicamente, los países cuya carencia de recursos naturales era mayor, se han visto obligados a desarrollar ventajas competitivas a través de la innovación, lo que el Profesor Michael Porter de la Escuela de Negocios de Harvard llamó: “la teoría de las desventajas selectivas” que se aprecia claramente en los casos de Japón y Suiza; el primero carece por completo de recursos naturales y el segundo no tiene en su territorio ni una sola planta de cacao y es reconocido mundialmente como productor referente de chocolates. El Modelo de Porter establece que la competitividad de un país se define por su capacidad de diseñar, producir y comercializar bienes y servicios mejores y mas baratos que la competencia, lo cual trae consigo una mejora del nivel de vida de la población. A pesar de que la competencia se ha globalizado, el rol e importancia de las economías locales y regionales es cada vez mas determinante en la búsqueda de la competitividad.

6.!

7.!

8.!

El paradigma de la competitividad: Definición: Conjunto de habilidades y condiciones requeridas para el ejercicio de la competencia. Esta tiene que ser sostenible para obtener ganancias y sustentable en el tiempo para mantener participación en el mercado.

El índice de Competitividad Global: se basa en ocho categorías: 1.! Apertura Comercial: No se puede considerar el crecimiento de una nación sin analizar su apertura comercial. No solo los aranceles, estabilidad del tipo de cambio y las restricciones a capitales, sino también, el apoyo que se brinda a las exportaciones, importaciones e intercambio comercial. 2.! Gobierno y política fiscal: Derechos reservados COPIMERA 2015

El accionar del gobierno es fundamental para el desarrollo de la competitividad. Este es responsable de la política fiscal e impositiva, el tamaño y carga del Estado, su desempeño administrativo e imparcialidad de acciones así como su peso en la administración de las Empresas. Así es fácil darse cuenta si un Gobierno promueve la competitividad empresarial o no. Indicadores financieros: Es útil conocer el grado de intermediación financiera de un país, además de la eficiencia bancaria y su grado de competencia. La tendencia al ahorro e inversión además de la disponibilidad de capitales y promoción de exportaciones. Infraestructura: Una plataforma competitiva requiere de una infraestructura que la soporte. Conviene analizar la calidad de vías de comunicación, facilidades de acceso a servicios, y posibilidad de obtener crédito y financiamiento a través del Estado y sector Privado. Tecnología: En nuestra era la tecnología define la competencia y eficiencia de las naciones, por tanto es fundamental determinar el grado de modernización y acceso a tecnologías, así como la posibilidad de desarrollar nuevas tecnologías con el recurso humano y capital disponible. Dirección: La eficiencia de una Empresa se define por la alta dirección, por ello es muy importante la calidad en la gestión y en el recurso humano. Debe analizarse la capacitación, motivación, remuneración, premios e incentivos, etc. Mercado laboral: Analizar el desarrollo de la fuerza laboral en un mercado, las destrezas y la productividad laboral así como la flexibilidad de las normas laborales y programas sociales con la apropiada relación obrero-patronal. Instituciones: El desempeño y transparencia de las instituciones jurídicas y políticas es fundamental para la mejora de la estabilidad laboral, seguridad social y protección ciudadana.

Esferas de acción para la competitividad: En el plano internacional, no solo compiten Empresas, sino también se confrontan Sistemas productivos, esquemas institucionales y organizaciones sociales.

329


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Los productos no solo compiten, sino que en ellos se manifiesta la competencia de los sistemas productivos, tecnológicos y educativos. La competitividad no es un fenómeno económico impulsado por el mercado, es necesario tener una perspectiva amplia y global de la sociedad, pues incluye Leyes, costumbres, lenguaje y hábitos en los negocios.

c.+ Instituciones de investigación d.! Instituciones financieras e.! Instituciones educativas 3.! A Nivel Macro: a.! Congreso Nacional b.! Gobierno Central c.! Instituciones estatales d.! Banco central e.! Poder Judicial

La Competitividad es una mezcla de una visión de mundo contemporáneo sumergido en valores sociales, una combinación de teorías económicas, la aplicación de la vida práctica donde se lucha ferozmente por posicionarse en un mercado.

4.! A Nivel Meta: a.! Orientación de los actores del aprendizaje y eficiencia b.! Defensa de los intereses y subordinación ante los cambios c.! Capacidad social de organización e integración d.! Capacidad de los grupos estratégicos para la interacción estratégica.

La competitividad industrial es producto de la interacción compleja y dinámica de cuatro niveles económicos y sociales de un sistema nacional Factores determinantes de la Competitividad: 1.! 2.! 3.! 4.!

Nivel Micro-económico: Nivel Meso Nivel Macro Nivel Meta

Tabla 1 Proceso micro para la competitividad Factores que se deben trabajar Precios/costo Calidad Diseño Servicio al cliente Oportunidad Adecuacion a la competencia Volúmenes Estrategia competitiva flexibilidad

1.! Nivel Micro: constituido por la Empresas que constantemente buscan eficiencia, calidad, flexibilidad y rapidez de reacción estando articuladas en redes de colaboración mutua. 2.! Nivel Meso: que corresponde al Estado y los actores sociales que desarrollan políticas y procesos de aprendizaje a nivel de la sociedad. 3.! Nivel Macro: una serie de políticas que pretenden regular el mercado y exige a las Empresas estándares de mercado.

Creación de ventajas comparativas dinámicas Aprendizaje y mejora continua Disposición al cambio Innovaciones tecnológicas y de organización Establecer nuevos patrones de eficiencia

Herramientas para el cambio Establecer sistemas de autoevaluación Acceso a la información y uso de guías de gestión Establecer contactos internacionales Aprovechar programas de apoyo a la modernización productiva y emp.

Fuente: Elaboración propia Tabla 2 Estilos gerenciales entre la administracion anterior y “el nuevo paradigma de competitividad”

4.! Nivel Meta: que se constituye en solidos patrones de organización jurídica, política, económica, organización social e integración estratégica de los actores.

ESTILO GERENCIAL MANDO Y CONTROL

Actores que fomentan la competitividad:

ADMINISTRACION ANTERIOR •! Centralizado •! Vertical •! Cascada de niveles •! La Gerencia es la que sabe

NUEVO PARADIGMA

ESTRUCTURA Y CRECIMIENTO

•! •!

•!

OPERACION

•!

1.! A Nivel Micro: al interior de la Empresa, a.! Asociaciones empresariales y sindicatos, b.! Productores y prestadores de servicios c.! Servicios al productor d.! Organizaciones de consumidores 2.! A Nivel Meso: a.! Gobiernos b.! Asociaciones Empresariales, sindicatos, organización de consumidores, organizaciones privadas Derechos reservados COPIMERA 2015

Metodología

330

Pirámide estable Crecimiento en altura y complejidad Nexos definidos en sentido vertical

•! •! •! •! •! •!

•! •!

Coordinación central Autonomía local Autocontrol horizontal Autoevaluación Auto-mejora Proceso decisorio participativo Red chata flexible unidades agiles Expansión plana Lazos interacción

y de

de y


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ •! •! PERSONAL Y ENTRENAMIENT O

•! •! •! •! •! •! •!

EQUIPOS ESCALA

Y

•!

•!

PROGRAMA DE PRODUCCION

•! •!

•! PRODUCTIVIDA D

•! •!

PROVEEDORES, CLIENTES Y COMPETIDORE S

•! •! •! •! •!

Departamentos separados Especialización por funciones

•!

Organización de operación optimizada Rutinas estandarizadas Existe una manera optima Definición de áreas para cada individuo Especialización en una función Flujo de decisiones de arriba abajo Flujo de información de abajo a arriba

•!

Equipo dedicado y tamaño optimo de la planta para cada producto Aspira a economía de escala para producción en masa

•!

Fija ritmos de producción Produce inventarios para absorber variaciones de la demanda Reduce personal en bajones Medición distinta según departamento Porcentaje de tolerancia en calidad y rechazos Aislamiento del mundo exterior Que los proveedores compitan en precio Lograr productos estándar masivos Oligopolio a distancia La empresa como sistema cerrado

•!

•! •! •! •! •! •! •!

•! •! •!

•! •!

•! •! •! •!

•!

el cambio. Los ingenieros deben constantemente actualizarse y formarse para aprovechar las ventajas competitivas que los cambios tecnológicos del mundo actual traen consigo. No hace mucho que el uso de Internet y la expansión de las comunicaciones a través de las redes sociales era desconocida. Sin embargo actualmente existe el desafío de competir en mercados cada vez más exigentes, dinámicos y hasta cierto punto imprevisibles.

cooperación entre funciones Líneas integradas definidas por productos Aprendizaje y mejora continua Sistemas flexibles Practicas adaptables Siempre puede haber una manera mejor Definición de tareas para el grupo Personal polivalente Amplia delegación de toma de decisiones Flujo múltiple todas direcciones Equipo adaptable y flexible Múltiples escalas eficientes Crecimiento según la demanda Economía de escala, de cobertura, de especialización o combinadas Ritmo adaptable a la demanda Reducir el tiempo de respuesta Utiliza los bajones para entrenamiento y mantenimiento

Papel del Estado: Para desarrollar la competitividad, El nuevo rol del Estado es el de facilitador y promotor de los talleres de competitividad, siendo el actor el sector Privado y los Empresarios. Para lo que se requiere la participación del Gobierno y el sector Académico. Los objetivos de estos talleres son: identificar las ventajas comparativas susceptibles a transformarse en ventajas competitivas de cada sector, sensibilizar a los actores regionales, identificar socios regionales y comprometer a los lideres empresariales. El Papel de las ONG´s: Las entidades sin fines de lucro, tienen que volcarse a ser más competitivas, yendo mas allá de la ayuda paternalista o con un sentido de supervivencia. Hoy en día su apoyo debe enfocarse a desarrollar las capacidades propias de la población. Papel de la Educación: ORDENACIÓN DE LA EDUCACIÓN SUPERIOR UNIVERSITARIA La Constitución de la República en su Capítulo VIII de la educación y la cultura, en el artículo 159 dice: «la Secretaría de Educación Pública y la Universidad Nacional Autónoma, sin menoscabo de sus respectivas competencias, adoptarán las medidas que sean necesarias para que la programación general de la educación nacional se integre en un sistema coherente a fin de que los educandos respondan adecuadamente los requerimientos de la Educación Superior».

Medición total a lo largo del proceso para cada producto Meta de cero defectos y rechazos Fuerte interacción con el mundo exterior, Alianzas estratégicas con proveedores e incluso con los competidores, La Empresa como sistema abierto.

El Consejo de Educación Superior es el órgano de dirección y decisión del sistema, y tiene las siguientes atribuciones: a) Dictar las políticas de educación superior. b) Aplicar la Ley de Educación Superior, la de las universidades privadas o particulares y cualesquiera otros regímenes legales aplicables a la educación superior. c) Aprobar la creación y el funcionamiento de centros de educación superior, públicos o privados. d) Aprobar la apertura, funcionamiento, fusión o supresión de carreras, escuelas, facultades, institutos y centros de investigación científica, así como los planes curriculares y los programas especiales de nivel superior

Fuente: elaboración Propia Papel de la ingeniería: Los países se desarrollan a través de la inversión en proyectos de ingeniería que revolucionan la sociedad y su estatus quo, permitiendo que los diversos actores sociales evolucionen hacia Derechos reservados COPIMERA 2015

331


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

de las universidades particulares o privadas y de los centros estatales de educación superior. e) Determinar la estructura de grados académicos del nivel superior. f) Fijar los criterios para evaluar la excelencia académica. g) Ejercer la potestad normativa para emitir los reglamentos de la Ley de Educación Superior y las demás leyes aplicables al nivel. h) Presentar ante los organismos correspondientes el proyecto de presupuesto para el funcionamiento de los órganos del nivel de educación superior, para ser incluido en el presupuesto de la Universidad Nacional Autónoma de Honduras. i) Proponer al Consejo Nacional de Educación el plan general para que la educación se integre en un sistema coherente, a fin de que los educandos respondan adecuadamente a los requerimientos de la educación superior. j) Coordinar con la Secretaría de Estado en el Despacho de Educación las regulaciones y acciones del Sistema Educativo Nacional en un todo armónico y coherente. k) Solicitar la creación de doctrina académica. l) Otras que le señalan la Constitución y las leyes.

competencia libre que se habían fijado en la norma jurídica (Ley General de la Industria Eléctrica); pero, si algo podemos rescatar, es que nuestro Gobierno ya ha asumido el reto de aceptar y promover los cambios que sean necesarios para afrontar los desafíos de la competitividad que ya están presentes. Amenazas latentes: Pese a que el modelo económico promocionado desde el Gobierno tiene sus ventajas, existe un alto riesgo país, debido a una actitud permanente y sistemática de irrespeto a las normas jurídicas, bajo el argumento que “el fin justifica los medios”, lo que distorsiona completamente el mercado y ahuyenta la inversión privada genuinamente necesaria para afrontar los retos y desafíos que la competitividad exige.

Conclusiones:+ •!

Caso hondureño: Honduras ha dado inicio en los últimos años a cambios estructurales en la gobernabilidad de la educación desde nivel primario, medio y superior, sin enfrentar el reto de promover la investigación y desarrollo de nuevas tecnologías; así mismo, ha adoptado esquemas de mayor competencia en la industria eléctrica, ha promovido interconexiones de los sistemas eléctricos regionales, ha decidido abrir el mercado eléctrico a la competencia, retirándose paulatinamente del esquema monopólico estatal en las tres áreas: Generación, Transmisión y recientemente en la Distribución. El Estado Hondureño ha apuntado a la generación de energía con tecnologías modernas y no tan convencionales como la eólica, fotovoltaica, biomasa, biocombustibles, geotérmica, etc., enfatizando en la explotación de los recursos renovables. Esto ha traído en consecuencia la necesidad de redefinir el sistema educativo y los planes de estudio de los hondureños para atender este creciente y nuevo mercado laboral que demanda especialistas en nuevas tecnologías; también, es evidente la necesidad del establecimiento de un marco regulatorio jurídico, consecuente con los nuevos actores del mercado; Por supuesto que por diversos motivos, no ha logrado el objetivo final, entre ellos: el abuso en el otorgamiento de incentivos sin el análisis responsable y técnico correspondiente, la contratación de potencia y energía no firme y por encima de la demanda requerida, la falta de un Marco Reglamentario aun por definir y el otorgamiento con la anuencia de la Empresa Privada hondureña de Fideicomisos con grandes vacíos de aplicación e incertidumbre, por no haber sido conceptualizados y estructurados por expertos o personal competente; son algunos factores que han distorsionado y retrasado los esquemas de Derechos reservados COPIMERA 2015

•!

•!

•!

•!

332

Afortunadamente con las inversiones del sector privado en Honduras, existe acceso a tecnología en calidad suficiente, pero por si sola no logra impulsar y elevar la competitividad del país, ya que factores propios del sistema directamente relacionados como: Insuficiente Apertura Comercial, gobernabilidad y política fiscal, indicadores financieros, limitaciones en infraestructura, equivocada Dirección, abuso y violación de derechos en el mercado laboral e Instituciones Jurídicas contaminadas y faltas de transparencia y credibilidad, pesan más y negativamente en el Índice de competitividad global del país. En la era del conocimiento, las ventajas competitivas se generan mediante la innovación y la creatividad, para lo cual se requiere inversión fuerte en capital humano, formación profesional, investigación y desarrollo de tecnología. El Cambio hacia la competitividad solo será posible en la medida que haya una transformación en los paradigmas y en la actitud de los líderes regionales a fin de que comprendan que lo que hagan o dejen de hacer dependerá de ellos mismos y que las soluciones no van a venir de fuera. Solo una población educada, con actitud competitiva que comprenda que los recursos naturales y la mano de obra barata ya no es lo mas importante para competir es lo que va a permitir desarrollar el potencial de las regiones. Los estudios realizados en países de Centro y Latinoamérica han encontrado que existen esquemas mentales que dificultan la competitividad como: que la riqueza es mal vista, se castiga el éxito, solidaridad con la mediocridad, baja autoestima, falta de valores éticos en los negocios. El CIMEQH atendiendo a sus fines por mandato de su Ley Orgánica, permanentemente ha realizado su labor de asesorar a los Gobiernos en cada etapa de su vida gremial, sin que hasta ahora, sus planteamientos eminentemente técnicos, serios y solidamente argumentados, hayan sido


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

escuchados y mucho menos implementados. Sin embargo esta ventaja competitiva permanece allí, a la espera que algún Gobierno vea su magnitud e importancia y la utilice como oportunidad para afrontar los desafíos de la competitividad con el uso de la tecnología e innovación.

Agradecimientos+ Extiendo mi sincero agradecimiento a la Confederación Panamericana de Ingenierías Mecánica, Eléctrica y Ramas Afines, COPIMERA, y sus Autoridades, a los honorables Miembros del Comité Técnico del Congreso y al Colegio de Ingenieros Mecánicos, Electricistas y Químicos de Honduras CIMEQH, por la invaluable oportunidad de permitirme exponer ante los distinguidos participantes del Copimera XXV en su quincuagésimo aniversario 2015, un importante tema de actualidad y discusión general en los países de Latinoamérica. +

Referencia+ 1.! Estadísticas de la Educación en Honduras, UNICEF. 2.! Informe de indicadores de competitividad, Proyecto Andino de Competitividad. Ecuador. 3.! INEGI, Indicadores de Competitividad de la Economía Mexicana, 4.! Benchmarking, evaluación de indicadores de competitividad. 5.! Limitaciones del enfoque tradicional de ventaja comparativa ante el avance tecnológico, Torres Llosa Villacorta. 6.! Implications for competitive restructuring and for institucional perform developing countries. Banco Mundial. 7.! El Desafío de la Competitividad Regional, CENTRUM, Lima, Perú.

Derechos reservados COPIMERA 2015

333


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Anexo A 1.! Presupuesto público total para Educación Superior como porcentaje del PIB: PAIS

Promedio

ARGENTINA

0.50%

BOLIVIA

1.20%

BRASIL

1.01%

COLOMBIA

0.65%

COSTA RICA

0.94%

CUBA

1.78%

GUATEMALA

0.28%

HONDURAS

0.95%

MEXICO

0.71%

NICARAGUA

1.08%

PANAMA

1.38%

PARAGUAY REP. DOMINICANA

0.75%

URUGUAY

0.42%

0.22%

Fuente: Estudios sobre sistemas de financiación de la Educación Superior IESALC-UNESCO. 2.! Los Doce Pilares de la Competitividad: N°

Pilar de Competitividad

1

Instituciones

2 3 4 5

Infraestructura Estabilidad Macroeconómica Educación Primaria y Salud Educación Superior y Entrenamiento Eficiencia de Mercados de Bienes Eficiencia del Mercado Laboral Sofisticación del Mercado Financiero Rendimientos Tecnológicos Tamaño del Mercado Sofisticación de los Negocios Innovación

6 7 8 9 10 11 12

3.! Posicionamiento del Talento y Crecimiento: Derechos reservados COPIMERA 2015

334

Economía basada en: Factores Productivos

Eficiencia de Procesos

Innovación


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

Matrícula Educación Superior América Latina Quinquenio

Matrícula

Millones

1970

1646,308.00

1.65

1975

3450,526.00

3.45

1980

4622,364.00

4.62

1985

5936,846.00

5.94

1990

6701,373.00

6.70

1995

8146,843.00

8.15

2000

11269,127.00

11.27

2005

15932,105.00

15.93

Tasa de Cobertura Educación Superior América Latina Quinquenio

Derechos reservados COPIMERA 2015

%

1970

7.03%

1975

12.27%

1980

14.22%

1985

15.77%

1990

16.45%

1995

18.43%

2000

23.04%

2005

31.07%

335


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

4.+ Cifras de la Calidad de la Educación en Honduras:

una tasa promedio de 6.4 % entre 1996 – 2010. En Honduras se ofrecen a la fecha un total de 378 carreras Actualmente el Sistema de Educación Superior hondureño ha diversificado los niveles de estudio, de tal forma que de las 379 carreras autorizadas, 56 se ofrecen en el nivel de grado asociado (técnicos universitarios), 203 en el nivel de licenciatura, 89 maestrías, 26 especialidades y sub-especialidades y 5 doctorados. De igual manera el Sistema de Educación Superior hondureño marca, en un primer momento, una tendencia de matrícula alrededor de los sectores de estudio de Ciencias Sociales, Enseñanza Comercial y Derecho y en un segundo momento, se inclinan por carreras vinculadas por la Educación, Ingeniería, Industria y Construcción, Salud y Servicios Sociales.

Los indicadores de la educación superior de Honduras están muy por debajo de los registrados en países como Estados Unidos, Finlandia y República de Corea que superan una cobertura arriba del 80% y del 60% en Argentina, Cuba y Uruguay. En el ámbito centroamericano, Costa Rica tiene 55 universidades, de las cuales 5 son estatales y 50 privadas; Nicaragua cuenta con 52, 4 públicas y 48 privadas; Panamá, 41 universidades 5 son estatales y 36 privadas. Muy por debajo de esa cifra se encuentra El Salvador con 24 universidades, de las cuales 1 es estatal y 23 son privadas; Honduras tiene 21 Centros de Educación Superior, 6 estatales y 15 privadas; Guatemala posee 13 Universidades, 12 privadas y 1 pública.

No obstante, autoridades de la educación superior del país indican que se debe impulsar sectores como el de las Ciencias, Agricultura, Humanidades y Artes, entre otras áreas de la educación superior.

5.! La ingeniería Hondureña, entorno actual:

6.! Los grandes retos de la Ingenieria Hondureña: a.! Contribuir al mejoramiento de capacidades de los profesionales ingenieria b.! Construir, rehabilitar y mejorar infraestructura c.! Solucionar el problema energético d.! Fomentar el emprendedurismo e.! Avanzar en la implementación de Tecnologías de información comunicación (TIC´s) f.! Desarrollar medicamentos accesibles g.! Hacer ingenieria a partir de descubrimientos científicos

Algunos indicadores señalan que la población meta en Educación Superior en Honduras, la constituyen ciudadanos con edades comprendidas entre los 18 y 24 años de edad que culminaron la educación media y también la población adulta mayor de 24 años que haya finalizado la educación media completa. La demanda inmediata es la población integrada en el segmento de los 18 a los 24 años, que para el 2011 se estimaba en 1,103, 726 de personas y la demanda potencial la constituye la población entre 0 a 17 años estimada en el último censo en 3,659.424 habitantes, quienes se incorporarían a los estudios de educación superior conforme culminen su tercer ciclo de la educación.

la

las y los

7.! Modelo de Desarrollo de Competitividad basado en la Aliansa Gobierno-EmpresaUniversidad y Gremios Profesionales.

El informe de la Direccion de Educacion Superior (DES), indica que la creación de carreras universitarias en el nivel de Educación Superior hondureño creció a

Derechos reservados COPIMERA 2015

las de

336


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

EL DIAMENTE DE COMPETIVIDAD: Basado en el aprovechamiento de la Tecnologia e Innovación.

GOBIERNO PLANEACION! REGULACION! LEGISLACION!

EMPRESAS INVERSION IMPLEMENTACION COMPETITIVIDAD

UNIVERSIDADES •! EDUCACION! •! INVESTIGACION! •! DESARROLLO! TECNOLOGICO!

CIMEQH/CICH CERTIFICACION! ACTUALIZACION! INNOVACION!

Derechos reservados COPIMERA 2015

337


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

+ SOMOS+IMPORTANTES+ UNA+VISIÓN+DE+LA+INGENIERÍA+E+INNOVACIÓN+ANTE+LOS+DESAFÍOS+DE+LA+ COMPETITIVIDAD+ +

Daniel López Rodríguez San Pedro Sula, Honduras daniellopez76@hotmail.com !

Resumen+

toma de decisiones que incluya los conceptos de valores, ética y moral. Esto permitirá aprovechar las grandes oportunidades de mejorar los negocios mediante la honestidad, el respeto y acatamiento de las leyes.

Satisfacemos nuestras necesidades mediante un proceso de toma de decisiones que inicia con nuestras creencias sobre la realidad. Estas creencias deberían provenir del conocimiento científico para que los resultados de ese proceso nos proporcionen el bienestar buscado. ¿Qué respuesta nos ofrece la Nueva Física (Relatividad, Mecánica Cuántica) a las siguientes preguntas sobre la realidad en que vivimos?

Introducción+ En los tiempos actuales es necesario que los trabajadores del conocimiento tomen decisiones a todo nivel, en contraste con los tiempos de la revolución industrial cuando las decisiones eran tomadas por un reducido grupo de personas y ejecutadas por muchos trabajadores. Esto significa que la complejidad de una organización crece cuando ella crece y por lo tanto el proceso de toma de decisiones se vuelve más complicado. Para satisfacer nuestras necesidades utilizamos un proceso de toma de decisiones que nos da resultados que deberían proporcionarnos bienestar o deleite. En el Anexo A se muestra un mapa conceptual del proceso generalizado y simplificado de ese proceso de toma de decisiones. Este proceso inicia con nuestras creencias y pasa luego por reglas establecidas en normas morales y en leyes dadas por las autoridades de la sociedad en que vivimos. Nuestro patrón de comportamiento queda establecido, entonces, por nuestras creencias y las normas que apliquemos o que no apliquemos. Si queremos que nuestra empresa incremente su cuota en el mercado teniendo la creencia que todos nuestros actos quedan impunes y no aplicamos las leyes, vamos a mandar a dinamitar las instalaciones de todas las empresas competidoras pero seguramente a la larga este comportamiento no nos va a dar bienestar o deleite ya que nos va a conducir a la cárcel. Nuestras creencias, entonces, son parte fundamental de nuestros patrones de comportamiento. En la actualidad estamos viviendo las consecuencias de una revolución científica derivada de la formulación de la Teoría de la Relatividad por Albert Einstein en 1905 y la finalización de la formulación de la Mecánica Cuántica en 1930 por un equipo multinacional de científicos. Esta revolución

¿SOMOS IMPORTANTES o simples espectadores en el universo? ¿Podemos modificar la realidad partiendo de la manera como la vemos? ¿Las partes de un todo son una ilusión? ¿Fluye el tiempo? ¿Todo es un proceso? ¿Todo es interdependiente? ¿Perturbaciones pequeñas pueden producir grandes efectos? ¿Tenemos el poder de cambiar un sistema? ¿La auto-referencia facilita un cambio ordenado en entornos turbulentos? ¿Cuando un sistema evoluciona, también evoluciona su entorno? ¿Nuestras creencias están de acuerdo a las respuestas que nos da la ciencia a esas preguntas? La Ingeniería incrementa la productividad de las empresas y de las economías al estar presente en el centro mismo de las actividades de innovación, entendida como la transformación del conocimiento en riqueza. Ya que La innovación es uno de los pilares que contribuyen a la competitividad, en este artículo se mostrará que ante los desafíos de la competitividad y con creencias verdaderas soportadas por la ciencia, se hace necesaria una nueva forma de ver las empresas, el entorno, a la gente que trabaja en ellas, a todas las partes interesadas y al proceso de Derechos reservados COPIMERA 2015

338


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

científica ha realizado cambios fundamentales en todas las disciplinas del conocimiento humano. Debido a que los descubrimientos científicos toman normalmente un periodo largo para que la humanidad los incorpore como parte de sus creencias verdaderas cotidianas, se hace necesario que sustituyamos las creencias obsoletas por creencias actualizadas ya que ellas son la base de todos nuestros procesos de toma de decisiones. Los objetivos de esta investigación han sido:

herejía haciendo que se retracte de sus afirmaciones y declarándolo culpable con una pena de casa por cárcel. La Iglesia Católica perdona a Galileo más de 350 años después de haber sido condenado. El año en que muere Galileo, nace Isaac Newton, un genio reconocido en vida como el hombre más sabio del planeta. Newton formula de una manera muy elegante las leyes de la mecánica con la cual se da explicación a una multitud de fenómenos desde fenómenos astronómicos, hasta fenómenos hidráulicos y neumáticos. Los descubrimientos de Newton se vienen a sumar a los planteamientos del filósofo, matemático y físico René Descartes y se establece lo que se ha denominado la Visión Cartesiana de la realidad que en forma resumida consiste en lo siguiente:

•! Mostrar la importancia que tiene el ser humano en la naturaleza según los descubrimientos de la Física. •! Contribuir a mejorar nuestra calidad de vida aplicando en la vida diaria los descubrimientos de la Física. •! Mostrar que los seres humanos podemos modificar la realidad partiendo de la manera en que vemos esa realidad. •! Señalar el papel que juegan los pensamientos y la imaginación al modificar la realidad.

•! •! •! •!

Se logran estos objetivos sin tener que recurrir al formalismo matemático que normalmente se usa al tratar temas de Relatividad y Mecánica Cuántica con el propósito de que puedan ser entendidos y aplicados en la vida diaria por un público que no tenga ninguna formación profesional en física y que esto se logre de la misma manera que una persona usa un teléfono celular o una computadora sin necesidad de entender cómo funcionan.

•! •! •! •! •! •!

I.+ Breve+historia+del+pensamiento+cientifico+ En el Anexo B se incluye una línea de tiempo que muestra los acontecimientos más relevantes de la historia del pensamiento científico hasta 1930, año en que se termina de formular la Mecánica Cuántica. El conocimiento puramente deductivo de Aristóteles prevaleció como el conocimiento válido a lo largo de muchos siglos. Se aceptó que la tierra era el centro del universo y ésta creencia fue promovida por la autoridad religiosa para convertirla en un dogma. Durante todo ese tiempo no existió el método científico tal como lo conocemos hoy en día y todos los resultados estaban basados en la observación y la deducción. Copérnico observa el cielo y concluye que la tierra no es el centro del universo pero tratando de evitar el castigo que pudieran significar sus descubrimientos tarda 50 años en publicarlos de una manera muy discreta. Aquí podemos observar un primer ejemplo de cómo creencias firmemente establecidas tratan férreamente de contraponerse a nuevas ideas y comprobaciones. Galileo Galilei ha sido denominado como el padre de la ciencia y algunos historiadores consideran que la ciencia nace con Galileo. Con una personalidad rebelde no tiene ningún temor en expresar sus ideas llegando a declarar que la tierra no es el centro del universo ya que gira alrededor del sol provocando que las autoridades eclesiásticas lo juzguen por Derechos reservados COPIMERA 2015

El ser humano es un espectador en el universo El universo funciona como un reloj El ser humano funciona como un reloj Para entender el todo hay que entender las partes (fragmentación) El tiempo es absoluto Se separa la mente del cuerpo Se separa el ser humano de la sociedad Se separa la sociedad de la naturaleza “Pienso luego existo”. Solo tienen validez las conclusiones provenientes del pensamiento lógico, no hay espacio para la intuición. Se separa el pensamiento de los sentimientos y las emociones

Como resultado de la aplicación de esta visión Cartesiana de la realidad se da inicio a una gran revolución tecnológica en el planeta. Como ejemplo de esto mencionamos que los hermanos Wright hacen su primer vuelo en 1903 y tan solo 66 años después un ser humano pone un pie en la luna en 1969. Con la publicación “Una Teoría dinámica del Campo Electromagnético”, James Clerk Maxwell establece de una manera brillante que la electricidad, el magnetismo y la luz son manifestaciones del mismo fenómeno: el campo electromagnético. Los “campos” llegan a tener una naturaleza tan real como la materia y se comienza a comprender que en las cosas invisibles y aparentemente vacías existe una gran actividad que tiene manifestaciones mucho más allá del alcance de nuestros sentidos. Antes del fin del siglo XIX el conocimiento científico prevaleciente ya no es suficiente para dar explicación a varios fenómenos. En 1905, Albert Einstein publica su Teoría Especial de la Relatividad, la cual, a juicio de algunos historiadores, no fue entendida en ese momento por más de 5 personas en todo el mundo ya que proponía conceptos que chocaban con el sentido común. Einstein fue postulado al Premio Nobel en 11 oportunidades y aparentemente el premio no le fue otorgado por la dificultad en entender la Relatividad. Finalmente se le 339


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

•! La energía se da en porciones o cuantos y no en forma continua •! Las partículas se comportan como ondas y como partículas •! Un electrón pasa al mismo tiempo por dos ranuras contiguas. •! Un gato puede estar vivo y muerto al mismo tiempo. •! Coexisten a la par muchos universos paralelos. •! La independencia de las cosas es una ilusión. Todo lo que existe, incluyendo el comportamiento humano, está interconectado. •! Todo depende de todo •! No hay del todo partes. Las partes son una ilusión. •! Todo lo que ocurre es un proceso.

otorga el Premio por sus aportaciones en el fenómeno fotoeléctrico. Albert Einstein sacó una serie de conclusiones del fallido experimento de Michelson-Morley quienes intentaron medir la existencia del éter en el universo. Estas conclusiones son las que dan origen a una nueva Mecánica: la Teoría de la Relatividad. Esta teoría establece la dependencia entre las mediciones que se realizan y el movimiento respecto del observador que las realiza. Establece relaciones nuevas entre las magnitudes distancia, masa, tiempo, velocidad y energía. Ya que las partículas subatómicas (neutrón, protón, electrón, etc...) se mueven en el átomo a velocidades comparables con la velocidad de la luz; no es posible llegar a resultados correctos en los estudios que se hagan sobre ellos, si no se utilizan las correcciones relativistas. La Mecánica Cuántica, al igual que la Teoría de la Relatividad, nace de investigaciones experimentales del estudio de las propiedades de la radiación de un cuerpo negro por Max Planck; extendiéndose a la interacción entre los cuerpos materiales y a la radiación electromagnética, dando lugar a los conceptos de la dualidad onda-partícula; y posteriormente a las teorías atómicas y nucleares. Las propiedades de las partículas de los sistemas atómicos y sub-atómicos difieren de las propiedades de los cuerpos macroscópicos. Las leyes y principios de la Mecánica Clásica y el Electromagnetismo Clásico son insuficientes para describir apropiadamente la Física de los átomos, moléculas y partículas elementales individualmente. La Mecánica Clásica Newtoniana es capaz de proporcionar la explicación correcta del comportamiento de los cuerpos en movimiento a bajas velocidades, pero no es capaz de lo mismo a velocidades altas comparables a la velocidad de la luz. A continuación se listan los descubrimientos más relevantes al contenido de este escrito tanto de la Teoría de la Relatividad como de la Mecánica Cuántica: •! El hombre no es solamente un espectador en el universo sino que es un componente integral (SOMOS IMPORTANTES). •! Cada persona representa el papel principal de la historia y normalmente no lo sabe. •! No hay una “duración real” ni una “distancia real” •! No hay ninguna ley que sea absoluta. •! La materia es una ilusión ya que es energía e información. •! Elasticidad del tiempo y del espacio •! El mundo consiste de eventos en lugar de cosas •! El tiempo depende de la velocidad •! Equivalencia entre masa y energía (E=mc2) •! Existencia de la antimateria •! Posibilidades de viajes en el tiempo •! La masa y el tamaño de un cuerpo depende de la velocidad. •! El tiempo no fluye (el fluir del tiempo es una ilusión). •! No existen cosas sino “interconexiones” entre las cosas. •! La relación lo es todo.

Derechos reservados COPIMERA 2015

II.+Nueva+forma+de+ver+la+realidad+ A finales del siglo XIX el psicólogo George Stratton diseñó unas gafas con las cuales invertía la realidad de arriba abajo. El mundo aparecía completamente diferente, al ponerse las gafas la persona se sentía desorientada y mareada. Esto sirvió de base para una comprensión mejor del funcionamiento de nuestro sistema perceptivo y darnos cuenta de que poseemos una mente con una gran versatilidad para reaprender el mundo, concluyendo que los seres humanos no estamos condicionados genéticamente para ver el mundo de una sola manera. De hecho, nuestro código genético nos da la capacidad de mirar el mundo de una amplia variedad de maneras. El proceso de ver la realidad de otra manera tiene las siguientes características: •! Si queremos ver el mundo de manera diferente tenemos que hacerlo de manera consciente y en forma voluntaria. Nadie puede hacer que lo veamos de otra manera más que nosotros mismos. •! Cuando comenzamos a ver el mundo de otra manera, las demás personas lo ven como algo extraño al igual que ven a alguien con unas incomprensibles gafas teniendo grandes dificultades e invirtiendo mucho tiempo para leer la etiqueta de algún producto que quiere comprar en un supermercado. •! Para ver el mundo diferente tenemos que pasar por el proceso normal de aprendizaje de cualquier habilidad. Igual que al aprender a manejar un vehículo, tenemos que hacerlo al principio muy lentamente y tomando conciencia de cada paso. •! La nueva forma de ver la realidad tendrá que luchar con la anterior, esto generará una crisis, tratando de que se abandone la nueva visión del mundo. •! Después de superar esta crisis la nueva forma de ver la realidad se puede imponer. Sin embargo como resultado de esa crisis se puede abandonar el propósito de ver el mundo de manera diferente.

!

340


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

III.+ La+innovacion,+la+competitividad+y+sus+ obstaculos+

mantener en el altamente competitivo mercado actual es porque ha tenido una multitud de aciertos. En las empresas podemos enfocar nuestra atención primero en las virtudes de nuestros colaboradores, proveedores, etc, para posteriormente hacer el análisis de sus defectos. Podemos cambiar nuestra realidad hacia una en la cual estamos rodeados de personas llenas de virtudes, sin que con esto estemos negando sus defectos.

La Ingeniería incrementa la productividad en las empresas y en las economías por estar presente en el centro mismo de las actividades de innovación. La innovación debe ser entendida como la transformación del conocimiento en riqueza. Bajo esa óptica se aplicarán los descubrimientos de la Nueva Física y las disciplinas derivadas para tratar de mejorar la calidad en las relaciones empresariales. Se hace necesaria una nueva forma de ver las empresas, el entorno, las personas que trabaja en ellas y que todas las partes estén alineadas con los descubrimientos científicos comprobados. Muchos descubrimientos de la Nueva Física no coinciden con lo que llamamos sentido común y parecen muy extraños. Extraeremos de todos ellos los que se puedan aplicar a los temas de Ingeniería, innovación y competitividad, incorporando además de los descubrimientos de la Teoría de la Relatividad y la Mecánica Cuántica, descubrimientos de la Teoría del Caos y de la Teoría de las Estructuras Disipativas.

El fluir del tiempo es una ilusión. El fluir del tiempo es solamente una ilusión, similar a la ilusión de vivir en un planeta inmóvil cuando sabemos que la tierra gira alrededor de su eje a velocidades superiores a la de un avión jet comercial y que también gira a una velocidad mucho más alta alrededor del sol. Estamos construidos genéticamente de tal manera que lo percibimos de esta forma como que realmente el tiempo fluye y que estamos en un planeta inmóvil. Tanto el pasado como el futuro son fenómenos mentales. El pasado es producto de la memoria y el futuro es producto de la imaginación. Lo único que es real es el presente. No podemos actuar sobre el futuro de la misma manera en que no podemos actuar sobre el pasado. Solamente podemos actuar en el presente. El futuro se construye en el presente. Es necesario planificar el futuro pero no más allá de que esto nos impida actuar en el presente.

La materia es una ilusión. Lo que percibimos como material es energía e información. Ya que la materia es una ilusión percibida como tal pero en realidad es energía e información y nuestros pensamientos e imaginación también son energía e información se puede concluir que podemos transformar de una forma de energía a otra y podemos materializar nuestros pensamientos. Lo anterior es fácilmente comprobable ya que no hay ninguna creación de los seres humanos que no haya pasado primero por ser imaginado por una persona. Somos Importantes y podemos materializar nuestros pensamientos, tomando en cuenta que todas las leyes que rigen el universo deben actuar hacia ese fin, sin esperar que esa materialización sea inmediata o mágica.

Lo que percibimos como vacio es una ilusión. Allí se encuentra la mayor actividad del universo. Si bien es cierto que vivimos en una sociedad materialista, tenemos que valorar aquellas cosas que no son materiales como la intuición. La meditación ha venido siendo una recomendación cada vez más insistente de parte de los expertos en manejo de empresas. Existe un mundo invisible en el cual se desarrolla una gran cantidad de actividad del universo Todo es un proceso. Los estados intermedios de los procesos son una ilusión.

Podemos cambiar nuestra realidad y convertirla en una realidad llena de oportunidades, de aciertos y virtudes después de ser una realidad llena de problemas, errores y defectos.

A nivel empresarial se hace necesario aplicar el principio del enfoque basado en procesos. El hecho de considerar las actividades agrupadas entre si constituyendo procesos, permite a una organización centrar su atención sobre áreas de resultados que son importantes para conducir a la organización hacia la obtención de los objetivos deseados.

Podemos cambiar nuestra realidad convirtiéndola en otra llena de oportunidades, ya que detrás de cada problema siempre hay oportunidades que a veces quedan ocultas porque tenemos un reflejo condicionado de enfocarnos solamente en el problema. Esto no significa que no vamos a ver el problema, pero si el problema lo abordamos después de haber visto la(s) oportunidad(es) que lo acompañan, hasta nuestro estado de ánimo va a ser diferente cuando abordemos los problemas. Tenemos tendencia a ver primero los errores antes que los aciertos. Cambiando nuestra forma de ver la realidad podemos llenarla de aciertos y bajo esta perspectiva analizar también nuestros errores. En el ámbito empresarial podemos ver nuestros equipos de trabajo como un grupo de personas con grandes aciertos. Cualquier empresa que se ha logrado Derechos reservados COPIMERA 2015

Las partes de un todo son una ilusión. Una herencia de la Visión Cartesiana de la realidad es la fragmentación que se produjo con la creencia que comprendiendo las partes podríamos comprender el todo y la cual se ha convertido en un obstáculo para que podamos percibir el todo y dificultando la visión sistémica de la realidad. Eso nos conduce a que por lo general nos enfoquemos en tratar los síntomas de los problemas y no sus verdaderas causas, 341


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

posiblemente porque, por no ver el sistema total, dichas causas pudieran estar alejadas tanto en el espacio como en el tiempo de sus efectos. Al analizar una “parte” del sistema tenemos que hacerlo sin perder de vista el sistema completo.

La Teoría de las Estructuras Disipativas nos demuestra que, contrario a lo que hemos pensado, no es el medio ambiente el que condiciona al sistema sino que el sistema puede modificar su medio ambiente. El cambio ordenado de un sistema hacia un sistema más evolucionado es auto-referente. Esto significa que todo lo que necesita el sistema para alcanzar un estado más evolucionado, ya lo tiene dentro de sí, no necesita ningún elemento adicional externo (los cuales, si existieran, podrían contribuir a la evolución). A nivel de individuo (una estructura disipativa) se puede evolucionar con lo que tenemos a mano. A nivel de empresa significa que siempre se puede evolucionar continuamente hacia organizaciones más evolucionadas porque ya se cuenta con todo lo necesario para hacerlo. A nivel de país significa que tenemos todo lo necesario para establecer nuestro propio modelo de desarrollo para poder evolucionar hacia un país con un mayor crecimiento económico, con mayor educación de su población, con una mejor atención a su salud, con mejores oportunidades de empleo….etc. La Teoría de Estructuras Disipativas también nos dice que cuando un sistema evoluciona, evoluciona también todo lo que está a su alrededor. A nivel personal, cuando se evoluciona, también evoluciona la familia, la empresa, la comunidad. Si la empresa evoluciona también evoluciona toda la industria en que opera. Si el país evoluciona, también evoluciona toda la región.

Nuestra “independencia” es una ilusión. Todo lo que hago afecta a todo el universo. Todo en el universo es interdependiente. Todo afecta a todo. Todo el bien que hacemos también nos lo hacemos a nosotros mismos y también todo el mal que hacemos nos lo hacemos a nosotros mismos. No nos quitamos un hongo en una uña disparándonos con una escopeta a nuestro pie porque podemos identificar de inmediato el daño que nos haríamos a nosotros mismos, sin embargo a veces nos hacemos daño porque las consecuencias de nuestros actos no las percibimos con tanta inmediatez ni en el espacio ni en el tiempo. Este principio de interdependencia descubierto por la Mecánica Cuántica y demostrado experimentalmente tiene como consecuencia que el hacer el bien a nuestros semejantes, al medio ambiente y en general a todo el universo no es una cuestión de moralidad ni de ética sino que de conveniencia hacia nosotros mismos. Si con actos deshonestos o promoviendo la corrupción le estamos haciendo daño a alguien, podemos concluir sin lugar a dudas, que nos estamos dañando a nosotros mismos.- Comprobado científicamente.

La profesión de la ingeniería está en el centro mismo de las actividades de innovación. Al aplicar el conocimiento científico y tecnológico a procesos y productos, fabricándolos más eficientemente, con mejores materiales, con menor consumo de energía o con menores costos ambientales. El conocimiento y la práctica de la ingeniería constituyen un requisito indispensable para la creación de productos nuevos, lo que facilita el camino para que surjan empresas e industrias nuevas y altamente competitivas. Para iniciar y desarrollar actividades innovadoras, es necesario contar con nuevos conocimientos, recursos, capacidades y competencias, de manera tal que se logre avanzar más rápido que los competidores a partir del conocimiento del entorno como instrumento clave para la toma de decisiones adecuadas. El conocimiento y la aplicación de los descubrimientos de la Nueva Física pueden ayudar en estas actividades al contribuir a mejorar las capacidades y competencias propias de cada individuo y de los sistemas. Los últimos avances sin precedentes del conocimiento científico y tecnológico continuarán incrementándose, con el gran potencial de mejorar la calidad de vida de la población mundial y con grandes implicaciones para la economía global. No se puede pensar en no asociar el desarrollo cultural y socioeconómico de un país de sus avances en ciencia y tecnología. La ciencia, la tecnología y la innovación deben formar parte de la nueva cultura corporativa de manera que las empresas, sin importar los sectores ni su tamaño puedan ser capaces de competir en el nuevo orden mundial.

Perturbaciones pequeñas pueden causar grandes efectos. Debido al gran desarrollo de la capacidad de cómputo en los modelos matemáticos se han podido resolver sistemas gobernados por ecuaciones diferenciales no lineales con una gran velocidad y exactitud. Con anterioridad las ecuaciones se convertían a sistemas de ecuaciones lineales dada la gran complejidad al tener que resolver esos sistemas de ecuaciones. Recordemos que en la naturaleza todos los sistemas son no lineales. Como parte de estos estudios se pudo comprobar que variaciones en las cifras decimales más pequeñas de las variables del modelo matemático producían grandes cambios en las respuestas de los sistemas. Este fenómeno dio origen a la formulación de la Teoría del Caos la cual en su oportunidad fue publicitada diciendo que el aleteo de una mariposa en California podía causar una tormenta de gran magnitud en Japón. Aplicando lo anterior en la práctica de la Ingeniería para lograr la innovación que aumente nuestra competitividad, no podemos descartar ninguna acción que pudiéramos considerar como muy pequeña o insignificante. En los sistemas dinámicos gobernados por sistemas de ecuaciones no lineales las perturbaciones por muy pequeñas que estas sean, pueden causar grandes efectos. La auto-referencia es lo que facilita un cambio ordenado en medios ambientes turbulentos.

Derechos reservados COPIMERA 2015

342


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

Crecer - y aun solo sobrevivir - en la era de la globalización exige aprender y practicar formas más eficientes de liderar las empresas. Las capacidades y la educación de los líderes y colaboradores constituyen los recursos competitivos dominantes. Se requiere de un proceso de transformación ya que en esta nueva era el estilo de gestión prevaleciente ha dejado de ser funcional ya que está basado en algunas creencias que corresponden a la Visión Cartesiana de la Realidad. Muchas empresas continúan teniendo la creencia que las personas son máquinas vivientes cuyo trabajo principal es cumplir órdenes. Recordemos que Somos Importantes. De acuerdo al Reporte Global de Competitividad 20142015 de Klaus Schwab del Foro Económico Mundial, se define la competitividad como el conjunto de instituciones, políticas y factores que determinan el nivel de productividad de un país. Son muchos los factores que gobiernan la productividad y competitividad y esto ha ocupado las mentes de economistas por cientos de años. Los componentes que se miden para estimar el nivel de productividad y competitividad de una economía se han agrupado en 12 pilares y uno de esos pilares es la innovación. Al medir la competitividad, Honduras ocupa la posición No.100 comparado con Suiza y Singapur que ocupan la posición No.1 y No.2 respectivamente. Si queremos aplicar para esta situación lo que hemos recomendado en este documento tendríamos en primer lugar cambiar la siguiente afirmación del reporte de competitividad:

Los estados anímicos son determinantes en el rendimiento laboral. Las empresas que fomenten políticas para que sus colaboradores tengan un estado anímico positivo aumentarán la creatividad, la cooperación y la productividad. La innovación es uno de los pilares que contribuyen a la competitividad y ante sus desafíos se hace necesaria una nueva forma de ver las empresas, el entorno, a las personas que trabajan en ellas, a todas las partes interesadas y al proceso de toma de decisiones que debe incluir los conceptos de valores, ética y moral, dadas las grandes oportunidades de mejorar los negocios mediante la honestidad, el respeto y acatamiento de las leyes. Esto debe conducirnos a creer en nosotros mismos. América Latina ha experimentado en los últimos 20 años un despertar intelectual enorme, la disponibilidad de información a nivel global nos presenta la oportunidad de competir cara a cara con talentos de innovación a nivel global siempre y cuando nos apoyemos en creencias que estén alineadas con el conocimiento científico.

Agradecimientos+ Agradezco a mis hijos, Daniel Ricardo López Y., Ligia Marisa López Y., Cristian Leonardo López Y., quienes me han apoyado incondicionalmente en este y todos mis proyectos. Agradezco a mi esposa, Irma Leticia Castejón, quien me ha acompañado por más de 15 años en cada una de las veces en las cuales, a través de conferencias presenciales, he expuesto estos conceptos a una gran diversidad de auditorios. También le agradezco a ella el tener que haberse adaptado cuando yo he intentado poner en práctica en mi propia vida los descubrimientos de la Nueva Física. Agradezco también a todos los auditorios que me han honrado con su presencia y paciencia escuchando estos conceptos.

“Los factores más problemáticos para hacer negocios en Honduras son la corrupción, el crimen y el robo”. Tendríamos que empezar por escribir lo anterior de la siguiente manera: “En Honduras los factores que nos ofrecen las mejores oportunidades de mejorar los negocios son la honestidad, el respeto y acatamiento de las leyes y las acciones voluntarias de hacerle el bien a alguien”.

REFERENCIA The Structure of Scientific Revolutions Thomas S. Kuhn A Brief History o Time – From The Big Bang To The Black Holes Sthepen Hawking The Fifth Discipline: The Art and Practice of the Learning Organization Peter Senge Compendio de Normas INTE-ISO 9000:2000 – INTEC La Ciencia, Su Método y Su Filosofía Mario Bunge The Global Competitiveness Report 2014-2015 Klaus Schwab, World Economic Forum

Esta afirmación con estos elementos estimulantes puede conducirnos a realizar prácticas empresariales que conduzcan a aumentar la innovación y por lo tanto la competitividad de Honduras. En el Anexo C se incluye un mapa conceptual en el cual se introducen los conceptos de moral, ética y valores en el proceso de toma de decisiones.

IV.+ Conclusiones+y+Recomendaciones+ SOMOS IMPORTANTES, podemos influenciar el universo que nos rodea y crear riqueza, tanto material como intelectual, a partir de nuestra manera de ver la realidad en que vivimos y de nuestro desempeño de acuerdo a esa visión. Todo lo que hacemos afecta a las demás personas. Los cambios que hacemos hoy, por pequeños que sean, pueden tener grandes repercusiones. Derechos reservados COPIMERA 2015

343


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

Daniel López Rodríguez nace en Tegucigalpa, Honduras en 1952. Grado de Bachiller Universitario en Física en la Universidad Nacional Autónoma de Honduras (UNAH) (1976) y Grado de Ingeniero Electricista Industrial en la Universidad Nacional Autónoma de Honduras (UNAH) (1976) Estudios de especialización en el Curso Panamericano de Metalurgia (1975) Universidad Nacional Autónoma de México (UNAM), el Instituto Politécnico Nacional de México (IPM) y el Instituto Tecnológico de Saltillo en México. Trayectoria de Trabajo Instructor de Laboratorio de Física, Profesor titular en el departamento de Física, profesor titular en el Departamento de Tecnología en la Universidad Nacional Autónoma de Honduras (UNAH), coordinador del Proyecto Multinacional de Metalurgia de la OEA (Organización de los Estados Americanos) en Honduras. Desarrollo de Diseño, Presupuesto y Supervisión de Obras electromecánicas en Consultores en Ingeniería (CINSA) y Técnica en Ingeniería (TECNISA) Construcción en la empresa Nacional de Ingenieros S.A. de C.V. Jefe de Mantenimiento Eléctrico y Jefe de Mantenimiento General en la fábrica de cemento INCEHSA en Comayagua, Honduras. Dirección y administración de proyectos de Ingeniería Civil e Ingeniería eléctrica Sociedad Hondureña de Ingenieros Constructores (SHIC) e Ingeniería Bit. Jefe del Departamento de Ingeniería en el Instituto Nacional de Previsión del Magisterio (INPREMA) Asesor en la implementación de sistemas de gestión de la calidad basados en la Norma ISO 9000 en ETERNA y CONETSA Asesoría a Consultores en Ingeniería (CINSA), Ingeniería Integral, CONPLAN, ASEGER, ADECO. Miembro fundador de la Asociación Hondureña de Física (S.H.F.) como miembro fundador y del Colegio Hondureño de Ingenieros Mecánicos, Eléctricos y Químicos. (CIMEQH No.009). Investigación, elaboración de material, presentación y conferencista para temas de Mecánica cuántica y Relatividad como “Somos Importantes”, “El Tiempo no fluye”, “Aprender a Aprender”.

Derechos reservados COPIMERA 2015

344


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

ANEXO+A+ DIAGRAMA+SIMPLIFICADO+DEL+PROCESO+DE+TOMA+DE+DECISIONES+

Derechos reservados COPIMERA 2015

345


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

ANEXO+B+ +

ANEXO C

Derechos reservados COPIMERA 2015

346


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras

PROCESO DE TOMA DE DECISIONES, MORAL, ETICA Y VALORES

Derechos reservados COPIMERA 2015

347


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

+ DISEÑO+DE+ESTRUCTURA+DE+INTERFAZ+UNIVERSIDAD#EMPRESA+(EDIU)+ +

Nancy Leonor Brambilla Facultad Regional Córdoba, Universidad Tecnológica Nacional, Córdoba, ARGENTINA!

RESUMEN+

La vinculación Universidad Empresa puede ser tratada desde diferentes aspectos conceptuales y teóricos, sin embargo no es un tema sencillo de abordar en la práctica y en muchos casos, los resultados obtenidos al implementar la teoría no han sido del todo adecuados. Fernández de Lucio (2010) argumenta, para explicar las debilidades de la interrelación Universidad Empresa, que “las relaciones de las Universidades con el entorno socioeconómico y su papel en el proceso innovador han sido tratados en la mayoría de los casos exportando teorías, sin ahondar en el conocimiento del fenómeno”.

Se propone analizar alternativas para desarrollar un modelo de vinculación Universidad Empresa específico y ajustado a un caso real: Centro de Metrología CEMETRO de la UTN–FRC, considerando las variables de contorno propias del espacio geográfico: idiosincrasia empresarial, temática del proyecto, actores involucrados, con el objetivo de lograr una aceptable efectividad de funcionamiento del modelo de vinculación, perdurable en el tiempo. El objetivo principal del CEMETRO es ser un agente activo en la articulación de la relación sociedad-universidadempresa y convertirse en una entidad de referencia en el campo de la metrología, calibración y ensayo a nivel nacional e internacional. Durante el proceso de implementación, fueron surgiendo una diversidad de situaciones a resolver para concretar los objetivos. Las mismas fueron desencadenantes del estudio planteado y forman parte de este trabajo.

Si bien presentan un sin número de características distintivas, la interrelación entre las Universidades y su entorno socioeconómico presenta una problemática común, que hace posible desde un análisis general, desplegar soluciones usando enfoques lineales ó interactivos. Sin embargo es fundamental particularizar el estudio acotándolo a cada caso, o bien en áreas similares, para poder conseguir resultados más apropiados y con mayores posibilidades de éxito, ya que las variables de contorno modelan privativamente las alternativas factibles del enlace científico productivo.

Se realiza el estudio del marco teórico de la temática y se exponen los resultados de investigación del estado de la interrelación entre Universidad y sector productivo local. Propendiendo a una generalización del trabajo, se propone el desarrollo de una guía de diseño de estructuras de interfaz, que permitan la adaptabilidad del caso de estudio a otros proyectos tecnológicos, tomando en cuenta las particularidades de cada caso. !! ! INTRODUCCIÓN+

El Sistema de Innovación (SI) como aglutinante Hasta los años 80 las relaciones Universidad Empresa se enfocaron desde una concepción lineal de la innovación en donde, para sacar al mercado nuevos productos o para modificar los procesos de fabricación, se suceden varias etapas que se inician con la investigación científica. A partir de los 80 surge el enfoque interactivo de los procesos de innovación, el modelo de Kline y Rosenberg (1986) subraya el “papel fundamental de la empresa en la concepción de los procesos de innovación”, en las retroalimentaciones entre las fases del! modelo y en las interacciones entre la ciencia y la tecnología en las etapas de los procesos de innovación.

La necesidad de vinculación: planteo del problema. La necesidad de vincular al sector productivo con la Universidad es un tema de vital importancia, entre otras cosas y desde un aspecto global, para el aprovechamiento del conocimiento generado por los recursos humanos en el ámbito académico, a favor de la sociedad toda. Lemarchand et al. (2010), menciona que “las investigaciones en el ámbito universitario tienen su razón de ser cuando producen avances tecnológicos que impactan en mejorar la calidad de vida de la sociedad”. Derechos reservados COPIMERA 2015

Los dos tipos más usuales de mecanismos para fomentar las interrelaciones y la cooperación entre los elementos del sistema de innovación son: las estructuras de interfaz y los instrumentos de fomento de la interrelación. Una EDI es una unidad que dinamiza, en a los elementos de su 348


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

entorno y promueve las relaciones entre ellos. Los instrumentos de fomento de la interrelación son ayudas económicas, principalmente del Estado. En Argentina, el Estado aporta el 70% de la inversión en investigación y desarrollo, según datos del MINCyT1, para favorecer el desarrollo de actividades de cooperación a largo plazo, financiación de proyectos de conjuntos, diversos aportes económicos, entre otros.

OTRI: Oficinas de Transferencia de Resultados de Investigación INTI: Instituto Nacional de Tecnología Industrial INTA: Instituto Nacional de Tecnología Agropecuaria OAA: Organismo Argentino de Acreditación CEQUIMAP: Centro de Química Aplicada de UNC LIADE: Laboratorio de Investigación Aplicada y Desarrollo CIQA: Centro de Investigación en Química Aplicada

En todos los casos, las relaciones Universidad Empresa, deben enmarcarse dentro del SI constituido en el espacio en el que desarrollen sus actividades ambos elementos. Sábato y Botana (1986) en el artículo “La ciencia y la tecnología en el desarrollo futuro de América Latina” enfocaban de este modo la innovación en el ámbito de un país, como “el resultado de una acción múltiple y coordinada del gobierno, la estructura productiva y la infraestructura científico-tecnológica”, representando el sistema de relaciones entre estos elementos por un triángulo. Las vinculaciones entre la estructura productiva y la infraestructura científica son de tipo horizontal por estar dichos elementos en los vértices de la base del triángulo son las más complejas de establecer, según los citados autores.

+ CUERPO+DEL+DOCUMENTO+ Objetivos Se presenta el diseño de un modelo de una EDIU que funcione integrada a Centros Universitarios, y se establece un procedimiento sistemático para que los Centros puedan diseñar sus propias unidades de interacción y a la vez identificar, estructurar y estandarizar el estudio de las variables de mayor impacto.

Actualmente la innovación se representa utilizando los símiles biológicos y el modelo de la triple hélice. González de la Fe (2009) aborda el tema en la interesante publicación “El modelo de triple hélice de relaciones Universidad, industria y gobierno: un análisis crítico” considerando el modelo de Leydesdorff y Etzkowit (2000) como impulsor de innovaciones para la sociedad.

Para la consecución del objetivo general, se trabajó principalmente sobre los siguientes objetivos específicos:

Freeman (1987) definió a los Sistemas Nacionales de Innovación (SIN) como “la red de instituciones en los sectores público y privado cuyas actividades e interacciones inician, importan y difunden nuevas tecnologías”. El SIN funciona con modelos interactivos de relaciones entre los actores de la estructura productiva y la científica, y con mecanismos o herramientas constituido por los instrumentos de fomento de la interacción y las estructuras de interfaz (Manual de Frascati (2002) y OCDE-EUROSTAT (2005) Manual de Oslo).

estudiar el contexto y las alternativas de vinculación del sector científico con el productivo en la región y en otros países referentes, y su análisis por comparación mediante indicadores usuales.

-

describir la variabilidad de situaciones posibles para la vinculación, la evolución del concepto y conocer las estructuras de la interrelación más usuales.

-

investigar y caracterizar el Sistema de Innovación Nacional (SIN) para conocer las herramientas de fomento y planificar alternativas de vinculación en disciplinas claves involucrando a todos los actores del sistema: Universidades, Institutos Tecnológicos, grandes empresas, PyMES, emprendedores.

Metodología

NOMENCLATURA+ UTN-FRC: Universidad Tecnológica Nacional – Facultad Regional Córdoba UNC: Universidad Nacional de Córdoba MINCyT: Ministerio de Ciencia, Tecnología e Innovación Productiva de Argentina EDIU: Estructura de Interfaz Universitaria SIN: Sistema Nacional de Innovación

El estudio del marco teórico de la temática se complementa con un análisis de campo, realizado en el año 2014, para mostrar el estado real de la vinculación Universidad Empresa en la ciudad de Córdoba, Argentina y establecer una comparación con Brasil y España. Los lineamientos generales para utilizar las herramientas e instrumentos del SIN más convenientes en cada momento en el desarrollo de proyectos innovadores, se obtienen con la consecución de los siguientes ítems: -!

1

Dato obtenido de la publicación Indicadores de Ciencia y Tecnología Argentina 2011, año 15, julio de 2013. Ministerio de Ciencia, Tecnología e Innovación Productiva.

Derechos reservados COPIMERA 2015

-

349

conocer las características y el funcionamiento del sistema de innovación, esbozado con sus elementos centrales en la Figura 1;


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

-!

-!

identificar las distintas líneas de financiación para proyectos investigación, desarrollo e innovación, ya sea del gobierno nacional, provincial y otras organizaciones que ayuden a potenciar la innovación en el tejido empresarial;

desde la Universidad, formación continua y prácticas de alumnos en las empresas. Análisis de EDIU desde el contenido de sus páginas Web Se plantea un estudio comparativo de calidad de interrelación de Universidad con empresas desde la observación de sus páginas Web, abordando en base a Ramos Vielba et al. (2008), el análisis de los ítems: Contenidos, Usabilidad y Accesibilidad. El ítem Contenidos de la Web se desagrega a la vez en cuatro elementos: Estructura de contenidos; Datos de otras Oficinas de Transferencia de Resultados de Investigación (OTRI); Información para empresas y Otros elementos adicionales. Los criterios, categorías e indicadores de la evaluación de contenidos presentado por Ramos Vielba en el artículo “Calidad de las sedes web de las OTRI Universitarias Andaluzas” se tomaron como base.

conocer el entramado de redes y los eslabones de la cadena de valor en la temática específica del emprendimiento de interés.

demanda

oferta INNOVACIÓN

Centros Institutos

PyMES E M P R E S A

INTI, INTA CONICET Cámaras Empresariales

Spin-off

Incubadora

U N I V E R S I D A D

INVESTIGACIÓN

Análisis e interpretación de los resultados La Universidad desde la Web Los indicadores tomados abarcan las numerosas funciones de las OTRI, que son estructuras de interfaz diseñadas para su función genérica principal, con gran impacto en los sectores productivos y con inserción en las Universidades. En comparación con lo que ocurre en las OTRI de las Universidades España, del análisis de la situación de vinculación Universidad Empresa en nuestro Argentina surgen algunas debilidades. La información que ofrecen las Universidades en sus Web, en especial las posibilidades que brindan al medio productivo y a las empresas, para vincularse y concretar la transferencia de los resultados de las investigaciones, resultan en general deficientes.

Bancos

Instrumentos de Fomento y Promoción de Ciencia y Tecnología (MINCyT, Agencia, Ministerio de Industria)

Figura 1: Elementos y funcionamiento del SIN

Características de una EDIU+ Una EDIU tiene como misión genérica fomentar y facilitar las relaciones de los investigadores universitarios con las empresas y otros agentes del Sistema de Innovación, para poner en valor los conocimientos y capacidades de los Centros de Investigación y transferir al entorno socioeconómico los resultados de investigación. En este sentido, las EDIU pueden agruparse en torno a tres líneas funcionales estratégicas básicas: la intermediación, la dinamización y la comercialización, que no son excluyentes y habitualmente coexisten. La intermediación apunta a proporcionar soporte técnicoeconómico, en la gestión de proyectos de I+D de los científicos con empresas. La dinamización busca fomentar un cambio de cultura en el personal científico del organismo, de forma que el número de investigadores de la institución en actividades de cooperación y transferencia aumente. La comercialización implica realizar acciones específicas para lograr la explotación y la venta de las tecnologías generadas en el ámbito científico.

Para reflejar la situación mencionada, se investigan las páginas Web de la Universidad Tecnológica Nacional (UTN) y Universidad Nacional de Córdoba (UNC); para analizar sus contenidos, la usabilidad y la accesibilidad de la información que brindan, específicamente la que interpretaríamos más bien como dirigida al sector productivo tecnológico; es decir se busca demostrar con qué se encuentra una empresa o un emprendedor que requiere aportes de conocimientos de la Universidad para resolver un problema tecnológico, para procurar una mejora técnica, una innovación, solicitar servicios de calibración o de ensayos de materiales, entre otros. De los casos analizados, tanto desde información de la Web como de datos recabados en encuestas y entrevistas, podemos inferir que la interacción de esta Universidad pública con la empresa, aunque está declarada como función desde la estructura universitaria, no siempre se desarrolla e implementa en la práctica, siendo en realidad más bien esporádica y limitada a casos particulares y autogenerados por la motivación emprendedora de los integrantes de los grupos de trabajo que deciden utilizar los valiosos laboratorios de investigación de las Universidades y sus conocimientos para brindar servicios y

Los instrumentos de gestión básicos utilizados en una EDIU, individual o conjuntamente son: contratos privados de I+D entre empresas y Universidades, ayudas públicas para actividades en colaboración entre Universidades y empresas, protección de resultados de la investigación, licencias de títulos de propiedad, creación de empresas de base tecnológica nacidas

Derechos reservados COPIMERA 2015

350


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+

asistencias tecnológicas. En este sentido se destacan los casos exitosos: CEQUIMAP y LIADE en UNC y CIQA en UTN.

FORTALEZAS+

La EDIU integrada a Centro Universitario Para lograr resultados más efectivos en la interacción de Centros Universitarios que tiene la misión y la motivación de efectivizar la transferencia de conocimiento al entorno productivo, se propone la creación de una estructura de interfaz universitaria (EDIU) integrada al Centro, esquematizada en la Figura 2, con una alto grado de pertenencia al mismo. En estas condiciones, la EDIU puede ser diseñada, sobre la base de una estructura estándar con sus actividades nominales, pero atendiendo las necesidades y las características distintivas del Grupo y consecuentemente ser utilizada activamente por los propios investigadores, científicos y docentes de los Grupos Universitarios.

•! APARTAMIENTO!FÍSICO!DE!UTN!

•! EQUIPAMIENTO!MODERNO!

•! BAJA!SUSTENTABILIDAD!

•! SISTEMAS! DE! CALIDAD! EN! BASE! A! ISO17025!

•! DÉBIL! CULTURA! EMPRESARIAL,! OBJETIVOS!ACADÉMICOS!

•! ALIANZAS! OTRAS! FACULTADES! DE! UTN!

•! CONCENTRACIÓN! DE! DESTREZA! Y! PERICIA!DEL!RRHH!!

•! CALIDAD! (CAPACIDAD,! EXPERIENCIA! Y! ACTITUD)! Y! COMPROMISO! DEL! RRHH! CON! EL! PROYECTO!

•! POBRE! EFECTIVIDAD! DE! LOS! CANALES! DE! COMUNICACIÓN,! DISTRIBUCIÓN!Y!TRANSPORTE!

•! MANTENIBILIDAD!COMPLICADA!

•! FLEXIBILIDAD!DEL!RRHH!

•! REMUNERACIONES! ESPECÍFICAS!DE!LA!TAREA!

•! PERICIA! PARA! DESARROLLAR! NUEVOS!PRODUCTOS/SERVICIOS!

•! DEPENDENCIA! DE! ORGANIZACIÓN! BUROCRÁTICA!

!

•! INEXISTENTE!FLUJO!DE!CAJA!!

NO!

•! !DÉBIL!CADENA!DE!SUMINISTRO! !

OPORTUNIDADES+

AMENAZAS+

•! SUSTITUCIÓN!DE!IMPORTACIONES!

•! ESCASA! RETENCIÓN! DEL! RRHH! TÉCNICO! POR! INSUFICIENTES! SALARIOS!

•! VINCULACIONES! CON! ACTORES! DEL!SISTEMA!DE!INNOVACIÓN! •! TRABAJOS! CONJUNTOS! ENTRE! UNIVERSIDADES! E! INSTITUTOS! NACIONALES!DE!TECNOLOGÍA! •! FACTIBILIDAD! DE! TRABAJOS! APLICADOS! A! LAS! NECESIDADES! DE!LA!INDUSTRIA!

EDIU

•! POCA!VISIBILIDAD!!

•! !ATENCIÓN!DEFICIENTE!AL!CLIENTE!!

MINCyT y otros financiamientos

UNIVERSIDAD

DEBILIDADES+

•! VINCULACIÓN! DEL! RRHH! CON! EL! ENTORNO! METROLÓGICO:! INTI,! OAA,! INDUSTRIA! (RED! TECNOECONÓMICA)!

•! ACTIVIDADES! RELACIONADAS! AL! CRÉDITO! DEL! SISTEMA! DE! INNOVACIÓN!

SECTOR PRODUCTIVO

!

•! DESACTUALIZACIÓN! DE! EQUIPAMIENTO! Y! SOFTWARE! POR! FALTA! DE! INVERSIÓN! PROGRAMADA! •! ESCASA!PLANIFICACIÓN!A!MEDIANO! Y!LARGO!PLAZO! •! DEMANDA! IRREGULAR! DE! LOS! SERVICIOS!OFRECIDOS! •! ENTORNO!EMPRESARIAL!VARIABLE! •! POLÍTICAS!NACIONALES!VARIABLES! •! SISTEMA! DE! INNOVACIÓN! POCO! PREVISIBLE! !

Figura 3: FODA del CEMETRO Centro Universitario

REDES I+D, ORGANISMOS

Para diseñar y establecer una EDIU los Centros deben determinar las actividades a realizar y su finalidad, definir los procesos claves para cumplir los objetivos, revisar y evaluar los procesos, estandarizar y finalmente organizar los recursos humanos y materiales de la forma más eficiente posible.

Para sistematizar el diseño de una EDIU integrada a un Centro se propone el uso de una guía o procedimiento. Las seis etapas propuestas permiten obtener una importante cantidad de datos para diseñar e implementar de manera esquemática el funcionamiento de una estructura de interrelación conformada dentro del Centro de Investigación, que permita planificar y desarrollar las actividades prioritarias en cada caso y cuyo diseño surge conceptualmente sostenido por las redes establecidas en la temática y enmarcado en la estructura de la organización y del SIN.

Se elabora un análisis de diagnóstico organizacional mediante un FODA del CEMETRO, tomando en cuenta principalmente el entorno, la vinculaciones con los actores del SIN y las alianzas conseguidas en sus primeros dos años de existencia. Desde un punto de vista general, el FODA permite identificar las fortalezas y las debilidades del Centro de Metrología CEMETRO y detectar las oportunidades y amenazas.

Los resultados hallados deben ser analizados y procesados por herramientas de diagnóstico (FODA) para exponer los aspectos positivos, fortalezas y oportunidades y los aspectos negativos, debilidades y amenazas; para tomar decisiones: potenciar las fortalezas, aprovechar las oportunidades, reducir las debilidades y neutralizar las amenazas. Es necesario también incorporar indicadores de evaluación de resultados.

Figura 2: Esquema de funcionamiento de una EDIU integrada al Centro

Derechos reservados COPIMERA 2015

351


XXV#CONGRESO+PANAMERICANO+DE+INGENIERIA+MECÁNICA,+ELÉCTRICA,+INDUSTRIAL+Y+RAMAS+AFINES+ COPIMERA+ OCTUBRE+8#10,+2015,+Tegucigalpa,+Honduras.+ Etapas 1

Detalle

•!

Descripción

ALINEAR INTERESES Detectar necesidades y temas de interés común

2

IDENTIFICAR EL

Desarrollar y entablar relaciones

MERCADO

confiables

3

TENDER REDES

Entramar al Centro

4

CONOCER EL ENTORNO

Acceder al SIN e identificar los

+ AGRADECIMIENTOS+ A la Universidad Tecnológica Nacional Facultad Regional Córdoba, Argentina, por el apoyo brindado para continuar avanzando en el camino del conocimiento.

instrumentos de fomento 5

ENCUADRAR EL PROYECTO

Definir roles y asignar tareas

6

DEFINIR INDICADORES

Un conjunto de indicadores para

articulación del CEMETRO como nodo de la red del Sistema Nacional de Microscopía (SNM) del MINCyT, para servicios de Microscopía de AFM.

Dentro de la Institución

Al Comité Internacional del XXV Congreso Panamericano COPIMERA 2015 por permitirme tomar parte de tan importante evento.

evaluar los resultados

A mi familia, por estar siempre presente respetando mi dedicación al estudio y al trabajo.

Figura 4: Pasos para el diseño de una EDIU integrada a Centro Universitario

Conclusiones

+

Por un lado, en coincidencia con las estrategias de apertura de las Universidades en Argentina, se evidencia una tendencia a mejorar la calidad de sus páginas Web, sin embargo, los contenidos siguen dirigidos principalmente al cliente interno (profesores) y apuntados a la creación de empresas de base tecnológica. La información dirigida a empresas, en las categorías de servicio, transferencia y ofertas científico-tecnológica continúa siendo precaria. Las conclusiones obtenidas en este sentido son representativas del estado general en la región acotada temporal y espacialmente.

REFERENCIA+ 1.! Brambilla, Nancy Leonor (2014) Diseño de Estructura de Interfaz Universidad-Empresa. Estudio sobre caso real: CEMETRO, UTN Tesis Posgrado Maestría en Ciencias de la Ingeniería U.N C., FCEFyN. Repositorio Digital de UNC https://rdu.unc.edu.ar/handle/11086/1622. 2.! Fernández de Lucio, I.; Castro Martínez, E.; Clossier, E.; Mínguez López, O.; Yegros Yegros, A. (2010). Cómo se contempla en las sedes web de las Universidades españolas y francesas sus relaciones con el entorno socioeconómico. CD de memorias del X Seminario Latino Iberoamericano de Gestión Tecnológica, México D.F. (México). ISBN Nº 970-31-0265-4.

La guía propuesta para el diseño una EDIU integrada a un Centro intenta resaltar los temas centrales y comunes de todas las disciplinas, apuntando a la inserción de Centro Universitarios, sin ahondar en la implementación de los roles y tareas básicas propias de las estructuras de interfaz, ya que es posible también delegar algunas de esas tareas a EDIU genéricas de la Universidad, centralizándose el Responsable del Centro y los investigadores en las acciones operativas vitales y en el establecimiento de las redes con los clientes y proveedores.

3.! González de la Fe, Teresa (2009). El Modelo de Triple Hélice de Relaciones Universidades, industria y gobierno: un análisis crítico. ARBOE Ciencia, Pensamiento y Cultura CLXXXV 738, 739-755. 4.! Lemarchand, Guillermo (Ed.). (2010) Sistemas Nacionales de Ciencia, Tecnología e Innovación en América Latina y el Caribe, Estudios y documentos de política científica en ALC, Vol. 1. UNESCO 2010. Oficina Regional de Ciencia para América Latina y el Caribe. ISBN: 978-92-9089-1413.

Se destacan los siguientes resultados obtenidos en el diseño y la implementación de la EDIU integrada al Centro de Metrología Universitario CEMETRO, en el período 2011-2014: •! •!

•! •!

más de 100 transferencias al sector productivo, con desarrollos de técnicas y servicios de medición y calibración, inserción del CEMETRO en el entramado de Metrología y Calidad del país: integra la red de laboratorios supervisados del Instituto Nacional de Tecnología Industrial (INTI SAC) y está acreditado por el Organismo Argentino de Acreditación (OAA). 5 proyectos de Investigación y Desarrollo 5 convenios específicos de trabajo: 2 con el INTI, 1 con el OAA y 1 con la UNC y 1 con el SNM

Derechos reservados COPIMERA 2015

5.+ Ramos Vielba Irene y Clabo Clemente Néstor (2008). Calidad de las sedes web de las OTRI universitarias andaluzas: contenidos, usabilidad y accesibilidad. Revista española de Documentación Científica, Vol 31, No 3. doi:10.3989/redc.2008.v31.i3.434.

352



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.