Revista Ingeniería 2009 Vol 14. No. 2

Page 1

Vol. 14 No. 2 año 2009 Modelo de Ampliación de la Capacidad Productiva Mejoramiento de Gestión Universitaria basado en el Modelo de Sistema Viable Diseño de circuitos analógicos basados en amplificadores operacionales usando algoritmos genéticos con función de aptitud difusa Experiencias sobre el estudio de materiales alternativos para modificar asfaltos Desarrollo de un regulador de carga para sistemas fotovoltaicos aplicando instrumentación virtual


1

Editorial

Revista INGENIERÍA: evolución y nuevos retos

REVISTA

Ingeniería

L

a dinámica propia de la academia conduce de manera natural a la generación de espacios de reflexión, discusión, crítica y divulgación del conocimiento disciplinar, pedagógico y curricular. La Revista INGENIERÍA es uno de esos espacios emergentes que, obedeciendo a las necesidades, iniciativas y motivaciones de la comunidad de nuestra Facultad, se ha convertido en un órgano de difusión de saberes para propios y extraños, vinculando el vernáculo ingenieril a cuestiones de relevancia global, local e institucional, desde la óptica distintiva que caracteriza a la Universidad Distrital (UD). Su tradición, que se remonta a sus inicios en el año 1993, ha discurrido por los altibajos propios de un medio de publicación en búsqueda de identidad, continuidad, congruencia y audiencia, y, en ese camino de declives y empinadas, ha logrado mantener dos aspectos cruciales para su supervivencia como canal de divulgación escrito: su vigencia y su poder de convocatoria. Precisamente, son los lectores y autores los nodos más relevantes de un entramado en donde concurren además editores, revisores, pares y árbitros ávidos (y portadores) de conocimiento, lo que ejemplifica un caso típico de una red social, la red social científica. INGENIERÍA ha logrado evolucionar su red científica hacia una variopinta comunidad de actores, que para el caso del presente número, provienen de diversos orígenes (UD, Universidad Politécnica de Valencia, Instituto Politécnico Nacional de México, Universidad Católica, Universidad Javeriana, Universidad de Oviedo, Universidad de la Sabana), tienen varios niveles de formación (pregrado, maestría, doctorado), y examinan problemáticas vigentes relacionadas con la

impedancia en microrredes de transmisión eléctrica, regulación de sistemas fotovoltaicos, materiales alternativos para asfaltos, gestión de la cadena de suministro, diseño automático de circuitos amplificadores, sistemas viables de gestión universitaria, y optimización de la tardanza total ponderada y de la capacidad en entornos de producción. La pluralidad temática, bajo el prisma creativo de la heterogeneidad de autores, y la lupa crítica de árbitros, pares y editores, garantizan la aportación original, el crecimiento mutuo y la bondad del funcionamiento de la Revista como red científica. Esta mirada a la evolución de la Revista suscita nuevos retos que deben afrontarse de la mano de los avances en las plataformas digitales de entornos colaborativos y de gestión documental. Tales herramientas tecnológicas sin duda potenciarán el impacto, el ámbito y el alcance del conocimiento divulgado en nuestras páginas, pues son estos elementos los que permitirán no sólo sobrevivir, sino consolidar a INGENIERÍA como una revista reconocida y de altos estándares de calidad y pertinencia dentro de la comunidad colombiana ingenieril. Tales desafíos se encuentran en la agenda que nos proponemos adelantar en esta nueva etapa de Coordinación Editorial, la cual asumimos con vocación de servicio y política de puertas abiertas. Por ahora, a manera de reconocimiento, compartimos este espacio con la Nota de Despedida de nuestro Editor anterior, el doctor Germán Mendez, no sin antes agradecer el ferviente interés de nuestros autores en esta edición, así como la preciada colaboración de los evaluadores y editores del Comité Editorial en su realización.

1

Ing. Sergio A. Rojas, MSc., PhD. REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

1


2

Papel de la Universidad al desarrollo del país oy en día la problemática del país necesita más que de una acción individual, de un conjunto de esfuerzos multi-sectoriales para promover el desarrollo de la ciudad, de la región y de la nación. No sólo es indispensable el apoyo de las entidades gubernamentales, financieras y sociales, sino que los centros de formación, y en estos, las universidades, tienen un escenario preparado para que asuman su reto de servir y apoyar en la solución de los problemas del sector productivo y social. La universidad tiene por lo menos tres grandes frentes a cubrir: (1) la necesidad para que se cumpla con las funciones profesionales, investigativas y de servicio social que requiere el país; (2) el adecuado trabajo por la creación, el desarrollo y la transmisión del conocimiento en todas sus formas, expresiones y en todos los campos para solucionar las necesidades del país; (3) su transformación en el motor de desarrollo científico, cultural, económico, político y ético a nivel nacional y regional. Estos tres frentes de apoyo al desarrollo de la nación pueden ser sintetizados en la labor de educación, la integración universidad-empresa y el monitoreo y desarrollo tecnológicos.

REVISTA

Ingeniería

H

NUESTRA PORTADA: Ilustración sobre sistemas fotovoltaicos, mezclas para elaboración de asfaltos e interconexión de inversores. Diseño gráfico y concepto: Grupo de creativos. GRUPO EDITORIAL GAIA

2

Vol.14 No.2

En cuanto a la EDUCACIÓN, conviene una profunda reflexión sobre cómo los programas curriculares de pregrado y posgrado deben ser concebidos como un espacio para el estudio, adaptación y desarrollo de nuevas concepciones metodológicas, que permitan mejorar los niveles de desarrollo en los negocios tanto en el sector público como en el privado. Se debe reconocer la importancia no sólo de manejar las bases teóricas tradicionales, sino de ser el centro de estudios de investigación que motive a la reflexión y a la creación de nuevas formas de gestión del sistema productivo, que inviten a la organización, a la eficiencia global y que sirva de sostén al aparato productivo de la nación, permitiéndole paulatinamente niveles de competitividad adecuados a los requerimientos del mercado. Para ello debe encaminar sus esfuerzos a crear estructuras curriculares que, aunque flexibles, cubran por lo menos las competencias mínimas requeridas por los entes económicos, permitiendo que, una vez concluida la formación por parte de los estudiantes, éstos, puedan brindar soluciones inteligentes, creativas y productivas a la solución de problemas reales, disminuyendo la brecha entre la problemática real y la teórica. La relación entre UNIVERSIDAD Y EMPRESA, aunque bastante discutida hoy por hoy, muestra un saldo en rojo y es que no hay

una verdadera comunión de esfuerzos entre unos y otros actores. De todos es conocido que las respuestas dadas por la Universidad distan mucho de ser las más coherentes con los espacios y recursos de las empresas, pero no menos cierto es que las organizaciones productivas tampoco apoyan decididamente la formación y el trabajo de docentes y estudiantes. No se reconoce que en este esfuerzo hay un camino por recorrer y por aprender, pero que desde luego será más llevadero si se comparten las dificultades y se aceptan las virtudes y deficiencias de unos y otros. Todo aprendizaje trae consigo el echar a perder y que esto cuesta, vale la pena no desesperar y esperar, este esfuerzo deberá iniciar por establecer puentes de comunicación válidos, donde el referente teórico no apague a la necesidad, pero donde tampoco el inmediatismo de la respuesta invite al simplismo de la mediocridad. Finalmente, en cuanto a la labor INVESTIGATIVA, ésta debe ser el diferenciador en el nuevo sentir de Universidad. No se puede seguir con una actitud tan pasiva frente a los retos de una postmodernidad, se debe reconquistar el espacio de antaño donde el eje del desarrollo de las naciones partía del actuar investigativo de los centros de educación; no se puede concebir hoy en día una universidad sin fundamento en la profundización de la ciencia, donde el equilibrio entre el saber y el saber hacer, lo marquen los avances del desarrollo y la tecnología, donde la universidad responda prospectivamente y la empresa sea el gran laboratorio de experimentación y aplicación de dicha ciencia. Pero este reto debe comenzar, y qué mejor que con la ayuda de toda la comunidad universitaria y del concurso de empresarios y entes gubernamentales; entre todos se debe procurar cumplir con los requerimientos de la sociedad en donde permanentemente se esté en la búsqueda por mejorar la productividad individual y colectiva a través de la gestión del personal, los mejores métodos de organización, la tecnología y en particular la que se base en desarrollo de comunicaciones eficientes, la sostenibilidad y respeto por el medio ambiente, y en general, con los esfuerzos de para alcanzar la excelencia académica. Hoy deben ser consientes los dirigentes empresariales, los políticos y los académicos. de que el nuevo rol de la universidad parte y termina en el poder crear una sociedad mejor, donde se conjuguen adecuadamente los recursos naturales y el hombre, donde las estructuras físicas y mentales de dicho ser lo inviten a determinar en cada caso qué debe usar y cómo lo debe usar, en donde, en conjunto, se construya un nuevo y mejor vivir. Ing. Germán Méndez, PhD.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

2


3

REVISTA

Ingeniería

Contenido

Vol. 14 No. 2 año 2009 REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS Publicación admitida en el Índice Nacional de Publicaciones Seriadas Científicas y Tecnológicas de Colciencias

Página

ISSN 0121-750X

4

Editor Ing. Sergio A. Rojas, PhD.

César Leonardo Trujillo Rodríguez, David Velasco de la Fuente, Emilio Figueres Amorós, Gabriel Garcerá Sanfeliú, Rubén Ortega González

Profesor Universidad Distrital Francisco José de Caldas

Comité Editorial Ing. Marco Alzate, PhD. Ing. Rodrigo Herrera, MSc. Ing. Germán Méndez, PhD. Ing. Ana Maria Peña, PhD. Ing. Edwin Rivas, PhD. Ing. Sergio A. Rojas, PhD. ○

13 ○

Análisis de la impedancia de salida en lazo cerrado de inversores funcionando en modo isla, utilizando esquemas droop

Desarrollo de un regulador de carga para sistemas fotovoltaicos aplicando instrumentación virtual Johan Sebastián Patiño Abella, Juan Sebastián Tello Reyes, Johann Alexander Hernández Mora

El Comité Editorial desea expresar su agradecimiento a las siguientes personas por su colaboración en la edición de este número: Álvaro Betancourt Clara Bonilla David de la Fuente Dusko Kalenatic Edwin Rivas ○

Germán Méndez Henry Diosa Jairo Soriano Jairo Torres Javier Guacaneme ○

Jose Luis Villa Juan Carlos Figueroa Laura Marcela Giraldo Lindsay Álvarez Miguel Melgarejo ○

19

Experiencias sobre el estudio de materiales alternativos para modificar asfaltos

34

Propuesta metodológica para la aplicación del modelo Supply Chain Operations Reference

Hugo Alexander Rondón Quintana, Luís Ángel Moreno Anselmi, Daniella Rodríguez Urrego, Jennifer Lee Mariño

Hugo Felipe Salazar Sanabria, César Amílcar López Bello

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

42

Rector Carlos Ossa Escobar

Héctor Hostos, Federico Sanabria, Miguel Melgarejo

Vicerrector Orlando Santamaría Decana Facultad de Ingeniería Laura Marcela Giraldo Carrera 7 No. 40-53 - Teléfono: 323 93 00 ext. 2413 revista_ing@udistrital.edu.co ○

Diseño de circuitos analógicos basados en amplificadores operacionales usando algoritmos genéticos con función de aptitud difusa

51

Evaluación de funciones de utilidad de GRASP en la programación de producción para minimizar la tardanza total ponderada en una máquina Ángela María Niño Navarrete, Juan Pablo Caballero Villalobos

Gestión editorial, diseño gráfico, diagramación e impresión

Grupo Editorial Gaia

59 Tels: 482 2061 - 310 2668311 gaiaeditorial@gmail.com ○

3

María Ramírez Sánchez, Víctor Hugo Medina García, David de la Fuente García

La Revista INGENIERÍA publica artículos con fines únicamente de divulgación. Ni la Revista INGENIERÍA, ni su Editor, ni su Comité Editorial, ni la Facultad de Ingeniería de la Universidad Distrital F.J.C., otorga ninguna garantía, expresa o implícita, o asume responsabilidad alguna por la exactitud, completitud o utilidad de cualquier información, aparato, producto o proceso divulgado, o que represente que su uso no infrinja derechos privados. La mención o referencia a algún producto, proceso o servicio comercial en específico, por su marca comercial, marca registrada, fabricante o cualquier otra denominación, no implica ni constituye su endoso, recomendación o favorecimiento por parte de la Revista INGENIERÍA. Los juicios y opiniones expresadas por los autores en este medio son de su responsabilidad, y no establecen, reflejan o comprometen los de la Revista INGENIERÍA.

Mejoramiento de gestión universitaria basado en el Modelo de Sistema Viable. Caso de estudio: Universidad Libre

67

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Modelo de ampliación de la capacidad productiva Dusko Kalenatic, César Amílcar López Bello, Leonardo José González Rodríguez

Vol.14 No.2

3


4

Análisis de la impedancia de salida en lazo cerrado de inversores funcionando en modo isla, utilizando esquemas droop César Leonardo Trujillo Rodríguez1 David Velasco de la Fuente 2 Emilio Figueres Amorós 3 Gabriel Garcerá Sanfeliú 4 Rubén Ortega González 5

RESUMEN En este artículo se analiza la condición en modo isla, es decir cuando una microrred no se encuentra conectada a la red eléctrica y por ende los inversores que hacen parte de la microrred deben operar como fuentes de tensión en paralelo, con otros equipos de similares características. La temática se centra en la forma de interconectar los inversores sin utilizar ningún tipo de comunicación, a través de esquemas droop. En primera instancia se analiza cómo obtener una impedancia de salida determinada a partir de un lazo de realimentación de impedancia; posteriormente, se plantea la forma de aprovechar las características físicas tanto del inversor, como del controlador, con el fin de alcanzar resultados similares a los que se logran utilizando la técnica de lazo de realimentación de impedancia. Para validar dicho análisis, se realizan simulaciones de inversores conectados en paralelo alimentando una carga y se dan conclusiones. Palabras clave: Esquemas droop, inversor, modo isla, impedancia de salida, microrred.

OUTPUT IMPEDANCE ANALYSIS IN A CLOSED LOOP OF INVERTERS CONNECTED IN PARALLEL OPERATING IN ISLAND MODE. ABSTRACT

1

2

3

4

5

Profesor de la Facultad de Ingeniería, Universidad Distrital. Candidato a Doctor Universidad Politécnica de Valencia. Profesor Departamento de Ingeniería Electrónica, Universidad Politécnica de Valencia. Profesor Departamento de Ingeniería Electrónica, Universidad Politécnica de Valencia. Profesor Escuela Superior de Computo, Instituto Politécnico Nacional de México.

4

Vol.14 No.2

In this paper the island mode condition is analysed. The island mode refers to a microgrid that is not connected to the electrical grid and the inverters have to operate as a voltage source in parallel with others equipments of similar characteristics. This study focuses on how to interconnect the inverters without using any type of communication, by using droop schemes. First, an analisys is performed on how to obtain a certain value of output impedance by using an impedance loop. Then, we propose

to use physical characteristics of the inverter and the type of controller to achieve results similar to those obtained by the impedance loop. In order to validate this analysis, simulations on parallel connection of several inverters supplying power to load are performed. Lastly some conclusions are presented. Key words: Droop schemes, inverter, island mode, output impedance, microgrid.

1. INTRODUCCIÓN En los últimos años, una de las grandes prioridades a escala mundial es el desarrollo de fuentes alternativas de generación de energía eléctrica, y en especial de fuentes renovables las cuales producen una baja contaminación ambiental. Opciones como la energía eólica, solar, biomasa renovable e hidrógeno jugarán un papel importante en el largo plazo, produciendo cambios substanciales en el perfil tecnológico ambiental y organizacional del sistema energético global [1]. La dinámica de cogeneración energética empleando energías renovables, así como la ausencia de energía eléctrica en lugares remotos u apartados de las grandes urbes hace factible el implementar interfaces denominadas microrredes [2], los cuales son pequeños sistemas inteligentes de distribución eléctrica y térmica auto gestionados localmente, capaces de conectarse tanto a la red eléctrica pública de distribución como aislados de la misma (condición en modo isla). En este artículo se analiza la condición en modo isla, donde los inversores, los cuales adaptan la energía proveniente de una fuente de energía primaria por la carga, hacen parte de la microrred y deben operar como fuentes de tensión en paralelo con otros equipos. Aunque existen diferentes alternativas para conectar en paralelo los inversores, este artículo se centra en la forma de interconectar los inversores sin utilizar ningún tipo de comunicación, a través de esquemas

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

4


5

Figura 1. Diagrama de bloques del inversor implementado.

droop. Para ello se ha implementado un inversor monofásico (sección 2). El artículo se ha esquematizado de la siguiente manera: en la sección 2 se hace una descripción del sistema implementado. En la sección 3 se hace una breve síntesis de los esquemas droop, se aborda el análisis de la impedancia de salida del sistema y se implementa el esquema droop correspondiente. En la sección 4 se presentarán los resultados de la simulación realizada en PSIM [3] y finalmente se presentan las conclusiones.

2. DESCRIPCIÓN DEL INVERSOR MONOFÁSICO IMPLEMENTADO La figura 1 muestra el diagrama de bloques de la estructura de control del inversor implementado, el cual consiste de un inversor monofásico de 440W, que conmuta a una frecuencia de 20kHz, utiliza modulación bipolar sinusoidal por ancho de pulso SPWM [4] y cuyos parámetros se listan en la Tabla 1. Tabla I. Parámetros del inversor implementado Parámetro Valor 400V Tensión de las baterías (V DC) 430W Potencia máx. entregada por el inversor (Ppo)

5

Tensión de salida del inversor (VO) Frecuencia de salida del inversor (fg) Inductor de salida del inversor (L)

230VRMS 50Hz 19.1mH

Condensador de salida del inversor (C) Resistencia de Amortiguación (R d) Frecuencia de conmutación del inversor (fsi)

600nF 50Ω 20kHz

El inversor controla la corriente y la tensión de salida (230VRMS a 50Hz), para lo cual se implementó un control modo corriente media (ACC) [5], el cual presenta la ventaja comparativa de poseer una respuesta más plana de la función de transferencia de corriente en

el inductor, respecto de la tensión de referencia. Además, exhibe menos distorsión que el control de corriente pico (CIC) [6] para generar corriente alterna. El control modo de corriente opera de la siguiente forma: la tensión de referencia del controlador de tensión de salida es suministrada por los esquemas droop (sección 3.), que se basan en el hecho de emular el comportamiento de los generadores de potencia, los cuales disminuyen su frecuencia y/o amplitud de tensión cuando la potencia consumida, activa y/o reactiva, se incrementa [4]. El control de la tensión de salida del inversor se realiza a través de un controlador PI, cuya salida impone la referencia de corriente al controlador de corriente de salida, implementado a través de un controlador resonante (o controlador armónico) [7]. Los controladores resonantes tienen la ventaja de introducir en el lazo una alta ganancia a la frecuencia de la señal de consigna y proveer a la salida la contribución necesaria para anular el efecto causado por las perturbaciones de la red eléctrica. Para el diseño de los controladores es necesario identificar las funciones de transferencia de las variables a controlar. Las funciones de transferencia se extraen siguiendo la técnica de modelado del conmutador PWM [8]. 2.1 Modelo de pequeña señal del inversor implementado

Para realizar un control realimentado lineal a partir de un circuito inherentemente no lineal como es un convertidor conmutado, hay que

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

5


6

Con base en las pequeñas perturbaciones en torno al punto de operación se establece el modelo en pequeña señal (figura 3) [5]. En la figura 3 las magnitudes vDC,iL,d y v0, denotan que son términos de pequeña señal. Figura 2. Modelo equivalente del punto de operación del inversor.

A partir del modelo la figura 3, se obtiene la función de transferencia que relaciona la corriente en el inductor al ciclo de trabajo, GIL_d(s) y la función de transferencia que relaciona la tensión de salida del inversor a la corriente en el inductor, GVo_IL(s), esto con el fin de aplicar el control modo corriente media. Dicho control plantea la existencia de un lazo interno de corriente y un lazo externo de tensión que fija la referencia del primer lazo. En la Tabla 2 se muestran los parámetros (función de transferencia, frecuencias de cruce y márgenes de fase) de los controladores de corriente y tensión seleccionados para este estudio.

Figura 3. Modelo de pequeña señal del inversor. Tabla II. Parámetros de los controladores de corriente y tensión seleccionados para el estudio

linealizar la etapa de potencia. Ante pequeñas perturbaciones en torno a un punto de trabajo el convertidor conmutado tiene un modelo lineal de pequeña señal, a partir del cual se pueden diseñar reguladores lineales para cerrar lazos de control de diferentes características [8]. En la figura 2 se presenta el modelo equivalente del punto de operación del inversor implementado; la carga del inversor es de tipo resistivo. Donde, D(t) es el ciclo de trabajo en el punto de operación y D’(t)=2•D(t)-1. La ecuación 1, muestra las relaciones establecidas para la corriente en el inductor, IL(t), y el ciclo de trabajo, D(t), en el punto de operación.

(1)

3. ESQUEMAS DROOP Los esquemas droop se basan en el concepto ampliamente conocido para el manejo del flujo de potencia en sistemas a gran escala, que consiste en disminuir la frecuencia de los generadores AC cuando su potencia de salida se incrementa [9]. La idea fundamental es emular a través del inversor el comportamiento de la dinámica de los generadores AC. A manera de ejemplo se aborda el estudio del flujo de potencia en estado estable a través de una línea de transmisión entre los puntos A y B de un sistema en corriente alterna (figura 4).

Figura 4. Flujo de potencia a través de una línea de transmisión.

La potencia activa y reactiva del esquema de la figura 4, están dadas por las ecuaciones (2) y (3). (2)

Siendo

y (3)

6

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

6


7

Dependiendo de la característica de la línea se pueden presentar dos casos que determinan relaciones entre la potencia activa y la potencia reactiva, en función de la tensión y/o la frecuencia. El primer caso es cuando Z es puramente inductiva (Z=jX), con lo cual se tiene θ=90O, y las ecuaciones (2) y (3) se reducen a (4) (5)

De las anteriores ecuaciones, y considerando pequeñas diferencias de fase entre VA y VB, se puede apreciar la fuerte dependencia de P con respecto al ángulo ä, mientras que Q depende de la diferencia de amplitud entre las tensiones VA y VB. En el inversor la frecuencia (ω ) y la amplitud de tensión (E) de la referencia, pueden ser expresadas a través de las ecuaciones (6) y (7), [10]. ω=ω∗−m.P

(6)

E=E*−n .Q

(7)

Donde, ω* y E* son la frecuencia y la amplitud de la tensión de referencia del inversor sin carga, y m y n los coeficientes de caída de la frecuencia y la amplitud respectivamente. En el segundo caso de análisis se tiene que la impedancia de línea es puramente resistiva (Z=R), por lo tanto θ=0O, con lo que las ecuaciones que representan la potencia activa y la potencia reactiva toman la siguiente forma [11]. (8)

3.1 Análisis de la impedancia de salida del inversor

El inversor debido a la presencia de un inductor de salida usado como filtro, presenta un comportamiento inductivo, haciendo analogía con el sistema de potencia, donde la impedancia de la línea también es de tipo inductivo, por lo tanto el esquema droop a implementar esta dado por las ecuaciones (6) y (7). Sin embargo esto no es del todo cierto ya que la impedancia de salida del inversor depende igualmente de la estrategia de control a utilizar [12]. Existen dos formas de solucionar este inconveniente, la primera radica en utilizar un inductor adicional en serie a la salida del inversor [13], [14], lo que implica un aumento de costos y tamaño de la unidad inversora. Lo segundo es colocar un lazo de control adicional que emule una impedancia virtual [15], [16]. Para implementar el lazo de impedancia virtual es necesario visualizar como la estrategia de control utilizada influye en la impedancia de salida. La impedancia de salida (ZO_L.A(s)) en lazo abierto del inversor en modo isla puede ser hallada a partir del modelo en pequeña señal de la figura 3 y de los esquemas de lazos de control de la figura 1. Es de aclarar que para este análisis se ha incluido en el modelo de pequeña señal, la resistencia interna (rl) del inductor, con el fin de apreciar su efecto sobre la impedancia de salida del inversor. La función de transferencia ZO_L.A(s) puede ser calculada haciendo vDC = vC = 0, es decir asumiendo pequeñas variaciones de tensión en la entrada, por ende la impedancia de salida, se define a partir de las ecuaciones (12), (13) y (14).

(9)

Cuando la impedancia de línea es altamente resistiva, el esquema droop para P y Q se invierte. ω=ω∗−m.Q

(10)

E=E*−n .P

(11)

Como se puede apreciar para este caso, P es dependiente de la tensión y Q de la frecuencia.

(12)

(13)

(14)

7

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

7


8

Donde: Z *O(s) es la impedancia a la derecha del inductor. ZK(s) representa la impedancia del lado izquierdo vista en los puntos a-b (figura 3), pero teniendo en cuenta los lazos de control actuantes. G s(s) es la función de transferencia del controlador de corriente. F M es la ganancia del modulador PWM bipolar y Ri la ganancia del sensor de corriente. Para el cálculo de la impedancia en lazo cerrado (ZO_LC(s)) se tiene que vDC = vref = 0, por ende de forma análoga (Z O_LC (s)) se expresa de acuerdo a la ecuación (15).

(15)

Donde: GV(s) es la función de transferencia del controlador de tensión. GVDC_Vc(s) es la función de transferencia de la tensión de entrada a la tensión de control y â es la ganancia del sensor de tensión. En la figura 5 se muestra el diagrama respuesta en frecuencia de la impedancia de salida del inversor en lazo cerrado para diferentes valores de rl y Rd.

En la figura 5 se aprecia, que debido a la acción de los controladores implementados en el lazo de corriente (P+Resonante) y en el lazo de tensión (PI), el comportamiento es inductivo a bajas frecuencias, lo que permite la conexión en paralelo de los inversores. En altas frecuencias se puede observar como con el aumento de Rd, la impedancia de salida en lazo cerrado toma un carácter resistivo, mientras que la variación de rl es insignificante en todo el rango de frecuencias. El agregar un lazo que emule una impedancia virtual en el sistema, permite hacer que la impedancia de salida en lazo cerrado del inversor se comporte de forma resistiva, inductiva o una combinación de ambas, con el fin de ajustar las funciones que describen la potencia activa y la potencia reactiva en términos de la frecuencia y la tensión de salida del inversor. En la Figura 6 se muestra un diagrama de bloques que presenta los lazos de control del inversor, incluyendo el lazo de impedancia virtual. En las figuras 7 y 8 se muestran, los diagramas de respuesta en frecuencia de la impedancia de salida en lazo cerrado para una Z D(s)=R, puramente resistiva, y una Z D (s)=sL D , puramente inductiva respectivamente. En el diagrama de respuesta en frecuencia (figura 7), se aprecia como la impedancia de salida en lazo cerrado es forzada a través de los lazos de control a comportarse resistivamente; mientras que en el diagrama de respuesta en frecuencia (figura 8) se mantiene el comportamiento inductivo, similar al presentado sin el lazo de impedancia virtual. Al no tener una resistencia en serie con el condensador de salida o que el valor de la resistencia sea pequeño del orden de unos cuantos ohmios, el comportamiento en alta frecuencia no sería de tipo resistivo, presentándose un THD de tensión considerablemente alto, al manejar cargas no lineales. Esto se debe a que el valor de la reactancia de salida es dependiente de la frecuencia [17]. La solución es incluir en el lazo de la impedancia virtual, una impedancia inductiva junto a un filtro pasa alto de la corriente del inductor [18].

Figura 5. Diagrama de respuesta en frecuencia de la función de transferencia ZO_LC(s) para r l y Rd variable. 8

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

8


9

La figura 9 muestra el diagrama de respuesta en frecuencia para la impedancia de lazo cerrado, teniendo en cuenta el filtro pasa alto presentado en la ecuación (16). (16)

Donde: ωc es la frecuencia de corte del filtro en radianes/seg. Con el fin de analizar el comportamiento de ZO_LC(s) cuando la frecuencia de corte del filtro aumenta, se tomaron las frecuencias de corte de 150Hz, 300Hz y 450Hz (figura 9). Aunque el efecto no es muy notorio se puede apreciar como con una frecuencia de corte del filtro cercana a la fundamental, la impedancia de salida cambia su comportamiento inductivo por uno resistivo en el rango de 200Hz a 2kHz aproximadamente. Dibujando nuevamente el esquema droop de la figura 1, se pueden visualizar mejor sus bloques en la figura 10.

Figura 6. Diagrama de bloques del sistema en lazo cerrado incluyendo el lazo de impedancia virtual.

3.2 Implementación de los esquemas droop

Debido a las características de control utilizadas en el inversor y al comportamiento de la impedancia de salida del inversor en lazo cerrado, así como al uso de la resistencia de amortiguación Rd , finalmente se ha optado por no utilizar el lazo de impedancia virtual empleado por diferentes autores [8], [17]. Lo anterior en razón a que se obtienen resultados similares en cuanto a la posibilidad de los convertidores para trabajar en paralelo, así como al comportamiento resistivo que presenta la impedancia de salida a alta frecuencia, ideal para disminuir el THD de la tensión cuando se manejan cargas no lineales.

Figura 7. Diagrama de respuesta en frecuencia de la función de transferencia Z O_LC(s) para Z D(s)=R.

Como la impedancia de salida del inversor a bajas frecuencias presenta un comportamiento inductivo se hace uso de las relaciones establecidas en (6) y (7). Realizando una representación grafica de dichas ecuaciones, la figura 11 muestra las características de tensión y frecuencia de los esquemas droop para el caso en que la impedancia de salida del inversor sea inductiva.

9

Con base en las características de la figura 11 se determinan las constantes m y n (figura 10), estableciéndose una variación del 0.2% en torno

Figura 8. Diagrama de respuesta en frecuencia de la función de transferencia ZO_LC(s) para Z D(s)=sL D.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

9


10

empleó para obtener la componente en cuadratura en el diseño del PLL. Se debe tener en cuenta que las desviaciones en frecuencia y tensión son inherentes a la operación de los esquemas droop. Estas desviaciones pueden limitar el intercambio de potencia y la estabilidad del sistema [19]. Con el fin de evitar desviaciones en frecuencia en estado estable, se ha propuesto en [12] el siguiente esquema: ω=ω∗−m.

Figura 9. Diagrama de respuesta en frecuencia de la ω2c /(s+ω ω2c). función de transferencia ZO_LC(s) para ZD(s)=sLD•ω

(17)

Donde: es la señal de potencia activa sin la componente DC. se determina a través de la ecuación (18). (18)

Donde; τ es la constante de tiempo de la acción transitoria del esquema droop. Figura 10. Diagrama de bloques del esquema droop convencional.

El filtro paso bajo, esquematizado en el diagrama de bloques de la figura 10, deja de ser un filtro paso bajo al agregar en cascada el término de la ecuación (18), que corresponde a un filtro paso alto, y el bloque se rediseña como un filtro paso banda.

4. RESULTADOS DE SIMULACIÓN Figura 11. Características de tensión y frecuencia de los esquemas droop.

a la frecuencia nominal, lo que implica que ω*=2•π•50.5, ωmin=2•π•49.5 y Pmax=440W, con lo que se obtiene una pendiente negativa m=0.001. Mientras que para una variación de aproximadamente el 0.05% de la tensión pico de la tensión de salida se tiene que E*=325V, Emin=324.85V y Qmax=150VAr, lo que establece una pendiente negativa n=0.001. La potencia activa (P) puede ser calculada como producto de la multiplicación de la tensión de salida por la corriente de salida y el filtrado de dicho producto a través de un filtro paso bajo. De manera similar se calcula la potencia reactiva (Q), pero aquí hay que tener en cuenta que la corriente se salida se encuentra desfasada 90O. Dicho desfase se consigue utilizando un filtro paso bajo, de la misma forma en que se 10

Vol.14 No.2

Las simulaciones del inversor fueron realizadas en PSIM 7.05. En la figura 12 se muestran las principales formas de onda de dos inversores operando en paralelo tras la desconexión de la red eléctrica. En la figura 12 también se observa cómo los dos inversores antes de la desconexión de la red en 0.8 segundos, entregan la potencia para la que fueron programados (440W cada uno), en este caso se encuentran entregando la misma cantidad de potencia a la red. Al producirse la desconexión los dos inversores se ajustan para manejar la carga, es decir se reparten la cantidad de potencia que entregan en función de las pendientes m y n programadas para el esquema droop. Para este caso, el segundo inversor posee una m=0.002 y una n=0.0015, con lo que el inversor 1, maneja

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

10


11

420W y el inversor 2 maneja 245W, para un carga total de 665W. Adicionalmente se observa que los valores de tensión y frecuencia permanecen dentro de los rangos establecidos por los diferentes estándares y normas. La figura 13 muestra cómo al conectar de improviso en modo isla otro inversor, el sistema en general se acondiciona y se produce un reparto de carga entre los mismos. El hecho de que dichos inversores, funcionando como fuente de tensión se puedan conectar en paralelo, se debe a la característica inductiva de la impedancia de salida en lazo cerrado a la frecuencia fundamental.

Figura 12. Respuesta transitoria de las corrientes de salida de los dos inversores conectados en paralelo cuando la red eléctrica se desconecta.

La figura 13 muestra como los dos inversores (programados ambos, con los mismos valores de pendientes m y n) en un principio se encuentran Figura 13. Principales formas de onda en el inversor para conexión imprevista de otro inversor al sistema operando en modo isla. manejando cargas locales que demandan la misma potencia (430W), pero por separado. En 0.4 segundos 5. CONCLUSIONES se colocan en paralelo y se aprecia como las En el presente artículo se analizó el efecto tensiones y las corrientes convergen hasta que posee la impedancia de salida de los colocarse en fase, mediante el ajuste que han inversores en la conexión en paralelo de los realizado los controladores. mismos, para operar en modo isla. Se Con el fin de evitar respuestas transitorias como las presentadas en las figuras 12 y 13, primero se deben igualar las condiciones finales de los controladores que funcionan cuando el inversor se encuentra en modo red, a las condiciones iniciales de los controladores en modo isla. Posteriormente, al interconectar un sistema a otro se debe plantear la necesidad de diseñar un lazo que permita hacer cero la diferencia de fase entre los inversores con el fin de interconectarlos.

demostró como considerando la característica de impedancia de salida en el diseño del controlador, así como la inserción de una resistencia en serie con el condensador de salida, la cual obedece la resistencia de amortiguación, insertada en el modo red, presenta resultados similares a los expuestos cuando se utilizan lazos de realimentación de impedancia (comportamiento inductivo del inversor a bajas frecuencias y comportamiento resistivo a altas frecuencias), pero con la ventaja de aprovechar las características propias de diseño del inversor, sin necesidad de lazos de realimentación

11

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

11


12

adicionales. Finalmente, se validaron mediante simulaciones los esquemas droop junto a la utilización de un controlador PI y la resistencia de amortiguación como alternativa para funcionamiento de inversores en modo isla con posibilidad de interconectarlos en paralelo. En trabajos futuros se pretende validar experimentalmente lo expuesto en este artículo.

REFERENCIAS BIBLIOGRÁFICAS [1] REN21 Steering Committee. “Renewable 2009, Global Status Report”. Worldwatch Institute Washington, DC. 2009. [2] R.H. Lasseter, et al. “White paper on integration of distributed energy resources. The CERTS microgrid concept”. Consortium for Electric Reliability Technology Solutions. 2002, pp. 1-27. [3] PSIM 7.0 User´s Guide (2006), Powersim Inc. [4] N. Mohan, T.M. Underland, W.P. Robbins, “Power electronics: converters, applications, and design”. 3th ed. International. John Wiley & Sons. 2003. [5] Y. S. Jung, et. al. “A new small signal modeling of average current mode control”. Power Electronics Specialists Conference, 1998. PESC 98 Record. 29th Annual IEEE, vol. 2. 1998, pp.1118-1124. [6] D. M. Sable, R.B. Ridley, “Comparison of performance of singleloop and current-injection control for PWM converters that operate in both continuous and discontinuous modes of operation”. Power Electronics, IEEE Transactions on, vol. 7, No.1, Jan 1992, pp.136-142. [7] D. N. Zmood, D.G. Holmes, “Stationary frame current regulation of PWM inverters with zero steady-state error”. Power Electronics, IEEE Transactions on, vol.18, No.3, May 2003, pp. 814-822. [8] R. W. Erickson, “Fundamental of power electronics”. Norwell, MA: Kluwer. 1997. [9] J. Grainger, W. Stevenson, “Power System Analysis”. McGrawHill. 1994. [10] M. C. Chandorkar, et. al. “Control of parallel connected inverters in standalone AC supply systems”. Industry Applications, IEEE Transactions on, vol. 29, No.1, 1993, pp.136-143. [11] J. M. Guerrero, et. al. “Decentralized Control for Parallel Operation of Distributed Generation Inverters Using Resistive Output Impedance”. Industrial Electronics, IEEE Transactions on, vol. 54, No.2, April 2007, pp.994-1004. [12] J.M. Guerrero, et. al. “Output Impedance Design of ParallelConnected UPS Inverters With Wireless Load-Sharing Control”. Industrial Electronics, IEEE Transactions on, vol. 52, No.4, Aug. 2005, pp. 1126-1135. [13] J. F. Chen, C.L. Chu, C.L. Huang, “The parallel operation of two UPS by the coupled-inductor method”. Industrial Electronics. Proceedings of the IEEE International Symposium on, May 1992, pp.733-736. [14] C. C. Hua, et. al., “Parallel operation of inverters for distributed photovoltaic power supply system”. Power Electronics Specialists Conference, 2002. pesc 02. 2002 IEEE 33rd Annual, vol. 4, 2002, pp. 1979-1983. [15] K. De Brabandere, et. al. “A Voltage and Frequency Droop Control Method for Parallel Inverters”. Power Electronics, IEEE Transactions on, vol. 22, No.4, July 2007, pp.1107-1115. [16] J. M. Guerrero, et. al. “A wireless controller for parallel inverters in distributed online UPS systems”. Industrial Electronics Society, 2003. IECON ’03. The 29th Annual Conference of the IEEE, vol. 2, 2003, pp. 1637-1642. [17] S. J. Chiang, et. al. “A multimodule parallelable series-connected PWM voltage regulator”. Industrial Electronics, IEEE Transactions on, vol. 48, No.3, Jun. 2001, pp.506-516. 12

Vol.14 No.2

[18] J. M. Guerrero, “A wireless controller to enhance dynamic performance of parallel inverters in distributed generation systems”. Power Electronics, IEEE Transactions on, vol. 19, No.5, Sept. 2004, pp. 1205-1213. [19] E. A. A. Coelho, P.C. Cortizo, P.F.D. Garcia, “Small-signal stability for parallel-connected inverters in stand-alone AC supply systems”. Industry Applications, IEEE Transactions on, vol.38, no.2, Mar/Apr 2002, pp.533-542.

César Leonardo Trujillo Rodríguez Ingeniero Electrónico, Universidad Distrital. Mágister en Ingeniería Eléctrica, Universidad Nacional de Colombia. Candidato a Doctor en Ingeniería Electrónica, Universidad Politécnica de Valencia, España. Profesor en Electrónica de Potencia en la Universidad Distrital Francisco José de Caldas y pertenece como investigador al grupo LIFAE y al grupo GSEI en donde realiza estudios sobre calidad de potencia eléctrica, microrredes eléctricas y fuentes renovables de energía. cltrujillo@udistrital.edu.co

David Velasco de la Fuente Ingeniero Industrial, Universidad de Valladolid. Mágister en Ingenierías de Sistemas Electrónicos, Universidad Politécnica de Valencia. Candidato a Doctor en Ingeniería Electrónica de la Universidad Politécnica de Valencia, España. Actualmente se desempeña investigador en Electrónica de Potencia en la Universidad Politécnica de Valencia y pertenece al grupo GSEI en donde realiza estudios sobre microrredes eléctricas y fuentes renovables de energía. davede@posgrado.upv.es

Emilio Figueres Amorós Ingeniero Técnico Industrial, Universidad Politécnica de Valencia. Mágister en la École Nationale Supérieure d’Electronique, d’Electrotechnique, d’Informatique et Hydraulique de Toulouse, Francia. Doctor en Ingeniería Industrial de la Universidad Politécnica de Valencia. Actualmente se desempeña como profesor y director del Departamento de Ingeniería Electrónica de la Universidad Politécnica de Valencia. Pertenece como investigador al grupo GSEI, en donde realiza estudios sobre modelamiento y control de convertidores de potencia, procesamiento de potencia de fuentes de energía renovables y convertidores conectados a red para generación de potencia distribuida y mejoramiento de la calidad de potencia. efiguere@eln.upv.es

Gabriel Garcerá Sanfeliú Ingeniero, Magíster y Doctor de Telecomunicación de la Universidad Politécnica de Valencia, España. Actualmente se desempeña como profesor y director del Grupo de Investigación en Sistemas Electrónicos Industriales - GSEI, de la Universidad Politécnica de Valencia, en donde realiza estudios sobre modelamiento y control de convertidores de potencia, control robusto de convertidores conmutados, circuitos de corrección de factor de potencia, sistemas de alimentación ininterrumpida, inversores conectados a red, y convertidores para fuentes de energía renovables. ggarcera@eln.upv.es

Rubén Ortega González Ingeniero Electricista, Escuela Superior de Ingeniería Mecánica y Eléctrica ESIME, del Instituto Politécnico Nacional IPN - México. Mágister en Ingeniería de Sistemas en la Sección de Estudios de Posgrado e Investigación de la ESIME-IPN. Actualmente se desempeña como profesor en la Escuela Superior de Cómputo del IPN, en el departamento de Sistema Electrónicos y pertenece al Grupo de Sistemas Electrónicos, así como al grupo GSEI en donde realiza estudios sobre, microrredes eléctricas y fuentes renovables de energía. rortegag@ipn.mx

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

12


13

Desarrollo de un regulador de carga para sistemas fotovoltaicos aplicando instrumentación virtual Johan Sebastián Patiño Abella 1 Juan Sebastián Tello Reyes 2 Johann Alexander Hernández Mora3

RESUMEN Este artículo presenta el proceso empleado en el desarrollo un regulador virtual de carga para sistemas fotovoltaicos autónomos, el cual incluye adquisición y control de datos, medición en tiempo real del voltaje de las baterías, y registro de eventos en archivo de Excel® en el que se indica la hora, día, mes, año, evento ocurrido y magnitud del mismo. Este regulador de carga fue implementado aplicando instrumentación virtual mediante el software de programación grafica LabVIEW® y una tarjeta de adquisición de datos de National Instruments©, la cual tiene una alta velocidad de muestreo y comunicación por puerto USB. Las pruebas realizadas indican que el control efectuado por el regulador virtual de carga sobre un sistema fotovoltaico autónomo cumple con los parámetros operativos establecidos para estos dispositivos, logrando un óptimo procesamiento de la información, además de poseer ventajas e innovaciones frente los reguladores de carga convencionales, siendo una apropiada alternativa a la hora de implementar este tipo de sistemas. Palabras clave: Sistemas fotovoltaicos, sistemas fotovoltaicos autónomos, instrumentación virtual, regulador de carga, control, monitoreo.

DEVELOPMENT OF A PHOTOVOLTAIC SYSTEM LOAD REGULATOR APPLYING VIRTUAL INSTRUMENTATION. 1

13

Miembro de la línea de investigación en fuentes alternativas de energía “LIFAE”, Universidad Distrital Francisco José de Caldas.

2

Miembro de la línea de investigación en fuentes alternativas de energía “LIFAE”, Universidad Distrital Francisco José de Caldas.

3

Docente de planta, Facultad de Ingeniería, U. Distrital Francisco José de Caldas.

ABSTRACT In this work, the procedure used to develop a virtual load regulator for autonomous photovoltaic systems is described. The regulator includes data acquisition and control, real time measuring of batteries voltage, and event tracking that records data items such as hour,

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

day, month, year, kind of event and voltage magnitude in an Excel ® file. This load regulator was implemented applying virtual instrumentation through the LabVIEW® graphic programming software and a highspeed sampling rate and USB-enabled data acquisition device by National Instruments(c). Tests indicate that the virtual load regulator operation on a autonomous photovoltaic system meets the operating parameters established for these kind of devices, achieving optimal information processing, as well as having advantages and innovations compared to conventional charge controllers. Key words: Photovoltaic systems, virtual instrumentation, load regulator, control, monitoring.

1. INTRODUCCIÓN En la actualidad se presenta una tendencia a descentralizar la producción de electricidad y buscar tecnologías no convencionales para su abastecimiento, donde la energía solar ha surgido como una solución de alto potencial por utilizar un recurso que en teoría es inagotable [1], [8]. Sin embargo, la generación fotovoltaica es una tecnología que se puede considerar que se encuentra en proceso de desarrollo, debido a que se están evaluando la eficiencia y las bondades de sus diferentes aplicaciones como solución a la problemática de suministro de energía en zonas no interconectadas con las redes de suministro eléctrico comerciales [2-3]. Para evaluar la operación de los sistemas fotovoltaicos se debe disponer de herramientas capaces de monitorear su funcionamiento y desempeño, lo que conlleva a adquirir la información necesaria para optimizar la composición de dichos sistemas, de modo que se realice un mayor aprovechamiento del Vol.14 No.2

13


14

recurso solar e incremente el monto de energía eléctrica que se puede generar. [4] El presente trabajo muestra el desarrollo de un instrumento virtual que opera como un regulador de carga para sistemas fotovoltaicos autónomos, el cual tiene como función principal controlar el estado de carga de las baterías que componen dicho sistema. Para cumplir con este propósito, el instrumento desarrollado realiza continuamente la captura de la tensión en las baterías, para posteriormente realizar el análisis del valor de dicha tensión y emitir señales que resulten en la ejecución de maniobras automáticas realizadas por relés que controlan la interconexión de los elementos que componen un sistema fotovoltaico autónomo. La novedad en el uso de este regulador virtual es que permite cambiar los rangos de voltaje dentro de los cuales se considera una batería sobrecargada o descargada según las características operativas de la misma, mediante programación grafica de manera sencilla y eficaz. Además, realiza un registro de eventos que permite establecer patrones de comportamiento del sistema y hacer un seguimiento cronológico a su operación de tipo lineal paralelo. Para el presente artículo, en primera instancia se hace una revisión de las funciones desempeñadas por un regulador de carga convencional, y de esta forma definir las que debe llevar a cabo el regulador realizado con instrumentación virtual. Posteriormente, se detallan las características de los elementos que permiten la operación del regulador desarrollado, así como la composición y modos de operación del mismo. Por último, se realiza una evaluación de los resultados obtenidos durante la operación del regulador, y se compara el desempeño del regulador desarrollado frente a uno convencional.

2. REGULADOR DE CARGA CONVENCIONAL Este dispositivo sirve como punto de acople para los elementos que conforman un sistema fotovoltaico autónomo, el cual realiza una supervisión del estado de carga de la batería mediante una captura constante del voltaje presente en los bornes de la misma, para de esta forma protegerla contra sobrecargas o descargas profundas que afectan su vida útil. Los valores bajo los cuales se consideran las 14

Vol.14 No.2

baterías sobrecargadas o descargadas vienen establecidos en la memoria del regulador, los cuales dependen de cada fabricante [5]. Cuando el regulador detecta que el voltaje de las baterías es menor o igual al establecido como voltaje de descarga, desconecta automáticamente las cargas para que las baterías se recarguen con la energía generada por los paneles fotovoltaicos. Así mismo, cuando el voltaje de las baterías es igual o superior al valor fijado en el regulador como tensión de sobrecarga, se desconectan automáticamente los módulos fotovoltaicos evitando perjuicios a las mismas que acorten su vida útil (ver Figura 1). Generador fotovoltaico

Cargas Regulador de carga

Banco de baterias Figura 1. Esquema de un sistema fotovoltaico con regulador de carga convencional. Tomado de [7].

Generador fotovoltaico

RB1

Adquisición de Datos

RB2

Procesamiento de Datos Cargas

Banco de baterias Figura 2. Sistema fotovoltaico implementado. Tomado de [7].

3. DISPOSITIVOS NECESARIOS PARA EL CONTROL DEL SISTEMA FOTOVOLTAICO AUTONOMO El control desarrollado a partir de instrumentación virtual para llevar a cabo el monitoreo y control del funcionamiento del sistema fotovoltaico está compuesto por los siguientes elementos: tarjeta de adquisición de datos, el computador con el programa que opera el sistema, los relés de interconexión RB1 Y RB2 que permiten la conexión/desconexión de los módulos fotovoltaicos y las cargas respectivamente, junto con un circuito de

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

14


15

amplificación de señal destinado a realizar la activación de dichos relés. La Figura 2 muestra la posición de los relés RB1 y RB2 dentro del sistema fotovoltaico autónomo que se controla con el regulador desarrollado.

4. ELEMENTOS CONSTITUTIVOS DEL SISTEMA 4.1 Tarjeta de adquisición de datos

La adquisición del voltaje de las baterías se realiza mediante la tarjeta de adquisición de datos NI© USB-6008, la cual hace un muestreo de 20.000 muestras/seg sobre dicha señal, permitiendo hacer un análisis en tiempo real del estado de carga de las baterías. La tarjeta usada captura señales por sus puertos análogos en modo común o en modo diferencial. Al realizar la captura en modo común, las señales son medidas por puertos individuales y son referenciadas al borne designado como tierra de la tarjeta, además que la amplitud máxima permitida para dichas señales es de +/-10 V. Al realizar la captura en modo diferencial, la medición de la señal se realiza mediante dos puertos y el dato guardado corresponde a la diferencia de potencial vista entre dichos puertos, por lo que las señales medidas por este medio pueden tomar valores con una amplitud máxima de +/- 20 V. Debido a que la señal de voltaje de las baterías es tomada directamente de los bornes de la misma, y que dicho voltaje puede elevarse hasta 15 V, esta señal es capturada en modo diferencial. Por otra parte, la tarjeta emite señales digitales con la finalidad de activar relés encargados de hacer las conexiones y desconexiones de los elementos del sistema según los niveles de tensión medidos. Dicha señal de salida tiene una tensión de 5 V con un límite de corriente de 5 mA, donde dicho límite de corriente no debe ser superado ya que se incurriría en daños irreparables para la tarjeta.

necesario para realizar ésta operación. La Figura 3 muestra el circuito implementado. Cuando la salida digital de la tarjeta se encuentra en estado lógico “1” presenta una tensión de 5 V, mientras que al encontrarse en estado lógico “0” presenta una tensión de 36mV, por lo que en la primera parte del circuito se implementó un amplificador operacional no inversor en lugar de una configuración que conlleve a la saturación de éste, ya que esta última no podría distinguir entre los estados lógicos de la salida de la tarjeta. La señal de salida se lleva a un arreglo de transistores, el cual tiene una ganancia de voltaje un poco inferior a la unidad, pero aumenta en gran cantidad el monto de corriente que puede suministrarse a la carga del circuito. Para efectos de la simulación del circuito, la fuente de 5 V representa la tensión de los canales digitales de la tarjeta y el interruptor simula los mandos que se efectúan por software según la magnitud de voltaje del banco de baterías. Debido a la alta impedancia de entrada que tienen los amplificadores operacionales, la corriente que entrega por la tarjeta tiene una magnitud cercana a los 890 nA, el cual es un valor muy inferior al valor máximo de corriente que puede suministrar la tarjeta.

5. COMPOSICIÓN DEL REGULADOR VIRTUAL DE CARGA Empleando el software LabVIEW®, se desarrolló un instrumento virtual (VI) denominado “regulador virtual de carga”. A continuación se exponen las características de este instrumento, así como las funciones desarrollas por el mismo.

4.2 Circuito de amplificación de señales de control

15

Dado que la señal de salida de la tarjeta es insuficiente para realizar la activación de los relés, fue necesario diseñar un circuito de amplificación con el voltaje y corriente

Figura 3. Esquema del circuito de amplificación de las señales de la tarjeta de adquisición de datos.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

15


16

maniobras ejecutadas por los relés a partir de las señales de mando generadas por el regulador, y de esta forma configurar la conexión del sistema según se presente una carga normal, sobrecarga o descarga de las baterías.

Figura 4. Panel frontal del regulador virtual de carga, pestaña “Adquisición de señales”.

Para complementar la operación del sistema, se establecen controles manuales para la activación de los relés, lo cual permite atender condiciones de falla de los elementos que componen el sistema y la realización de procedimientos de mantenimiento sobre dichos elementos. 5.3 Clave de autorización

Para realizar modificaciones en el programa o llevar a cabo operaciones manuales se debe ingresar una secuencia alfanumérica que coincida con la establecida en la programación del dispositivo, en el espacio del panel frontal dedicado a control de texto. 5.4 Evaluación de la tensión del banco de baterías

Figura 5. Panel frontal del regulador virtual de carga, pestaña “Estado del sistema”.

5.1 Interfaz de adquisición del voltaje de las baterías

La Figura 4 presenta la parte del panel frontal del instrumento dedicada a la visualización de la señal de tensión proveniente del banco de baterías, la cual se grafica en tiempo real. Además de esto, se cuenta con un indicador numérico que muestra el valor de tensión medido y un indicador tipo tanque que cambia de color según el estado de carga de la batería. 5.2 Interfaz del esquema del sistema fotovoltaico

En la Figura 5 se ilustran los elementos que integran el sistema fotovoltaico, así como la ubicación de los relés que realizan las interconexiones de los elementos. La posición de los contactos de los relés se denota a partir de indicadores lumínicos, los cuales se encienden o apagan en correspondencia a las 16

Vol.14 No.2

Se evalúa la señal tensión de las baterías para conocer si su estado de carga se encuentra entre los parámetros normales de operación, o si por el contrario, presentan una condición ya sea de sobrecarga o de descarga según lo establecido por el diseñador. Dicha evaluación se realiza de la misma forma en que un regulador de carga convencional detecta la ocurrencia de estos eventos. Una de las características operativas de las baterías, es que el voltaje medido en bornes bajo exigencia de carga es menor que el voltaje medido al momento de retirar la carga, por lo que pueden presentarse conexiones y desconexiones sucesivas de las cargas al momento de presentarse una descarga de las baterías; en el momento en que se registre esta condición, el sistema desconecta las cargas y permite la reconexión de las mismas solo cuando las baterías eleven su nivel de tensión a un punto determinado por el diseñador [9-11]. Así mismo, cuando la batería se recarga, su voltaje en bornes es mayor al voltaje medido cuando se retira la fuente de carga, por lo que en condición de sobrecarga se sigue un

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

16


17

razonamiento similar al expuesto para la descarga, en el cual se desconectan los módulos fotovoltaicos al momento de presentarse una sobrecarga, y estos se reconectan solo cuando el nivel de tensión haya disminuido hasta un punto determinado por el diseñador [9-11]. 5.5 Habilitación de escritura de datos

Cuando el sistema detecta algún evento en las baterías del sistema fotovoltaico, el regulador realiza un registro automático de estos eventos en una hoja de cálculo de Excel®, el cual contiene la fecha, hora y valor de tensión medido al momento de presentarse dicho evento. Esto facilita un seguimiento cronológico a la operación del regulador para establecer tendencias de operación, lo cual permitirá determinar el evento que se presenta con mayor frecuencia para tomar las medidas necesarias. La Figura 6 muestra un ejemplo del registro tomado en las pruebas del sistema, donde además aparece el formato bajo el cual se graban los datos producto de la operación del regulador.

6. PUESTA EN OPERACIÓN Y DESEMPEÑO DEL REGULADOR VIRTUAL DE CARGA El regulador virtual de carga desarrollado ha sido implementado para el monitoreo y control de un sistema fotovoltaico autónomo, que se encuentra en funcionamiento desde el mes de octubre 2009 en la Universidad Nacional de Colombia, sede Bogotá. Este sistema autónomo está compuesto por módulos de silicio policristalino que proveen una potencia de 740 Wp, un banco de baterías que cuenta con una capacidad de 500 A.h y una corriente foto-generada pico de 40.1A.

17

Para las condiciones de este sistema y según las hojas de especificaciones de los elementos usados, se determinó que el banco de baterías se encontraba descargado cuando el nivel de tensión en bornes del mismo tenía un valor de 11.1V, y la reconexión de las cargas se permite cuando el nivel de tensión del banco asciende a 11.6V. Por otra parte, se determinó que el banco de baterías se encuentra sobrecargado

Figura 6. Registro de eventos guardado en Excel por el regulador virtual de carga.

cuando su nivel de tensión tiene un valor de 14V, y se permite la reconexión de los módulos cuando el voltaje del banco desciende a 12.4V. El control del funcionamiento de este sistema era anteriormente realizado por un regulador de carga comercial (Ref. CGR 300), el cual se reemplazó por el desarrollado con instrumentación virtual. Realizando una comparación entre la operación de estos reguladores, se puede decir que en cuanto a su función principal de proteger las baterías contra sobrecargas o descargas profundas, ambos cumplen con este propósito de la misma forma. Sin embargo, como se mencionó anteriormente, el regulador con instrumentación virtual permite realizar un registro de las operaciones efectuadas por el mismo, lo cual facilitó evidenciar que el sistema fotovoltaico presentaba constantes sobrecargas de las baterías, lo que a su turno indica un sobredimensionamiento del generador fotovoltaico y una deficiencia en la capacidad del banco de baterías para almacenar una mayor cantidad de la energía generada. Por otra parte, el regulador convencional es un dispositivo electrónico compacto de un tamaño relativamente pequeño, el cual realiza la desconexión/conexión de los elementos del sistema a partir de dispositivos de estado sólido, mientras que el regulador desarrollado necesita una caja de maniobras que contenga los relés responsables de realizar las interconexiones de los elementos además de un dispositivo de adquisición de datos compatible con el software con el que se realizó la implementación. Sin embargo, teniendo en

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

17


18

cuenta que se trata de un prototipo, dicho regulador se encuentra abierto a mejoras en orden de compactar en un solo circuito las tareas de adquisición de datos, conexión/ desconexión automática de los elementos del sistema y usar puertos como el RS-232 que es admitido por LabVIEW®, gracias a la versatilidad que tiene el regulador desarrollado.

REFERENCIAS BIBLIOGRÁFICAS [1] M. Bayegan. “A Vision of the Future Grid” IEEE Power Engineering Review. Volume 21, December 2001, Pages 10-12. [2] J. Aristizábal. “Desarrollo de prototipo para monitoreo del desempeño de sistemas de generación fotovoltaica embebida usando instrumentación virtual” Tesis Doctoral, Departamento de Física. Universidad Nacional de Colombia. Bogotá, Colombia. 2008. [3] R. Lawrence, S. Middlekauff, “The New Guy on the Block” IEEE Industry Applications Magazine. Volume 11, January - February 2005, Pages 54-59. [4] S. Hegedus, N. Okubo. “Real BOS and system costs of off-grid PV installations in the US: 1987-2004”. 31st IEEE Photovoltaic Specialists Conference. 2005. Pages 1651-1654.

7. CONCLUSIONES El regulador virtual de carga que se desarrolló en este trabajo, es una herramienta innovadora frente al regulador de carga convencional debido a su adaptabilidad en la configuración de su operación, además de adaptarse a las características constructivas de los elementos usados para la implementación del sistema fotovoltaico. Otras de sus características son: • Su capacidad para registrar eventos permite facilitar el análisis del comportamiento del sistema fotovoltaico sobre el cual se implementa el regulador desarrollado. • Debido a que el software con el que se desarrolló la aplicación pertenece a National Instruments©, el sistema no está restringido a usar la tarjeta de adquisición de datos mencionada, ya que un pequeño ajuste en la programación del regulador permitiría utilizar cualquier producto de captura de datos compatible. • Gracias a la interfaz implementada y al respectivo software, es posible visualizar la señal de tensión proveniente del banco de baterías y el estado del sistema según las conexiones realizadas por los relés. • Para desarrollos futuros, es necesario implementar un sistema de medición de la corriente que entra o sale de la batería, para realizar una supervisión más efectiva del estado de carga de las mismas e incluir un indicador de temperatura.

[5] H. Murcia, S. Hurry. “Manual de entrenamiento en sistemas fotovoltaicos para electrificación rural”. PNUD, OLADE, JUNAC. Bogotá, Colombia. 1995, 189 Pág. [6] T. Markvart. “Solar Electricity”. Second Edition. John Wiley and Sons Inc, Southampton, United Kingdom. 2000, 256 Pages. [7] Grupo de Investigación “Materiales Semiconductores y Energía Solar GMS&ES”. (2009). Material Académico. Universidad Nacional de Colombia. Facultad de Física. Bogotá. [8] Recommended Practice for Utility Interface of Photovoltaic (PV) Systems. IEEE Standard 929. 2000. [9] J. Hernández, et al. “Development of a system for measuring the parameters determining the quality of electrical power generated by grid-connected PV systems”. 31st IEEE Photovoltaic Specialists Conference. 2005. Pages 1738-1741. [10] J. Aguilar, P. Pérez, J. De la Casa, “Calculo de energía generada por un sistema fotovoltaico”. Congreso TAEE'06, 12 - 15 de Julio de 2006. [11] H. Gasquet. “Sistemas fotovoltaicos”. Departamento de Información Científica y Técnica, Solartronic S.A. de C.V, SOL/DT-00204, Octubre [12] Oficina de información medioambiental. “Manual sobre aprovechamiento de Energía Solar”. Ayuntamiento de Sant Vicent del Raspeig, Edición Octubre 2005.

Johan Sebastián Patiño Abella Ingeniero Eléctrico, Universidad Distrital Francisco José de Caldas. Miembro de la línea de investigación en fuentes alternativas de energía “LIFAE”, Universidad Distrital Francisco José de Caldas. jpatino@solelingenieria.com

Juan Sebastián Tello Reyes Ingeniero Eléctrico, Universidad Distrital Francisco José de Caldas. Miembro de la línea de investigación en fuentes alternativas de energía “LIFAE”, Universidad Distrital Francisco José de Caldas. sebastian.tello@ieee.com

Johann Alexander Hernández Mora Ingeniero Electricista, Universidad Nacional de Colombia, Msc. En distribución de energía, docente de planta Universidad Distrital Francisco José de Caldas, Candidato a Ph.D. Universidad Nacional de Colombia. Miembro de la línea de investigación en fuentes alternativas de energía “LIFAE”, Universidad Distrital Francisco José de Caldas. jahernandezm@udistrital.edu.co

18

18

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


19

Experiencias sobre el estudio de materiales alternativos para modificar asfaltos Hugo Alexander Rondón Quintana1 Luís Ángel Moreno Anselmi2 Daniella Rodríguez Urrego3 Jennifer Lee Mariño4

1

2

3

4

19

Profesor Asistente, Proyecto Curricular Ingeniería Topográfica, Universidad Distrital Francisco José de Caldas. Grupo de Investigación: Topovial. Docente Investigador, Facultad de Ingeniería Civil, Universidad Católica de Colombia. Grupo de Investigación: pavimentos y Materiales de Ingeniería. Auxiliar de Investigación, Facultad de Ingeniería Civil, Universidad Católica de Colombia. Grupo de Investigación: pavimentos y Materiales de Ingeniería. Auxiliar de Investigación, Facultad de Ingeniería Civil, Universidad Católica de Colombia. Grupo de Investigación: pavimentos y Materiales de Ingeniería.

RESUMEN Por lo general, las obras de infraestructura realizadas por ingenieros civiles requieren de materiales naturales para la fabricación y construcción de elementos estructurales, lo cual genera un impacto negativo al medio ambiente. Concientes de lo anterior, muchos países en el mundo se encuentran sustituyendo materiales naturales por materiales productos de reciclaje de procesos industriales, de la construcción y la minería. Estos materiales (llamados alternativos en el presente artículo) también han sido utilizados para modificar las propiedades de otros. En Colombia algunos avances en esta área se han desarrollado pero aún es necesario realizar mayor investigación. En este artículo se presentan de manera resumida los resultados de estudios desarrollados por los Grupos de Investigación de Pavimentos y Materiales de Ingeniería y Topovial en el área de los asfaltos modificados. El objetivo de las investigaciones ha sido evaluar el cambio en las propiedades mecánicas que experimentan mezclas asfálticas modificadas con aditivos productos de desechos industriales. Como conclusión general de los estudios se reporta que la mayor parte de los materiales empleados para modificar las propiedades de los asfaltos y las mezclas asfálticas aumentan la resistencia mecánica de las mezclas y la tendencia de los asfaltos modificados es presentar menor susceptibilidad térmica, mayor resistencia a fluir y rigidez. Palabras clave: Materiales alternativos, desechos industriales, asfaltos modificados.

LESSONS FROM THE STUDY OF ALTERNATIVE MATERIALS TO MODIFY ASPHALTS ABSTRACT Civil engineers generally use natural materials in order to manufacture and build structural

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

elements, which generates a negative environmental impact. Many countries in the world are replacing natural materials by materials obtained of recycling materials products of industrial processes, construction and mining. These materials (called alternatives in this report) have been used to modify the properties of others. In Colombia, some progresses in this area have been achieved but yet further investigation is needed. In this paper a summary of some studies developed in the area of modified asphalt is presented. The aim of these studies was to evaluate the change in mechanical properties undergoing modified asphalt mixtures with additives of industrial waste products. Most of the materials used to modify the properties of asphalts and asphalt mixtures showed an increase of the mechanical strength of mixtures and the tendency of the modified asphalt is is generally to exhibit lesser thermal sensitivity, increased resistance to flow and stiffness. Key words: Alternative materials, industrial waste, modified asphalt.

1. INTRODUCCIÓN En el mundo la tecnología de los asfaltos modificados ha sido una técnica ampliamente utilizada para mejorar las características que presentan las mezclas asfálticas convencionales cuando experimentan niveles elevados de tránsito y gradientes de temperatura. Por lo general lo que se busca con este tipo de tecnología es mejorar algunas de las propiedades mecánicas y reológicas de los asfaltos y las mezclas asfálticas convencionales tales como la susceptibilidad térmica, la rigidez y la resistencia al envejecimiento, a las deformaciones plásticas y a la fatiga. Para modificar dichas propiedades, la tendencia actual es adicionar al asfalto (vía húmeda) o a la mezcla asfáltica (vía seca) aditivos poliméricos Vol.14 No.2

19


20

productos de desechos industriales con el fin de mitigar el impacto ambiental que éstos producen. La mayor parte de las investigaciones realizadas en el área de los asfaltos modificados utilizan como agentes modificadores polímeros del tipo elastómero (p.e., [1-5]; estados del conocimiento sobre el tema pueden ser consultados en [6-8] y para el caso colombiano en [9]). Este tipo de aditivos al ser agregados al asfalto mejoran principalmente el comportamiento resiliente (recuperación elástica) de las mezclas cuando son solicitadas a ciclos de carga y descarga especialmente a altas temperaturas de servicio. En este estudio se propone modificar el cemento asfáltico con polímeros del tipo elastómero y plastómero, utilizando principalmente desechos provenientes de procesos industriales. En Bogotá D.C. diariamente se producen alrededor de 600 toneladas de basuras de las cuales el 10% aproximadamente son plásticos y el consumo per capita de estos materiales en Colombia es de 11.3 kg anuales[9]. Estos materiales al ser mezclados al asfalto pueden modificar las propiedades de mezclas asfálticas y así disminuir el impacto ambiental negativo que generan. El artículo presenta los resultados experimentales de ensayar mezclas asfálticas modificadas con aditivos poliméricos (producto de desechos industriales a excepción del látex natural) del tipo elastómero como el látex reciclado, caucho de neumático de llanta molido y látex natural, y plastómeros como el policloruro de vinilo, polietileno de alta densidad y poliestireno (los cuales se denominan en el presente trabajo LR, CM, LN, PVC, PEAD y PS respectivamente). Adicionalmente se presentan los resultados de evaluar una mezcla asfáltica modificada con una asfáltita producto de extracción de minería. Para la evaluación de las propiedades mecánicas de las mezclas asfálticas convencionales y modificadas se empleó el ensayo Marshall [10] (INV E-748) y en algunas investigaciones ensayos de caracterización dinámica como son el módulo dinámico y la resistencia a las deformaciones permanentes. Para el cemento asfáltico con y sin aditivo, se realizaron ensayos de caracterización de asfaltos como penetración, punto de ablandamiento, flotación y viscosidad. 20

Vol.14 No.2

2. CARACTERIZACIÓN DINÁMICA DE MEZCLAS DENSAS EN CALIENTE (MDC-2) EMPLEANDO UN DESECHO DE POLICLORURO DE VINILO (PVC) En la presente investigación se buscó evaluar el cambio que experimentan las propiedades mecánicas de mezclas densas en caliente tipo MDC-2 (de acuerdo con las especificaciones del Instituto Nacional de Vías - INVIAS, [10]) bajo carga monotónica y dinámica, cuando se adiciona un desecho de policloruro de vinilo (PVC) al cemento asfáltico (CA) por vía húmeda (el desecho se mezcla con el CA a alta temperatura) y al agregado pétreo por vía seca (se reemplaza parte del filler mineral por el aditivo). El cemento asfáltico utilizado para la elaboración de las briquetas proviene de la planta de la Empresa Colombiana de Petróleos (ECOPETROL) en Barrancabermeja. El desecho de PVC proviene de la empresa Mexichem Resinas Colombia S.A. y presenta una densidad de 0.9 g/cm3 con partículas de coloración blanca que pasan el tamiz No. 200 en un ensayo de granulometría. La temperatura de mezclado del cemento asfáltico con el PVC estuvo entre 100-120°C y el tiempo de mezclado fue de 30 minutos. Las temperaturas de mezcla del CA modificado con el agregado pétreo y de compactación fueron obtenidas con base en los resultados del ensayo de viscosidad. Inicialmente la fase experimental se desarrolló para determinar el porcentaje óptimo de CA el cual fue de 6.5%. Sobre este porcentaje de CA fue adicionado 0.5, 1.0 y 1.5% de desecho de PVC por vía húmeda, y 2.0, 4.0 y 6.0% por vía seca con respecto a la masa total de la muestra. Adicionalmente se realizó el mismo estudio disminuyendo en 0.5% el porcentaje óptimo de CA. Las Figuras 1-4 presentan la influencia del PVC sobre los valores de estabilidad y relación estabilidad – flujo (llamada por algunos investigadores como rigidez Marshall [10] INV E-748, y puede ser entendida como una resistencia mecánica evaluada en el estado de falla de las mezclas, bajo carga monotónica en un ensayo de tracción indirecta) para las mezclas modificadas por vía húmeda (Figuras 1-2) y seca (Figuras 3-4). En comparación con la mezcla asfáltica convencional, las modificadas por vía húmeda con 6.0 y 6.5% de cemento

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

20


21

asfáltico presentan valores superiores de estabilidad y rigidez Marshall para cualquier porcentaje de PVC adicionado (ver Figuras 1 y 2 respectivamente). La estabilidad de las mezclas disminuye con el porcentaje de adición de PVC, mientras que la rigidez Marshall aumenta entre 0.5 y 1.0% de adición, y luego disminuye cuando se adiciona 1.5%. Los mayores valores de estabilidad de las mezclas modificadas se obtienen cuando se adiciona 0.5% y 1.0% de PVC al 6.0% y al 6.5% de CA respectivamente. En estos porcentajes de CA y PVC, el incremento de estabilidad alcanzado por las mezclas modificadas fue de 35.3% y 29.4%. Los mayores valores de rigidez Marshall de las mezclas modificadas se obtienen cuando se adiciona 1.0% de PVC al 6.0% y al 6.5% de CA. En estos porcentajes de CA y PVC, el incremento de rigidez Marshall alcanzado por las mezclas modificadas fue de 9.5% y 42.3% respectivamente.

Cuando la modificación de las mezclas se realiza por vía seca, el aumento en la estabilidad se obtiene, en comparación con las mezclas convencionales, cuando (ver Figura 3): • Se sustituye filler por PVC entre 2.0 y 4.0%, y se emplea 6.5% de CA. • Se sustituye filler por PVC en un 4.0%, y se emplea 6.0% de CA. El mayor valor de incremento en la estabilidad (8.8%) se obtiene cuando se sustituye un 2.0% de filler por PVC en la mezcla y se utiliza 6.5% de CA. La rigidez Marshall de las mezclas modificadas por vía seca es menor en comparación con las convencionales para cualquier porcentaje de CA y de filler sustituido por PVC (ver Figura 4).

Figura 3. Estabilidad vs. porcentaje de PVC adicionado por vía seca. Figura 1. Estabilidad vs. porcentaje de PVC adicionado por vía húmeda.

Figura 4. Rigidez Marshall vs. porcentaje de PVC adicionado por vía seca.

21

Figura 2. Rigidez Marshall vs. porcentaje de PVC adicionado por vía húmeda.

Con base en los datos presentados en las Figuras 1-4, se puede inferir que el mejor

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

21


22

comportamiento de las mezclas modificadas se obtiene cuando se adiciona por vía húmeda PVC entre 0.5 y 1.5% al 6.5% de asfalto. Resultados similares a este estudio para el caso del ensayo Marshall fueron presentados en [11], [12] y [13]. En las Figuras 5 -7 se observa la evolución del módulo dinámico con la frecuencia de carga y la temperatura. Los resultados presentados en las Figuras corresponden a mezclas fabricadas con 6.5% de CA (convencionales), 6.5% de CA y 1.0% de PVC (modificadas por vía húmeda) y 6.5% de CA y 2.0% de PVC (modificada por vía seca). En ellas se observa que el módulo incrementa cuando se modifica el asfalto por vía húmeda. El incremento varía dependiendo de la temperatura del ensayo: • Para una temperatura de 10°C, el módulo incrementa entre 17 y 23% con respecto a la mezcla convencional (Figura 5). • Para una temperatura de 20°C, el módulo incrementa entre 49 y 80% con respecto a la mezcla convencional (Figura 6). • Para una temperatura de 30°C, el módulo de la mezcla modificada es entre 2.0 y 3.5 veces mayor que el alcanzado por la mezcla convencional (Figura 7). Cuando la mezcla se modifica por vía seca y la temperatura del ensayo es de 10°C, se observa en la Figura 5 que el módulo disminuye alcanzando valores entre 79 y 90% del obtenido por las mezclas convencionales. Para el caso de temperaturas de ensayo de 20°C y 30°C (Figuras 6 y 7 respectivamente), el módulo de las mezclas modificadas por vía seca tienden a presentar valores similares pero ligeramente mayores a aquellos obtenidos por la mezcla convencional.

Figura 5. Evolución del módulo dinámico con la frecuencia de carga para 10°C.

Figura 6. Evolución del módulo dinámico con la frecuencia de carga para 20°C.

Figura 7. Evolución del módulo dinámico con la frecuencia de carga para 30°C.

En la Figura 8 se observa que la resistencia a la deformación permanente de las mezclas modificadas por vía húmeda y seca es mayor que las convencionales. A pesar que las mezclas asfálticas modificadas por vía húmeda experimentan mayor rigidez Marshall y módulo dinámico que las modificadas por vía seca, la resistencia a la deformación permanente de ambas es similar. En la Figura 9 se observa que el asfalto 22

Vol.14 No.2

Figura 8. Evolución de la deformación permanente con el número de pulsos de carga.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

22


23

modificado presenta una resistencia a la penetración superior con respecto al convencional para cualquier porcentaje de CA y PVC, y aumenta conforme se incrementa la adición de PVC al CA. La mayor resistencia a la penetración se obtiene cuando se adiciona PVC al 6.0% de CA. El punto de ablandamiento y la viscosidad incrementan cuando se adiciona por vía húmeda PVC al CA (Figuras 10 y 11 respectivamente). El incremento en la resistencia a la penetración, el punto de ablandamiento y la viscosidad de los asfaltos modificados con PVC permiten predecir menor ahuellamiento de las mezclas a altas temperaturas de servicio en comparación con las convencionales. Una descripción más detallada de los resultados de la investigación puede ser consultada en [14].

Figura 9. Evolución de la penetración con la adición de PVC al CA por vía húmeda.

23

Figura 10. Evolución del punto de ablandamiento con la adición de PVC al CA por vía húmeda.

Figura 11. Evolución de la viscosidad con la temperatura para diferentes porcentajes de CA y PVC.

3. RESISTENCIA MECÁNICA EVALUADA EN EL ENSAYO MARSHALL DE UNA MEZCLA ASFÁLTICA TIPO MDC-2 MODIFICADA CON ASFÁLTITA La influencia que tiene adicionar asfáltita sobre una mezcla densa caliente (MDC-2, acorde con INVIAS [10]), cuando se modifica el cemento asfáltico (CA) por vía húmeda fue evaluada en [15]. Para tal fin realizaron ensayos Marshall. Las mezclas fueron fabricadas empleando CA 80-100 y CA 60-70 proveniente de las refinerías de ECOPETROL en Barrancabermeja y Apiay respectivamente. Inicialmente se determinó el porcentaje óptimo de CA el cual fue de 5.3% para el caso de las mezclas fabricadas con CA 80-100 y de 5.6% para aquellas fabricadas con CA 60-70. Sobre estos porcentajes de CA fue adicionado 0.5, 1.5, 2.5 y 3.5% de asfáltita por vía húmeda con respecto a la masa total de la muestra. La temperatura de mezclado del CA con la asfáltita fue entre 140 y 150°C, y el tiempo de mezclado de 45 minutos aproximadamente para porcentajes de adición de asfáltita de 0.5 y 1.5% y de una hora para porcentajes de 2.5 y 3.5%. Adicionalmente se realizó el mismo estudio aumentando y rebajando el porcentaje óptimo de asfalto en 0.3. La asfáltita presenta un peso específico de 1.10 g/cm3 y partículas de coloración negra brillante que pasan el tamiz No. 40. En las Figuras 12a y b se observa que los valores de estabilidad y rigidez de las mezclas modificadas que emplean CA 80-100 son mayores, para cualquier porcentaje de CA y

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

23


24

asfáltita, en comparación con la mezcla convencional. Los valores de estabilidad aumentan cuando se incrementa el contenido de asfáltita entre 0.5 – 2.5% para contenidos de CA de 5.0, 5.3 y 5.6%. Para el caso de 3.5% de adición de asfáltita la estabilidad tiende a conservar su máximo valor y la tendencia es a disminuir. Los mayores valores de estabilidad y rigidez se obtienen cuando se adiciona la asfáltita al contenido óptimo de CA de 5.3%, seguido por las mezclas fabricadas con 5.0 y 5.6% de CA. La mayor rigidez de las mezclas (946.61 kg/mm) se obtiene cuando se adiciona 0.5% de asfáltita al 5.3% de CA. Esta rigidez es 3.84 veces mayor que la rigidez que alcanza la mezcla convencional. La evolución y los valores de flujo de las mezclas son similares para cualquier porcentaje de CA y asfáltita (ver Figura 12b). Las mezclas modificadas que emplean CA 60-70 presentan un comportamiento similar a aquellas fabricadas con CA 80-100. En las Figuras 13a y b se observa que los valores de estabilidad y rigidez de las mezclas modificadas que emplean CA 60-70 son mayores, para cualquier porcentaje de CA y asfáltita, en comparación con la mezcla convencional. Los valores de estabilidad aumentan cuando se incrementa el contenido de asfáltita entre 0.5 – 2.5% para contenidos de CA de 5.3, 5.6 y 5.9%. Para el caso de 3.5% de adición de asfáltita la estabilidad tiende a conservar su máximo valor y la tendencia es a disminuir. Los mayores valores rigidez se obtienen cuando se adiciona la asfáltita al contenido óptimo de CA de 5.6%. La mayor rigidez de las mezclas (705.82 kg/ mm) se obtiene cuando se adiciona 2.5% de asfáltita al 5.6% de CA. Esta rigidez es 1.89 veces mayor que la rigidez que alcanza la mezcla convencional. Para cualquier porcentaje de CA, los valores de rigidez incrementan cuando se adiciona la asfáltita en porcentajes de 0.5 a 1.5%, luego dicha rigidez se estabiliza en 2.5% de asfáltita para luego disminuir su valor cuando se adiciona 3.5% (ver Figura 13b). Las mezclas asfálticas modificadas con asfáltita, experimentan un incremento notable de la rigidez en comparación con las mezclas convencionales (ver Figura 14b). Comportamientos similares han sido obtenidos modificando el cemento asfáltico con otros 24

Vol.14 No.2

Figura 12. a) estabilidad y b) rigidez Marshall vs. porcentaje de asfáltita para mezclas modificadas MDC-2 con CA 80-100.

Figura 13. a) estabilidad y b) rigidez Marshall vs. porcentaje de asfáltita para mezclas modificadas MDC-2 con CA 60-70.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

24


25

aditivos poliméricos del tipo plastómero [p.e., 11-13]. A pesar que el CA 80-100 es de mayor penetración y menor rigidez que el CA 60-70, es interesante observar en las Figuras 14a y b que los mayores valores de estabilidad y rigidez se obtienen cuando se modifican con asfáltita las mezclas que emplean CA 80-100. Lo anterior será objeto de investigaciones en un futuro, pero un comportamiento similar fue reportado por [16] cuando se modificaron mezclas asfálticas con desecho de policloruro de vinilo (PVC) empleando el mismo agregado pétreo y los mismos CA.

tal punto que el grado de susceptibilidad térmica es muy pequeño, y en este rango de adición, la penetración en ambos tipos de asfalto es similar (ver Figura 15).

Figura 15. Penetración vs. temperatura del ensayo para a) CA 80-100 y b) CA 60-70.

Figura 14. a) estabilidad y b) rigidez Marshall vs. porcentaje de asfáltita para mezclas modificadas MDC-2 empleando CA 80-100 y CA 60-70.

25

En las Figuras 15 a y b se presenta la evolución de la penetración con la temperatura para los asfaltos convencionales (CA 80-100 y CA 60-70) y modificados. Se observa de manera general que los asfaltos modificados son menos penetrables para cualquier porcentaje de CA y asfáltita en comparación con los convencionales. Cuando se adiciona asfáltita en porcentajes entre 2.5 y 3.5% al CA, el cemento asfáltico modificado se rigidiza a

4. MODIFICACIÓN DE MEZCLAS DENSAS EN CALIENTE (MDC-2) EMPLEANDO LÁTEX NATURAL (LN), CAUCHO MOLIDO (CM) Y DESECHO DE POLICLORURO DE VINILO (PVC) Los estudios realizados en [17-19] evaluaron la influencia que tiene adicionar látex natural (LN), caucho molido (CM, proveniente de llanta de neumático reciclado) y desecho de policloruro de vinilo (PVC) sobre una mezcla densa caliente (MDC-2, acorde con INVIAS [10]), cuando se modifica el cemento asfáltico (CA) por vía húmeda. Para tal fin, realizaron ensayos Marshall. Las mezclas fueron fabricadas empleando CA 80-100 proveniente de la refinería de ECOPETROL en

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

25


26

Barrancabermeja. Inicialmente se determinó el porcentaje óptimo de CA el cual fue de 6.0%. Sobre este porcentaje de CA fue adicionado 0.5, 1.0, 1.5 y 2.0% de LN, CM y PVC por vía húmeda con respecto a la masa total de la muestra. Adicionalmente se realizó el mismo estudio pero disminuyendo en 0.5% el porcentaje óptimo de CA. Las temperaturas y los tiempos de mezclado del CA con el aditivo fueron: • Con el LN, 140 ºC y 60 minutos. • Con el CM, 120 ºC y entre 15-45 minutos dependiendo de la cantidad de CM adicionado al CA. • Con el PVC fue de 170 ºC y entre 15-45 minutos dependiendo de la cantidad de PVC adicionado al CA. Con los resultados obtenidos, se analizaron las curvas de estabilidad (Figura 16, 18 y 20) y relación estabilidad – flujo (rigidez Marshall, Figura 17, 19 y 21). Se observa en la Figuras 16, que las mezclas modificadas con LN presentan mayores valores de estabilidad con respecto a las mezclas convencionales para cualquier porcentaje de CA y LA. Adicionalmente, el incremento en la estabilidad y la rigidez Marshall es mayor cuando se adiciona LN al 5.5% de CA (ver Figuras 1617). De los resultados se concluye que la mezcla asfáltica densa en caliente modificada con LN presenta mayor resistencia mecánica, evaluada en el ensayo Marshall, que las mezclas fabricadas con CA 80-100 sin modificar (mezcla convencional).

adiciona 0.5% de CM al CA. Los valores de estabilidad de las mezclas modificadas son mayores con respecto a la convencional cuando se emplea 5.5% de CA. Sin embargo cuando se emplea 6.0% de CA, las mezclas modificadas experimentan menor estabilidad que las convencionales cuando se adiciona mas de 0.7% de CM. El comportamiento que experimentó el CM como aditivo al CA, no fue del todo favorable en los ensayos Marshall ya que los valores de rigidez y estabilidad de las mezclas modificadas son muy similares a aquellas obtenidas en la mezcla convencional. Adicionalmente los valores de flujo y vacios con aire de las mezclas fueron superiores a 3.5 mm y 6.0% respectivamente (valores máximos exigido por INVIAS [10] para conformar mezclas para altos volúmenes de tránsito y capas de rodadura) cuando se adiciona un porcentaje de CM superior a 0.7% al 5.5% y 6.0% de CA [11].

Figura 17. Variación de rigidez Marshall bajo diferentes porcentajes de LN con 6.0% y 5.5% de CA.

Figura 16. Variación de estabilidad bajo diferentes porcentajes de LN con 6.0% y 5.5% de CA.

En las Figuras 18 y 19 se observa que las mezclas modificadas con CM presentan mayores valores de estabilidad y rigidez Marshall con respecto a las mezclas convencionales cuando se 26

Vol.14 No.2

Figura 18. Variación de la estabilidad bajo diferentes porcentajes de CM con 6,0% y 5,5% de CA.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

26


27

Tabla I. Penetración e índice de penetración - CA convencional y modificado Asfalto

Figura 19. Variación de la rigidez bajo diferentes porcentajes de CM con 6.0% y 5.5% de CA.

Índice

Temperatura [ºC]

15ºC Convencional 26,67 Asfalto – PVC 15,33

Penetración [1/10 mm] 25ºC 88,33 50,0

35ºC 214,0 62,50

Penetración -1,10 0,40

Mezcla Compact. 140 120 150 140

Asfalto – LN Asfalto – CM

107,0 88,0

209,0 207,0

0,50 -1,10

150 150

42,0 26,0

130 140

Marshall con respecto a las mezclas convencionales para cualquier porcentaje de CA y PVC. Adicionalmente, el incremento en la estabilidad y la rigidez Marshall es mayor cuando se adiciona PVC al 5.5% de CA. Los mayores valores de resistencia mecánica evaluados en el ensayo Marshall se obtienen cuando se adiciona 1.0% de PVC al 5.5% de CA. En las investigaciones se realizaron ensayos de penetración (medido a tres temperaturas diferentes), flotación, y punto de ablandamiento sobre el cemento asfáltico convencional (CA 80-100) y el modificado (ver Tablas 1-3). El contenido de CA y aditivo para los ensayos sobre los asfaltos modificados fue obtenido con base en el mejor comportamiento que experimentó la mezcla asfáltica y se describen a continuación:

Figura 20. Variación de estabilidad bajo diferentes porcentajes de PVC con 6.0% y 5.5% de CA.

• Asfalto – PVC: 5,5% de CA y 1,0% de PVC. • Asfalto – LN: 6,0% de CA y 0,7 de LN. • Asfalto – CM: 5,5% de CA y 0,7% de CM. En la Tabla I se observa que el asfalto modificado con PVC muestra una resistencia mayor a la penetración que el asfalto convencional, mientras que con CM muestra un comportamiento similar ante la penetración. Con LN la tendencia del asfalto modificado es a perder resistencia a la penetración especialmente a bajas temperaturas.

Figura 21. Variación de la rigidez bajo diferentes porcentajes de PVC con 6.0% y 5.5% de CA.

27

En las Figuras 20 y 21 se observa que las mezclas modificadas con PVC presentan mayores valores de estabilidad y rigidez

En las Tablas II-III se presentan los resultados obtenidos de viscosidad y punto de ablandamiento respectivamente para el asfalto convencional y para el modificado. En la Tabla II se observa que los asfaltos modificados con PVC y LN aumentaron la viscosidad respecto al asfalto convencional y el asfalto-CM mostró una viscosidad ligeramente más baja. En la Tabla III se observa que los asfaltos modificados incrementaron el valor de la temperatura en el cual el material fluye. Las

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

27


28

Tabla II. Viscosidad asfalto convencional y modificado Asfalto Convencional

Temperatura Flotación [ºC] [s] 60 198 70 147

Viscosidad [Poises] 1241.50 712.12

80 Asfalto – PVC 60 70

102 387 269

245.02 3203.32 1978.48

Asfalto – LN

80 60 70

173 403 288

982.00 3364.00 2175.70

Asfalto – CM

80 60 70

190 200 140

1158.67 1262.26 639.46

80

80

16.66

Tabla III. Punto de ablandamiento asfalto convencional y modificado Asfalto

Punto de ablandamiento [ºC]

Tiempo [s]

Convencional Asfalto – PVC Asfalto – LN

44.0 60.5 57.5

600 1020 900

Asfalto – CM

48.3

720

tablas muestran que la susceptibilidad térmica (resistencia a fluir) del asfalto modificado disminuye con respecto al convencional y su rigidez (medido en términos de su consistencia en el ensayo de penetración) tiende a aumentar.

5. MODIFICACIÓN DE MEZCLAS DENSAS EN CALIENTE (MDC-1) EMPLEANDO DESECHO DE POLIETILENO DE ALTA DENSIDAD (PEAD) Y POLIESTIRENO (PS) Los estudios [20-21] evaluaron la influencia que tiene adicionar un desecho de polietileno de alta densidad (PEAD) y de poliestireno (PS) sobre una mezcla densa caliente (MDC1, acorde con INVIAS [10]), cuando se modifica el cemento asfáltico (CA) por vía húmeda. Para tal fin, realizaron ensayos Marshall. Las mezclas fueron fabricadas empleando CA 80-100 proveniente de la refinería de ECOPETROL en Barrancabermeja. Inicialmente se determinó el porcentaje óptimo de CA el cual fue de 6.5%. Sobre este porcentaje de CA fue adicionado 0.5, 1.0 y 1.5 % de PEAD y PS por vía húmeda con respecto a la masa total de la muestra. Adicionalmente se realizó el 28

Vol.14 No.2

mismo estudio mencionado con anterioridad pero disminuyendo en 0.5% el porcentaje óptimo de CA. La temperatura de mezclado del CA con el PEAD y el PS fue de 160°C y el tiempo de mezclado de una hora. El PEAD estaba procesado en pellets (partículas redondeadas de igual tamaño y for ma, de 425 mm aproximadamente, el cual era retenido en tamiz No. 40), presentaba coloración negra con algo de tonalidad azul oscura y su densidad fue de 0.92 g/cm3. El PS utilizado se encuentra en pellets retenidos en el tamiz No.40, presentaba una tonalidad blanca y su densidad fue de 1.05 g/cm3. En las Figuras 22a-d se puede observar que el mejor comportamiento de la mezcla asfáltica modificada con PEAD se obtuvo cuando se utilizó 6.0% de cemento asfáltico (es decir, 0.5% por debajo del optimo de asfalto). En este porcentaje además, la mezcla modificada presenta un mejor comportamiento frente a la convencional. En comparación con la mezcla asfáltica convencional, la modificada con 6.0% de cemento asfáltico: • Presenta valores superiores de peso unitario cuando se adiciona entre 0.7 y 1.5% de PEAD (Figura 22d). • Presenta valores ligeramente inferiores de estabilidad (E) para cualquier porcentaje de PEAD, pero cumplen con el valor exigido por la especificación INVIAS [10] (Figura 22a). • Contrario a lo anterior, la mezcla modificada mejoró la resistencia a la deformación ya que el flujo (F) disminuyó entre 23.5 y 41% para el caso en el que se adicionaba entre 0.5 – 1.1% de PEAD permitiendo cumplir con los requisitos exigidos de flujo (Figura 22c). Esta reducción en el flujo produce un aumento de la rigidez (E/F, ver Figura 22b). Con base en los datos presentados en las Figuras 22a-d se concluye que el mejor comportamiento se obtiene cuando se adiciona 0.75% de PEAD al 6.0% de asfalto. El mejor comportamiento de la mezcla asfáltica modificada con PS también se obtuvo cuando se utilizó 6.0% de cemento asfáltico

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

28


29

(Figuras 23a-d). En comparación con la mezcla asfáltica convencional, la modificada con 6.0% de cemento asfáltico: • Presenta valores de peso unitario y rigidez mayores para cualquier porcentaje de aditivo. Para el caso de la estabilidad, se puede observar en la Figura 23a un aumento de este parámetro a partir del 1.0% de adición. La mayor estabilidad y rigidez se presenta en la mezcla cuando se adiciona 1.5% de PS (2979 kg y 604 kg/mm respectivamente). En este porcentaje de aditivo la estabilidad y la rigidez son 58.4% y 64.3% mayores respectivamente con respecto a la mezcla convencional. • Mejora los valores de flujo para cualquier porcentaje de aditivo, pero aún así en ningún caso cumple con lo establecido por la norma INVIAS [10] según la cual el flujo debe estar entre 2 y 4 mm. Con base en los datos presentados en las Figuras 23a-d se concluye que el mejor comportamiento se obtiene cuando se adiciona entre 0.5 y 0.9% de PS al 6.0% de asfalto. En la Tabla 4, se observan los resultados de penetración, índice de penetración y temperatura de mezcla y compactación del asfalto convencional y modificado. Es importante tener presente que los asfaltos modificados se caracterizaron con los porcentajes óptimos obtenidos de CA y aditivo, los cuales son: • Asfalto – PEAD: 6.0% de CA y 0.75 de PEAD. • Asfalto – PS: 6.0% de CA y 0.7% de PS. Los asfaltos modificados con PEAD presentan una resistencia mayor a la penetración que el asfalto convencional, mientras que con PS disminuye ligeramente (Tabla 4). Del ensayo de flotación (Tabla 4) se puede concluir cualitativamente que los asfaltos Tabla IV. Resultados obtenidos de caracterización

29

Figura 22. Evolución de a) estabilidad (E), b) rigidez Marshall (E/F), c) flujo (F) y d) peso unitario con la adición de PEAD al asfalto.

Ensayo

Unidad

Penetración(25ºC, 100 g, 5 s) Punto de ablandamiento anillo y bola Ductilidad (25ºC, 5 cm/min) Flotación 80°C

0.1 mm ºC cm s

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Ensayo

Asfalto convencional INV-E-706 83 INV-E-712 49 INV- E-702 >100 NLT-183/85 96

Asfalto PEAD 14.5 93 >100 7993

Asfalto - PS 91.0 94 >100 7005

Vol.14 No.2

29


30

modificados presentan mayor viscosidad en comparación con el convencional y deben ser sometidos a mayores temperaturas para ablandarlos (incrementaron el valor de temperatura para el cual fluyen).

6. MODIFICACIÓN DE MEZCLAS DRENANTES (MD) EMPLEANDO UN DESECHO DE POLICLORURO DE VINILO (PVC) En el estudio realizado en [22] se evaluó la influencia que tiene adicionar un desecho de policloruro de vinilo (PVC) sobre mezclas drenantes (MD), cuando se modifica el cemento asfáltico (CA) por vía húmeda (el desecho se mezcla con el CA a alta temperatura). Para tal fin, realizaron ensayos Cantabro [10] sobre muestras en estado seco y trans-inmersión. Las mezclas fueron fabricadas empleando CA 60-70 proveniente de la refinería de ECOPETROL en Apiay. Inicialmente la fase experimental se desarrolló para determinar el porcentaje óptimo de CA el cual fue de 4.2%. Sobre este porcentaje de CA fue adicionado 0.5, 1.0 y 1.5% de desecho de PVC por vía húmeda con respecto a la masa total de la muestra. La temperatura de mezclado del PVC con el CA fue de 180 ºC. Adicionalmente se realizó el mismo estudio mencionado con anterioridad pero aumentando en 0.3% y rebajando en 0.5% el porcentaje óptimo de CA.

Figura 23. Evolución de a) estabilidad (E), b) rigidez Marshall (E/F), c) flujo (F) y d) peso unitario con la adición de PS al asfalto. 30

Vol.14 No.2

Los resultados de la investigación se presentan en las Figuras 24-25 para muestras ensayadas en estado seco y tras inmersión respectivamente. Se observa que al adicionar desecho de PVC, los valores de desgaste de las mezclas modificadas obtenidos en el ensayo Cantabro [10] son mayores con respecto a la mezcla convencional (aquella que no modifica las propiedades del CA original), y a medida que se aumenta el contenido de CA los valores disminuyen. Estos resultados muestran que el desecho de PVC disminuye la resistencia al desgaste de las MD cuando se adiciona por vía húmeda al CA. Sin embargo, los investigadores resaltan la necesidad de continuar las investigaciones utilizando menor contenido de PVC con respecto al CA, ya que tal vez los resultados presentados son producto de emplear una alta cantidad de PVC.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

30


31

Tabla V. Desgaste Cantabro mezclas ensayadas LR [%]

Desgaste Cantabro

Desgaste Cantabro

0.0 0.5

seco [%] 20.5 19.93

Tras inmersión [%] 31.2 29.3

1.0

25.47

34.4

temperatura de mezclado del PVC con el CA fue de 160 ºC.

Figura 24. Variación del desgaste cantabro bajo diferentes porcentajes de CA y PVC con muestras en estado seco.

En la Tabla V se presenta la evolución del desgaste Cantabro con el contenido de CA y LR de las muestras ensayadas en estado seco y tras inmersión respectivamente. Se observa en la tabla, que la mayor resistencia al desgaste de las mezclas se obtiene cuando se adiciona 0.5% de LR al 4.0% de CA.

8. CONCLUSIONES La mezcla asfáltica modificada con desecho de PVC presenta mayor resistencia mecánica bajo carga monotónica, rigidez y resistencia a la deformación permanente que la convencional cuando la modificación se realiza por vía húmeda. En comparación con las mezclas convencionales, por vía seca, las mezclas modificadas presentan de manera general:

Figura 25. Variación del desgaste cantabro bajo diferentes porcentajes de CA y PVC con muestras ensayadas tras inmersión.

7. MODIFICACIÓN DE MEZCLAS DRENANTES (MD) EMPLEANDO LÁTEX RECICLADO (LR)

31

En [23] se evaluó la influencia que tiene adicionar látex reciclado (LR) sobre mezclas drenantes (MD), cuando se modifica el cemento asfáltico (CA) por vía húmeda. Para tal fin, se realizaron ensayos Cantabro sobre muestras en estado seco y trans-inmersión. Las mezclas fueron fabricadas empleando CA 80100 proveniente de la refinería de ECOPETROL en Barrancabermeja. Se utilizó un porcentaje de 4.0% de CA para adicionar 0.5 y 1.0 % de látex reciclado por vía húmeda con respecto a la masa total de la muestra. La

• Menor resistencia mecánica bajo carga monotónica (evaluada por medio de la rigidez Marshall). • Menor módulo dinámico cuando la temperatura del ensayo es de 10°C. • Ligeramente mayor módulo dinámico cuando el ensayo se realiza a 20°C y 30°C. • Mayor resistencia a la deformación permanente. La resistencia que tienen los asfaltos modificados con PVC a fluir es mayor con respecto al convencional. Los valores de penetración, punto de ablandamiento y viscosidad del asfalto modificado permiten predecir menor ahuellamiento a altas temperaturas de servicio. La mezcla asfáltica modificada a bajas temperaturas de servicio puede tener un comportamiento frágil, por lo tanto, inicialmente se recomienda su utilización en climas cálidos y realizar otras investigaciones para describir su comportamiento en clima frío.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

31


32

En general, las mezclas asfálticas modificadas con asfáltita tienden a poseer un comportamiento rígido. A bajas temperaturas de servicio estas mezclas pueden tener un comportamiento frágil, llevando a pensar que tendrían un mejor desempeño en climas cálidos. Los valores de estabilidad y rigidez Marshall de las mezclas modificadas con CA 80-100 y CA 60-70 son mayores, para cualquier porcentaje de CA y asfáltita, en comparación con la mezcla convencional. Los mayores valores de estabilidad y rigidez se obtienen cuando se modifican con asfáltita las mezclas que emplean CA 80-100, a pesar que este tipo de asfalto presenta menor resistencia a la penetración y rigidez que el CA 60-70. Cuando se adicionan porcentajes de asfáltita entre 2.5 y 3.5% a los CA 80-100 y CA 60-70, ambos tipos de asfaltos experimentan valores similares en el ensayo de penetración. La mezcla asfáltica modificada con LN aumenta el valor de estabilidad con respecto a la mezcla convencional, en el porcentaje óptimo de asfalto + aditivo establecido. El asfalto modificado con LN presenta menor resistencia a la penetración que el convencional, pero tiene al igual que el modificado con PVC, aproximadamente un valor de tres veces mayor la viscosidad. Además se debe tener en cuenta que el LN puede mejorar características de elasticidad en la mezcla, los cuales no fueron medidos en el presente trabajo. Se recomienda la utilización del LN en climas fríos. Las características de la mezcla asfáltica modificada con CM son similares a la de la mezcla asfáltica convencional. Además el comportamiento del asfalto modificado con CM y el convencional es similar en cuanto a penetración, viscosidad y punto de ablandamiento. La diferencia podría estar en que el CM puede mejorarle al igual que el LN, características de elasticidad a la mezcla asfáltica por ser materiales poliméricos del tipo elastómero. Las mezclas asfálticas modificadas con PEAD y PS de desecho presentan mejor comportamiento que la convencional especialmente en rigidez, resistencia a la deformación y peso unitario.

En general, la resistencia que tienen los asfaltos modificados a fluir es mayor con respecto al convencional. Cuando se modifican las propiedades de mezclas drenantes (MD) empleando asfaltos modificados con PVC, la resistencia al desgaste medida en el ensayo Cantabro disminuye para cualquier porcentaje de CA y PVC. De manera similar, cuando se modifican MD con látex reciclado (LR), la resistencia al desgaste disminuye cuando se adiciona 1.0% de LR al CA y aumenta ligeramente cuando se agrega 0.5%. Agregar aditivos poliméricos productos de desechos industriales como materiales alternativos para modificar o mejorar las propiedades de los asfaltos o las mezclas asfálticas contribuiría al ambiente reduciendo el impacto negativo que producen y podría llegar a generar cultura del desarrollo sostenible en el área de los pavimentos. Las fases futuras del proyecto deben medir variables como envejecimiento a corto y largo plazo de los asfaltos, módulos dinámicos, resistencia a fatiga y ahuellamiento de mezclas asfálticas, y establecer un análisis de costos y beneficio.

REFERENCIAS BIBLIOGRÁFICAS [1] J. L. McQuillen, H. B. Takallou, R. G. Hicks, and D. Esch. “Economic Analysis of Rubber-Modified Asphalt Mixes”. Journal of Transportation Engineering, Vol. 114, No. 3, 259-277, 1988. [2] J-S. Chen, M-C. Liao, and M-S. Shiah. “Asphalt modified by Styrene-Butadiene-Styrene triblock copolymer: morphology and model”. Journal of Material in Civil Engineering, Vol. 14, Issue 3, 224-229, 2002. [3] Lee, S-J., Amirkhanian, S-N., Shatanawi, K. and Thodesen, C. “Influence of compaction temperature on rubberized asphalt mixes and binders”. Canadian Journal of Civil Engineering, Vol. 35, No. 9, 908–917. 2008. [4] F. Olivares, B. Schultz, M. Fernández and B. Moro. “Rubbermodified hot-mix asphalt pavement by dry process”. International Journal of Pavement Engineering, Vol. 10, Issue 4, 277-288, 2009. [5] J. Stastna, L. Zanzotto and O. Vacin. “Damping of shear vibrations in asphalt modified with styrene-butadiens-styrene polymer”. Transportation research record, Annual Meeting of the Transportation Research Board, No. 1728, 15-20, 2000. [6] A. T. Papagiannakis and T. J. Lougheed. “A review of crumbrubber modified asphalt concrete technology”. Research report for project T9902-09 Rubber-Asphalt Study, Washington State Transportation Commission and U. S. Department of Transportation, 1995. [7] A. R. Copeland, J. S. Youtcheff Jr and A. Shenoy. “Moisture Sensitivity of Modified Asphalt Binders: Factors Influencing Bond 32

32

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


33

Strength. Transportation Research Record: Journal of the Transportation Research Board, Issue number 1998, 18-28, 2007.

modificados con polietileno de desecho”. Tesis de pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 2005.

[8] Y. Yildirim. “Polymer modified asphalt binders. Construction and Building Materials”. Vol. 21, Issue 1, 66-72, 2007.

[21] A. Ayala. “Estudio del comportamiento de mezclas densas en caliente tipo 1 (MDC – 1) empleando asfaltos modificados con poliestireno de desecho”. Tesis de Pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 71pp, 2006.

[9] H. A. Rondón, F. A. Reyes, A. S. Figueroa, E. Rodríguez, C. M. Real y T. A. Montealegre. “Mezclas asfálticas modificadas en Colombia”. Revista Infraestructura Vial. No. 19, 12-21, 2008. [10] Instituto Nacional de Vías. Especificaciones generales de Construcción de carreteras. Bogotá D.C., 2007. [11] H. A. Rondón, O. Herrera, L. Caicedo, D. Díaz, A. Gutiérrez, C. Ladino y F. Díaz. “Estudio del comportamiento de mezclas densas en caliente elaboradas con asfaltos modificados con policloruro de vinilo, látex natural y caucho reciclado”. 4tas Jornadas internacionales del asfalto, Cartagena (Colombia), 2004. [12] H. A. Rondón y E. Rodríguez. “Evaluación del comportamiento de una mezcla asfáltica densa en caliente, tipo MDC-1, elaborada con asfalto modificado con desecho de policloruro de vinilo”. XV Simposio sobre Ingeniería de Pavimentos. Pontificia Universidad Javeriana (Colombia), 2005. [13] H. A. Rondón y E. Rodríguez y L. A. Moreno. “Comportamiento de mezclas densas en caliente elaboradas con asfaltos modificados con desechos de policloruro de vinilo (PVC), polietileno de alta densidad (PEAD) y poliestireno (PS)”. Revista Ingenierías, Universidad de Medellín, No. 11, 91-104, 2007. [14] B. E. Ojeda, B. A. Sánchez y L. K. Plata. “Caracterización dinámica de una mezcla densa en caliente modificada con desecho de policloruro de vinilo (PVC)”. Tesis de pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 2008. [15] H. A. Rondón, M. H. Pinzón, F. A. Reyes, H. A. Vacca y L. A. Moreno. “Resistencia mecánica evaluada en el ensayo Marshall de una mezcla densa en caliente elaborada con asfaltos modificados con asfáltita”. Ciencia, Tecnología e Innovación, Tomo 2, pp. 7-13, Bogotá D.C., 2008. [16] E. Toro, y M. A. Amortegui. “Influencia del tipo de asfalto en el comportamiento de un concreto asfáltico modificado con desecho de PVC”. Tesis de Pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 79 pp., 2008. [17] F. A. Díaz y C. M. Ladino. “Comportamiento del asfalto agregando látex natural liquido como aditivo”. Tesis de pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 2004.

[22] T. A. Montealegre, J. J. Salazar. “Estudio del comportamiento de mezclas asfálticas drenantes (MD) modificando el cemento asfáltico con desecho de policroruro de vinilo (PVC)”. Tesis de pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 2005. [23] W. R. Girón. “Estudio del comportamiento del látex reciclado en las mezclas asfálticas drenantes”. Tesis de pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 2004.

Hugo Alexander Rondón Quintana Es Ingeniero Civil de la Universidad Francisco de Paula Santander de Cúcuta, Colombia. Obtuvo su título de Maestría en Ingeniería Civil en la Universidad de Los Andes de Bogotá D.C., Colombia. Obtuvo su doctorado en la Universidad de Los Andes de Bogotá D.C., Colombia. Actualmente se desempeña como profesor asistente en el Programa Curricular de Ingeniería Topográfica en la Universidad Distrital Francisco José de Caldas de Bogotá D.C., Colombia, y pertenece como investigador al grupo Topovial donde realiza estudios sobre asfaltos. harondon@hotmail.com

Luís Ángel Moreno Anselmi Es Ingeniero Civil de la Universidad Francisco de Paula Santander de Cúcuta, Colombia. Obtuvo su título de Maestría en Ingeniería Civil en la Universidad de Los Andes de Bogotá D.C., Colombia. Actualmente se desempeña como docente investigador en la Facultad de Ingeniería Civil de la Universidad Católica de Colombia de Bogotá D.C., Colombia, y pertenece como investigador al grupo de Pavimentos y Materiales de Ingeniería donde realiza estudios sobre asfaltos modificados. lamoreno@ucatolica.edu.co

Daniella Rodríguez Urrego

[18] A. P. Gutiérrez y D. M. Díaz. “Estudio del comportamiento del cemento asfáltico modificado con adición de caucho molido”. Tesis de pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 2004.

Es estudiante de ingeniería civil de la Universidad Católica de Colombia. Se ha desempeñado como auxiliar de investigación del grupo de Pavimentos y Materiales de Ingeniería de la Universidad Católica de Colombia desde el año 2006. drodriguez71@ucatolica.edu.co

[19] L. R. Caicedo y O. A. Herrera. “Estudio del comportamiento de mezclas densa en caliente elaboradas con asfaltos modificados con desechos de policloruro de vinilo”. Tesis de pregrado, Facultad de Ingeniería Civil, Universidad Católica de Colombia, Bogotá D.C., 2004.

Jennifer Lee Mariño

[20] A. A. Mojica , H. Hernández. “Estudio del comportamiento de mezclas densa en caliente tipo 1 (MDC-1) empleando asfaltos

Es estudiante de ingeniería civil de la Universidad Católica de Colombia. Se ha desempeñado como auxiliar de investigación del grupo de Pavimentos y Materiales de Ingeniería de la Universidad Católica de Colombia desde el año 2006. jlee35@ucatolica.edu.co

33

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

33


34

Propuesta metodológica para la aplicación del modelo Supply Chain Operations Reference Hugo Felipe Salazar Sanabria1 César Amílcar López Bello2

RESUMEN El modelo SCOR (Supply Chain Operations Reference) es una herramienta de Gestión Estratégica para tener un visión global de toda la cadena de suministro; especifica cada uno de los procesos y elementos, analiza, mide, establece objetivos de rendimiento, determina oportunidades de mejora, identifica las mejores prácticas y prioriza proyectos de mejoramiento para garantizar el cumplimiento de la promesa de servicio a través de la red de distribución del sistema. Este artículo incluye la configuración SCOR de una cadena de suministro básica, las ventajas de utilizar el modelo SCOR, las principales herramientas en la gestión de cualquier cadena de suministro y principalmente contiene una metodología propuesta y su aplicación en una organización de la industria forestal, incluyendo la descripción de la configuración por medio de categorías de proceso. Palabras clave: Cadena de suministro, configuración de la SC, herramientas del SCOR, metodología del SCOR.

METHODOLOGICAL PROPOSAL FOR THE IMPLEMENTATION OF SUPPLY CHAIN OPERATIONS REFERENCE MODEL ABSTRACT

1

2

Estudiante de la Maestría de Ingeniería Industrial de la Universidad Distrital. Investigador del Grupo Economía, Sociedad y Productividad UN-UPTC Profesor de la Facultad de Ingeniería de la Universidad Distrital. Investigador grupo MMAI de la Universidad Distrital.

34

Vol.14 No.2

The SCOR (Supply Chain Operations Reference) model is a strategic management tool aimed to provide a global vision of the entire Supply Chain (SC). The model, in one hand, specifies each of the involved elements and processes; on the other hand it analyzes, measures and establishes performance goals, identifies opportunities for improvement, determines best practices and prioritizes projects in order to ensure the fulfillment of the promise of service through the distribution

system. This paper discusses an SCOR configuration of a basic supply chain, the advantages of using the SCOR model, and the main tools in the management of any SC. It also contains a proposal of a methodology and its application to an organization within the forest industry Key words: Supply Chain configuration SCOR tools, SCOR methodology.

1. INTRODUCCIÓN El presente trabajo es el resultado de la investigación realizada en las etapas de revisión del estado del arte y su aplicación en el diseño de la Supply Chain (SC) específica, para conceptualizar y caracterizar los procesos básicos en el proyecto titulado “Diseño de un sistema de distribución en una organización del sector de la industria forestal para el mejoramiento y racionalización de los procesos logísticos”, desarrollado con el Grupo de Investigación Modelos Matemáticos Aplicados en la Industria MMAI de la Universidad Distrital [4] . Los problemas de configuración abarcan decisiones en el nivel estratégico relativas al diseño de la Cadena de Suministro (SC), entre otras, comprar o fabricar, estrategia de suministro, selección de proveedores, diseño de la red de producción-distribución y los procesos de distribución y devolución. Dentro de los estudios e investigaciones realizadas sobre la configuración de la SC, está el modelo SCOR, diseñado para representar, analizar y configurar SC, el cual fue desarrollado por el Supply Chain Council (SCC) en 1996. El modelo SCOR es una alternativa metodológica para darle solución a la problemática planteada en la investigación, es decir, es una herramienta para conceptualizar, evaluar, balancear y mejorar sistemas logísticos.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

34


35

2. CONFIGURACIÓN DE UNA CADENA DE SUMINISTRO (SC) BÁSICA La configuración de una SC depende de: • Los niveles de planeación de la demanda agregada y sus fuentes de información. • La localización de las fuentes de aprovisionamiento de productos y materia prima. • La localización de las plantas de producción y sus métodos de producción. • Los canales de distribución y del despliegue de inventarios y productos. • La localización y los métodos de devolución. Por la complejidad de la estructura anterior, se debe diseñar con precisión la configuración de la SC, de los procesos y de las prácticas de gestión. En el diseño de la configuración de una SC, se debe tener en cuenta que es una cadena de ejecución de procesos de Aprovisionamiento (S), Manufactura (M) y Distribución (D) y cada intersección de los procesos S-M-D es un enlace en la SC: ejecución de los procesos de transformación o transporte de materiales y/ o de productos, en donde cada proceso es un cliente del proceso previo y es proveedor del siguiente [1]. En la Planeación de Gestión, estos enlaces cliente-proveedor son los procesos de planeación y así balancear la SC y cada enlace requiere de un plan de una categoría de procesos, es decir, se debe planear el aprovisionamiento, la manufactura, la distribución y la devolución o retorno. (Ver Figura 1.)

3. VENTAJAS Y HERRAMIENTAS DEL SCOR

35

Figura 1. Configurabilidad de una SC básica. Tomado de [1].

• Se realizan procesos de tercerización o externalización, • Se implementan aplicaciones de software, • Se implementan arquitecturas orientadas al servicio. SCOR incluye diferentes diagramas y cada uno responde a un propósito diferente [1]: • Diagrama de ámbito de aplicación o alcance del negocio. Establece el alcance de un proyecto u organización. • Mapa Geográfico. Describe los flujos de materiales en el contexto geográfico, o sea, dentro de los nodos de una SC: almacenes, fábricas, centros de distribución (CD) o tiendas. • Diagrama de hilos o diagrama de flujo de materiales. Está enfocado a las categorías de proceso, para describir el alto nivel de complejidad o redundancia. • Diagramas de proceso o diagrama de flujo de trabajo. Describe información de materiales y flujo de trabajo; en el diagrama se destaca información sobre las personas e interacciones en el sistema.

4. PROPUESTA METODOLÓGICA

Modelando con SCOR se tienen grandes oportunidades de negocio [1]:

La metodología propuesta, objetivo principal del presente artículo, se compone de 4 etapas fundamentadas en los niveles de la estructura del modelo SCOR [1]:

• Es una estrategia de desarrollo, • Se pueden adquirir, fusionar o separar empresas o SC, • Se optimizan y se rediseñan procesos, • Se estandarizan, normalizan y se racionalizan procesos, • Se crean o arrancan nuevos negocios, • Se realiza evaluación comparativa,

• Nivel superior. Tipos de procesos. • Nivel de configuración. Categorías de proceso. • Nivel de elementos de proceso. Descomposición de procesos. • Nivel de implementación. Descripción de las actividades de proceso.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

35


36

4.1 Etapa 1

Definición y evaluación del alcance y de los procesos básicos de la SC; comprende:

Figura 2. Ejemplo de Diagrama de Alcance del Negocio. Tomado de [4].

Las etapas de proceso metodológico, una por cada nivel del SCOR, son: 1. Definición y evaluación del alcance y de los procesos básicos de la SC. 2. Definición y evaluación de las categorías de procesos. 3. Definición de los elementos de proceso o descomposición de procesos. 4. Implementación de los cambios de la SC. Las etapas de la metodología se deben ejecutar en forma secuencial, pero el alcance depende de la madurez administrativa y de los procesos logísticos de la organización, es decir, se puede aplicar parcial o totalmente según las características y estado de los procesos de la empresa. La metodología descrita se utilizó en la caracterización y configuración del sistema de producción y distribución de la empresa Reforestadora de la costa Refocosta S.A. zona centro. Los diagramas resultantes de las herramientas SCOR (ver Figuras 2,3,4), se utilizan en el presente artículo para describir las etapas del proceso metodológico. Se incluyen diagramas resultantes de casos específicos y fundamentados a partir de la consulta de diferentes casos de aplicación (ver [2], [3], [4]).

1. Compromiso por parte de la dirección de llevar a cabo un proceso de mejoramiento de los procesos de la SC. 2. Definición y análisis de los procesos existentes. Definición de los límites o fronteras de los procesos de la SC, utilizando vocabulario y notación estándar del modelo SCOR, a través de la creación del Diagrama de Alcance del Negocio (ver Figura 2.) 3. Evaluar los indicadores claves de rendimiento de primer nivel y compararlos con los mejores de su clase (BIC). En este caso las medidas de nivel 1 (M1), están evaluando el rendimiento global de la SC. 4. Identificar diferencias de rendimientos según las M1, para establecer objetivos de rendimiento competitivo (ORC). 5. Identificar oportunidades de mejora, según análisis de las mejores prácticas, para cada tipo de proceso nivel 1. 4.1.1 Diseño del diagrama de alcance del negocio [1]

En una plantilla con columnas para proveedores, proveedores de servicios y clientes, se realizan las siguientes actividades: • Identificar los clientes de la SC e incluirlos en la columna clientes • Identificar las entidades geográficas o lógicas de la SC (nodos de proveedores de servicios), considerando fábricas, CD, almacenes y clientes. • Incluir los proveedores de la SC • Enlazar los nodos para reflejar los flujos de materiales e información. 4.1.2 Evaluación del desempeño de la SC (nivel 1)

En todos los niveles SCOR proporciona indicadores claves de rendimiento (KPI’s), divididos en cinco atributos de rendimiento: • • • • •

Fiabilidad en cumplimiento (Reliability) Velocidad de atención (Responsiveness) Flexibilidad (Agility) Costos (Costs) y Gestión de activos (Assets Management) 36

36

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


37

Los atributos de rendimiento y las medidas de nivel 1 (M1), son una base para enfocar la definición de los indicadores dentro de una industria específica. El manual SCOR define cada una de las medidas con precisión y proporciona una fórmula para el cálculo: • Cumplimiento de la orden perfecta. • Tiempo de ciclo para cumplimiento de la orden. • Flexibilidad en SC inversa. • Adaptabilidad de la SC inversa. • Adaptabilidad de la SC baja. • Costo de gestión de la SC. • Costo de bienes vendidos. • Tiempo de ciclo del efectivo. • Retorno sobre activos fijos de la SC. • Retorno sobre capital de trabajo. Una vez que se ha observado el estado actual de la SC, se revisan datos históricos y se determina qué medidas usar para evaluarla. 4.2 Etapa 2

Definición y evaluación de las categorías de procesos. Comprende:

• Identifique los procesos de Nivel 2 (categorías de proceso). • Liste los procesos de Nivel 2 en los nodos sobre el mapa (ver Figura 3.) • Dibujar los flujos de materiales, mediante flechas que conecten los nodos. El primer diagrama a realizar del estado actual es el mapa geográfico, el cual describe el proceso existente identificando fuentes, sitios de manufactura y centros de distribución, usando las categorías de proceso. El mapa geográfico permite analizar y repensar el alcance de la SC, en aspectos tales como: que parte de la SC de los proveedores incluir, que parte de los mayoristas incluir, que líneas de productos incluir ó que grupo de clientes incluir [3]. Refinando el mapa geográfico se obtiene el diagrama de hilos. 4.2.2 Diseño del diagrama de hilos o diagrama de procesos [1]

Comenzando con los clientes, repetir los siguientes pasos, hasta que todos los nodos relevantes del Mapa Geográfico hayan sido creados:

1. Representar el estado actual de la SC (as is), mediante el mapa geográfico y el diagrama de hilos o diagrama de procesos. 2. Evaluar los KPI’s de segundo nivel y compararlos con los mejores de su clase (Best In Class-BIC). En este caso las medidas nivel 2 (M2), están evaluando desempeño de las categorías de proceso. 3. Identificar las diferencias de rendimiento y analizar desventajas de segundo nivel. 4. Identificar oportunidades de mejora, según análisis de las mejores prácticas, para cada categoría de proceso nivel 2. 5. Rediseñar el estado deseado de la SC (to be), mediante el mapa geográfico y el diagrama de hilos o diagrama de procesos. 6. Priorizar proyectos y realizar plan de proyectos. 4.2.1 Diseño de un mapa geográfico [1]

Comenzando con los clientes, repita para cada tipo de nodo en el mapa: 37

• Identifique, dibuje y nombre todos los nodos de suministro sobre el mapa.

Figura 3. Ejemplo de Mapa Geográfico. Tomado de [4].

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

37


38

se deben consultar las tablas de rendimiento de procesos para identificar oportunidades de mejora, según análisis de las mejores prácticas. SCOR sugiere que se consideren los atributos de rendimiento encontrados de la SC y se decida en donde la SC es superior, tiene ventajas, tiene paridad o es inferior a la media de la industria con el objetivo de determinar cómo se desea que sea su SC en el futuro. No se puede esperar ser superior en todas las categorías, pero se debe esperar ser muy bueno al menos en una o dos categorías.

Figura 4. Ejemplo de Diagrama de Hilos o Diagrama de Procesos. Tomado de [4].

• Determinar la clase de nodo (cliente, proveedor, manufactura) y cree una columna en la clase apropiada. • Crear representaciones de proceso (categorías de proceso), para cada proceso listado en la columna de este nodo (S1, M2, D1, etc.). • Vincular o enlazar los procesos a los procesos del nodo anterior, usando la información del flujo de material del mapa geográfico (ver Figura 4). • Añadir, opcionalmente, los flujos de información con diferente color o trazo. 4.2.3 Evaluación del desempeño de la SC (nivel 2)

Una vez que el equipo SCOR ha analizado datos históricos del nivel 1 y del nivel 2, está listo para revisar el enfoque actual de la organización para su SC, para definir una nueva estrategia de la SC si es necesario, para establecer objetivos de rendimiento competitivo, para establecer prioridades y presupuesto del rediseño [3]. SCOR se basa en ligeras variaciones y mejoras de las medidas de rendimiento, definidas en forma concreta y específica en el manual, para medir las categorías de proceso y las actividades. Así, si se quiere estudiar en forma más detallada una categoría de proceso, 38

Vol.14 No.2

Una vez examinada la estrategia de la SC y asignado prioridades, se debe pensar en la posición en donde se necesita estar para lograr la estrategia; si se asigna máxima prioridad a la fiabilidad y los datos históricos y los datos de referencia indican que su SC es superior, la compañía está en buena forma. Si se decide que su estrategia depende de la superioridad y está solo a la par, se debe considerar la forma de mejorar en una o dos áreas de desempeño de otro tipo que apoyen el logro de la estrategia [3]. 4.3 Etapa 3

Definición de los elementos de proceso o descomposición de procesos. Comprende: 1. Representar el estado actual (as is), por medio de los elementos de proceso, mediante el diseño los diagramas de proceso o diagramas de flujo de trabajo. 2. Evaluar los KPI’s de tercer nivel y compararlos con los mejores de su clase (BIC). En este caso las medidas de nivel 3 (M3), están verificando el rendimiento de los elementos de proceso. 3. Identificar las diferencias de rendimiento y analizar desventajas de tercer nivel. 4. Identificar oportunidades de mejora, según análisis de las mejores prácticas, para cada proceso nivel 3. 5. Representar el estado deseado (to be), por los elementos de proceso, mediante el diseño de los diagramas de proceso o diagramas de flujo de trabajo. 4.3.1 Diseño de un diagrama de proceso (workflow) [1]

• Obtener descripciones genéricas por parte de los dueños del proceso.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

38


39

• Mapear las descripciones en el diagrama de proceso (normalizar procesos). • Crear líneas de responsabilidad para reflejar los límites de la organización. • Crear los flujos de trabajo con los procesos SCOR (ver Figura 5).

4.3.3 Rediseñar la cadena de suministro SC según sea necesario (nivel 3)

Los primeros pasos del rediseño son la creación del futuro mapa geográfico y del diagrama de hilos, realizando cambios en las secuencias del flujo de trabajo para mejorar tiempos y eficiencias, apoyados en el listado de oportunidades y transacciones que son causa de dificultad. En el rediseño, los diagramas se pueden cambiar repetidamente; a partir de un rediseño inicial se estudia el problema a mayor profundidad [3]. En los diagramas de nivel 3, se determina la forma en que el proceso se llevará a cabo y se asignan responsabilidades específicas en un diagrama de responsabilidades de proceso, en el cual cada carril o franja identifica a una entidad funcional de la organización que serán las responsables de las actividades (ver Figura 6).

Figura 5. Ejemplo de Diagrama de Proceso o Diagrama de Flujo de Trabajo. Tomado de [1].

• Añadir descripción a los flujos de trabajo para reflejar entradas y salidas de los procesos. 4.3.2 Evaluación del desempeño de la SC (nivel 3)

Una vez que se tiene un buen conocimiento de fortalezas y debilidades del estado actual de la SC, se puede pensar en cómo se quiere competir y lo que se tendrá que hacer para poner en práctica una estrategia elegida o redefinida para la SC, partiendo de la estructura de la organización y la estrategia corporativa genérica u organizacional. Para poder determinar en donde centrar los esfuerzos de mejora, se debe comparar las prácticas de la compañía, con las mejores prácticas descritas por SCOR para procesos y subprocesos específicos. El manual SCOR identifica las mejores prácticas usadas por empresas superiores, con lo cual identifica un camino seguro para para mejorar procesos.

39

Se completa el análisis de mejoramiento cuando ha decidido si rediseña el proceso actual; si se ha decidido mejorar la SC actual, se debe tener objetivos asignados para cada atributo, y se debe haber seleccionado y priorizado las posibilidades de centrar el esfuerzo de mejoramiento.

Figura 6. Ejemplo de Diagrama de responsabilidades de Proceso S1. Tomado de [3].

4.4 Etapa 4

Implementación de los cambios de la SC. Comprende: 1. Planear el proceso de implementación. 2. Seleccionar proyectos piloto e implementarlos. 3. Evaluar el rendimiento de los proyectos piloto. 4. Aplicar proyectos pilotos, en donde sea posible, en toda la SC.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

39


40

4.4.1 Rediseñar la cadena de suministro SC según sea necesario (nivel 4)

En esta fase de rediseño, los diagramas de nivel 4 describen cómo las actividades del diagrama de responsabilidades de proceso nivel 3 son implementadas, es decir, en el diagrama nivel 4 se describe el proceso apropiado en forma detallada y refinada. El propósito del enfoque descendente (TopDown) del SCOR, es que el equipo de rediseño se concentre solo en los aspectos de la SC que requieren ser cambiados, así, para cada proceso nivel 3 que se decida cambiar, se debe consultar los elementos de proceso en el manual SCOR. El equipo de rediseño debe consultar las sugerencias de las mejores prácticas y considerar los cambios que se podrían hacer, como: nuevas prácticas de gestión, nuevas prácticas de empleados o uso de aplicaciones de software para automatizar una actividad o para apoyar a los empleados que realizan la actividad. 4.4.2 Todos los procesos deben ser gestionados

Cuando SCOR representa los módulos de planeación en un diagrama de responsabilidades, en el lado izquierdo se incluye a la unidad funcional que proveerá los gestores para super visar los procesos operativos, es decir, los procesos de planeación son actividades que deben ser asignadas a los gestores quienes deben supervisar los procesos operativos. El proceso de planeación puede ser dividido en actividades, y así como los procesos operativos pueden ser apoyados por aplicaciones de software u otras mejores prácticas, puede suceder con los procesos de planeación. Las mejores prácticas del plan de gestión, pueden sugerir actividades y herramientas que los administradores pueden usar, o pueden incluir módulos de software que se pueden usar para automatizar las funciones de planeación de gestión. 4.4.3 Cambios importantes en el rediseño de la SC [3]

Así como se recomienda un plan de actividades para los administradores responsables de los procesos operativos, también se recomienda herramientas y 40

Vol.14 No.2

actividades que los empleados pueden utilizar para mejorar los resultados de una actividad dada. En algunos casos se requiere cambios sustanciales en el trabajo y nuevas descripciones de funciones para implementar los cambios en las actividades. Hay una gran variedad de módulos y aplicaciones de software disponibles para ayudar en el mejoramiento y en la automatización de procesos de la SC. En muchos casos los módulos diseñados en forma estándar no coinciden exactamente con la descripción de procesos usados en SCOR, y los diseñadores tendrán que decidir si una aplicación de software dada, que parece cubrir varios de los procesos, ofrece la funcionalidad requerida. Una vez que se ha decidido cómo cambiar los procesos seleccionados en la SC existente, es una buena práctica poner a prueba el nuevo diseño en una herramienta de simulación. La esencia de la práctica de la simulación es que el modelo del proceso deseado (to be), identifica los requerimientos supuestos de eficiencia de las nuevas actividades y luego se pueden correr cargas de trabajo simuladas a través del sistema, para ver si se ejecuta como se esperaba. Al final de todas las actividades de rediseño, se tiene el proyecto global de cambios o mejoras a realizar en los diferentes procesos básicos y en las diferentes categorías de proceso en la SC, el cual requiere del diseño de un plan para su implementación. Se identifican los cambios obligatorios que traerán mejoras inmediatas, los cambios críticos en los procesos, los cambios de mayor facilidad y de mayor prioridad de realización y los cambios que van a generar mayor valor agregado, según las prioridades de rendimiento identificadas para la SC.

5. CONCLUSIONES El método SCOR ofrece un vocabulario, una notación, un proceso y un enfoque sistemático que se convierte en una poderosa herramienta de gestión, pero la metodología de aplicación de su estructura y sus herramientas está implícita en su diseño, causando dificultad en el proceso de apropiación y aplicación del modelo.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

40


41

Por los diversos problemas encontrados en el proceso de conceptualización del modelo se hizo evidente y necesaria la necesidad de contar con una metodología mucho más amplia y explícita para su adaptación e implementación en organizaciones que comienzan el inaplazable proceso de mejoramiento de los sistemas logísticos.

REFERENCIAS BIBLIOGRÁFICAS

El principal aporte de la propuesta metodológica para la aplicación del modelo SCOR presentada en este artículo, consiste en describir de manera clara y detallada el proceso de diseño e implementación del modelo, no disponible en el estado del arte actual, para organizaciones que se encuentran en etapas iniciales, para organizaciones que ya han obtenido algunos resultados en la mejora de los procesos y para organizaciones que han implementado el modelo y que se encuentran realizando actividades de mejoramiento continuo.

[4] H. F. Salazar Sanabria. “Diseño de un sistema de distribución en una organización del sector de la industria forestal para el mejoramiento y racionalización de los procesos logísticos”. Tesis de Magíster en Ingeniería Industrial. Bogotá. D.C. Universidad Distrital Francisco José de Caldas. Facultad de Ingeniería, 2010. 107 págs.

La propuesta metodológica es uno de los productos de la tesis de Maestría en Ingeniería Industrial de la Universidad Distrital, “Diseño de un sistema de distribución en una organización de la industria forestal para el mejoramiento y racionalización de los procesos logísticos”[4], donde se toma como caso de estudio la empresa Refocosta S.A., buscando la caracterización del sistema de producción, distribución e inventario, hasta la etapa de categorías de procesos. Los resultados tangibles obtenidos en el trabajo de mejoramiento de los procesos logísticos en Refocosta S. A., indican la validez y pertinencia de la presente propuesta metodológica en sus etapas de definición y evaluación del alcance y de los procesos básicos de la SC y la definición y evaluación de las categorías de procesos. Por otra parte podemos mencionar que en la actualidad se encuentra en ejecución la investigación “Caracterización de la cadena láctea de la provincia de Sugamuxi en Boyacá”, donde también se está aplicando y validando la metodología descrita. Los resultados de las dos experiencias prácticas serán descritos en detalle en una próxima publicación.

[1] Supply-Chain Operations Reference- model. SCOR Overview Version 9.0 Supply-Chain Council. 2008. [2] J. L. Calderón Lama, L. E. Francisco-Cruz. “Análisis del modelo SCOR para la Gestión de la Cadena de Suministro”. IX Congreso de Ingeniería de Organización Gijón, 8 y 9 de Septiembre de 2005. [3] P. Harmon. “An Introduction to the Supply Chain Council’s SCOR Methodology”. Business Process Trends. WHITEPAPER. January 2003.

[5] http://www.supply-chain/scorcasestudiesatob.asp. [6] J. L. Calderón Lama. “Análisis del modelo SCOR para la Gestión de la Cadena de Suministro”. Proyecto de Investigación del Programa de Doctorado Gestión de la Cadena de Suministro en el contexto de Empresa Virtual, Ingeniería y Modelización Empresarial. Universidad Politécnica de Valencia. Enero 2005. [7] S. Maturana y C. Zepeda. “Modelación de Sistemas de Distribución e Inventario”. Actas de Resúmenes Extendidos del Segundo Congreso Chileno de Investigación Operativo OPTIMA 97 y Primer Encuentro Latino Iberoamericano de Optimización, L. Pradenas (ed.), pp. 524—529, Concepción, 6—8 de Noviembre de 1997. [8] R. Veloso. “Tendencias en el diseño de redes de distribución inspirado en el servicio al cliente”. Boletín Mensual Actualidad Logìstica, Edicion 29, Chile, Junio de 2005. [9] SCOR Quick reference. Version 9.0 Supply-Chain Council. 2008. [10] F. Lario, D. Pérez Perales. “Gestión de las redes de suministro, sus tipologías y clasificaciones”. X Congreso de Ingeniería de Organización, Gijón 2008. [11] O. D. Preciado Rojas. “Análisis mejoramiento de planeación de la producción en el proceso de remanufactura en Refocosta S.A.”. Trabajo de grado como Ingeniero Industrial. Sogamoso Boyacá. UPTC. Escuela de Ingeniería Industrial 2009.125 p.

Hugo Felipe Salazar Sanabria. Es Ingeniero Industrial de la Universidad Industrial de Santander, de Bucaramanga, Colombia. Obtuvo su título de Maestría en 2010, en la Universidad Distrital Francisco José de Caldas de Bogotá, Colombia. Se desempeñó como Director de Programa de Ingeniería Industrial en la UPTC Sogamoso durante 8 años. Posteriormente, ejerció el cargo de Director del Centro de Investigaciones y Formación Avanzada de Sogamoso CIFAS UPTC. Actualmente se desempeña como profesor en el área de Producción, Logística e Investigación de Operaciones en la UPTC de Sogamoso, Colombia, y pertenece como investigador al grupo Economía, Sociedad y Productividad UN-UPTC donde realiza estudios sobre producción y logística. hfsalazar@hotmail.com

César Amilcar López Bello Magíster en Ingeniería Industrial, Universidad de los Andes. Especialista en Ingeniería de Producción, Universidad Distrital. Ingeniero Industrial, Universidad Distrital Francisco José de Caldas. Profesor Investigador grupo sistemas logísticos de la Universidad de la Sabana. Profesor Asociado, Facultad de Ingeniería Universidad Distrital. Investigador grupo MMAI de la Universidad Distrital. clopezb@udistrital.edu.co. cesar.lopez@unisabana.edu.co.

41

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

41


42

Diseño de circuitos analógicos basados en amplificadores operacionales usando algoritmos genéticos con función de aptitud difusa Héctor Hostos1 Federico Sanabria2 Miguel Melgarejo3

RESUMEN

1. INTRODUCCIÓN

Este artículo presenta una propuesta para el diseño de circuitos analógicos basados en amplificadores operacionales usando un algoritmo genético simple. La entrada al algoritmo es la función de transferencia requerida por el diseñador expresada como la respuesta al escalón unitario que el circuito debería exhibir. Adicionalmente, una característica especial del algoritmo radica en que la función de aptitud se implementa como un sistema de inferencia difusa. Se incluye en el artículo un resumen de la metodología utilizada para el diseño del algoritmo y resultados con múltiples funciones de transferencia para un circuito de topología específica.

En el proceso de diseño de circuitos analógicos es muy común que a la hora de requerir respuestas que implican circuitos complejos se tenga que hacer uso de herramientas de optimización numérica [3]. La razón de esto es que el modelamiento matemático de este tipo de topologías que genera mejores resultados es la mayoría de las veces complejo. Estas herramientas se basan en topologías clásicas y en aproximaciones del comportamiento de los circuitos que solo alcanzan soluciones en mínimos locales [1].

Palabras clave: algoritmo genético, amplificador operacional, circuito analógico, sistema de inferencia difusa, función de aptitud, función de transferencia.

OPERATIONAL AMPLIFIER ANALOG CIRCUIT DESIGN USING GENETIC ALGORITHMS WITH FUZZY FITNESS FUNCTION ABSTRACT

1

2

3

Estudiante de la Facultad de Ingeniería, Universidad Distrital. Estudiante de la Facultad de Ingeniería, Universidad Distrital. Profesor de la Facultad de Ingeniería, Universidad Distrital.

42

Vol.14 No.2

This paper presents a genetic algorithm approach to the design of analog circuits consisting of operational amplifiers. The input of the algorithm is the transfer function of the required system. The fitness function of the genetic algorithm is implemented by means of a fuzzy inference system. A summary of the methodology used in the design is included and results with a specific circuit topology for multiple transfer functions are reported. Key words: genetic algorithm, operational amplifier, analog circuit, fuzzy inference system, fitness function, transfer function.

Es por esta razón que buscando soluciones a este tipo de problemas surgen diferentes paradigmas como por ejemplo, la computación evolutiva [1]. Esta ciencia aborda el estudio de los fundamentos y las aplicaciones de técnicas computacionales basadas en los principios de la evolución natural [4]. Son técnicas que pueden ser vistas como métodos de búsqueda y optimización; dentro de las reportadas se pueden citar: estrategias de evolución [8], programación evolutiva [9] y los algoritmos genéticos [10]. Tomando como referencia los resultados obtenidos en [1],[2] y [3], se propone en este trabajo emplear un algoritmo de este tipo, el cual a partir de una función de transferencia específica, encuentre un circuito basado en un amplificador operacional, resistencias y capacitancias. La estructura de la red en ésta aproximación es estática lo que quiere decir que el algoritmo solo determina los valores de los elementos pasivos, no cuales de esos elementos deben formar el circuito. El propósito del algoritmo es generar una buena solución teniendo en cuenta el error con respecto a la respuesta al paso que genera la función de transferencia objetivo.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

42


43

El parámetro más importante en la definición del algoritmo evolutivo es la función encargada de evaluar a las posibles soluciones del problema. Este parámetro recibe el nombre de función de aptitud [6] y en esta propuesta se realiza mediante un sistema de inferencia difusa. Se busca de esta forma integrar una perspectiva cualitativa de evaluación que podría ser derivada de un experto humano [1]. El artículo se estructura así: primero se muestran ciertos fundamentos que cubren aspectos generales de los algoritmos genéticos y los sistemas difusos. Luego se presenta un resumen de la propuesta de diseño. En tercer lugar, se describen los resultados para distintas funciones de transferencia con un circuito de topología Sallen-Key, que en la práctica es comúnmente usado debido a su simplicidad [12]. Por último, se presentan algunas conclusiones.

2. FUNDAMENTOS Esta sección presenta una revisión de las técnicas de inteligencia computacional consideradas en este trabajo. El lector que esté interesado en profundizar sobre estos temas puede consultar [1], [6], [8], [9], [10], [13], [14] para algoritmos genéticos y [4] y [11] para sistemas difusos.

aproximan a la solución que requiere el problema. Luego de evaluar la función de aptitud, se realiza un proceso de selección donde se eliminan todas las posibles soluciones que no estén dentro del rango de idoneidad necesario. Con las soluciones que quedan se inicia un proceso para crear nuevos pobladores o una nueva generación. Para ello se hacen acciones como el cruce entre dos elementos para generar uno nuevo con las características de los originales, la copia o el paso de los elementos de la generación actual a la siguiente y la mutación o cambio aleatorio de las características de los individuos. En esta nueva generación se realiza un proceso similar al de la primera, buscando generar soluciones cada vez mejores. Idealmente el algoritmo continúa así hasta converger a la solución óptima o hasta que se cumpla algún parámetro que el diseñador determina para detener el algoritmo. Es responsabilidad del diseñador determinar cuándo se debe detener el algoritmo. El estado al que converge el algoritmo y la calidad de la solución hallada dependen fundamentalmente de sus parámetros, tales como la función de aptitud, la cantidad de generaciones que se corre el algoritmo, los métodos de cruce, copia y mutación, entre otros.

2.1 Algoritmos genéticos

Los algoritmos genéticos son un proceso iterativo de búsqueda de soluciones cuasi óptimas, regido por una serie de principios que se inspiran en las leyes de la evolución de las especies (la sobrevivencia del más apto). Una de las características más importantes de estos algoritmos es que no requieren de un conocimiento profundo del problema, pues bajo ciertas restricciones no tienen limitantes respecto a la forma de las soluciones que se planteen. Así, es posible explorar respuestas que tal vez con los métodos de diseño convencionales no se considerarían.

43

El algoritmo genético se inicia estableciendo una población inicial de posibles soluciones al problema, las cuales son seleccionadas aleatoriamente. A partir de estas, se evalúa una función de aptitud que cuantifica el desempeño de las soluciones respecto a cuán bien se

2.1.1 Cromosomas y genes

Los cromosomas son cada una de las posibles soluciones que se consideran en la población. Conceptualmente son unidades que contienen toda la información necesaria para determinar la posible solución al problema. Generalmente, para facilitar el trato de los datos se representan en forma de vector o de matriz. Así como en genética, el gen es una parte integrante del cromosoma, en los algoritmos genéticos cada gen posee una unidad de información de la posible solución que forma el cromosoma. 2.1.2 Cruce de cromosomas

Esta es una de las acciones que se realizan sobre los cromosomas seleccionados de la generación presente para crear los elementos una nueva generación. El operador de cruce mezcla los genes de dos cromosomas priorizando de alguna forma aquellos que

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

43


44

generen mejores respuestas. El nuevo elemento es un cromosoma completamente diferente a los originales con un desempeño que puede ser mejor o peor que los cromosomas padre, esto depende de la forma como se lleve a cabo la mezcla. 2.1.3 Copia de cromosomas

Esta es la acción mediante la cual se pasan los mejores cromosomas de la generación anterior hacia la nueva. Esto se lleva a cabo para comparar estos individuos con las nuevas soluciones creadas por la acción de cruce y para preservar el acervo genético que introducen estas soluciones. 2.1.4 Mutación de cromosomas

Este es el proceso con el que se realizan cambios aleatorios en las posibles soluciones de las nuevas generaciones. Su propósito es aumentar el rango de estudio hacia horizontes más grandes y no restringirse a rangos pequeños que pudiesen tener solo mínimos locales.

embargo, en la literatura se asocia este concepto a aquel sistema que procesa variables puntuales mediante una base de reglas con los conceptos de lógica difusa. Un nombre generalmente asignado es el de “sistema de inferencia difusa”. La arquitectura típica de un sistema de este tipo se ilustra en la Figura 1. Este se puede apreciar como un sistema de múltiples entradas y una salida, en el caso de requerirse más de una salida lo apropiado sería generar otro sistema. La base de reglas representa el conocimiento que el sistema modela y relaciona las variables de entrada con la de salida de una forma lingüística e interpretable por el ser humano. La fusificación transforma valores puntuales de entrada en valores difusos. El motor de inferencia simula el proceso de toma de decisiones realizado por un ser humano empleando la implicación difusa. La defusificación proporciona salidas puntuales según la variable difusa inferida por el motor.

X1

. . .

Xn

FUSIFICADOR

X2

BASE DE REGLAS

MOTOR DE INFERENCIA

DEFUSIFICADOR

3. METODOLOGÍA

Y

Lo primero que se define es la red generalizada que va a ser optimizada mediante el algoritmo genético. El problema se limita a una red de un amplificador operacional como la que se muestra en la Figura 2. La metodología para el desarrollo del algoritmo genético se muestra en la Figura 3. Red de realimentación positiva

Figura 1. Diagrama en bloques del funcionamiento de un Sistema de Inferencia Difusa. Las entradas X y la salida denotada como Y, son valores puntuales, sin embargo todo el procesamiento interno se realiza según la teoría de lógica difusa. ENTRADA

2.1.5 Función de aptitud

Esta función sirve para medir la adaptación de un cromosoma a su entorno, o en términos más prácticos, para evaluar el desempeño de una posible solución en el problema que se está resolviendo.

44

Vol.14 No.2

Circuito de conexión interno

SALIDA

Red de realimentación negativa

2.2 Sistemas difusos

Figura 2. Diagrama de bloques genérico para un circuito analógico con un amplificador operacional. Los bloques que rodean al amplificador operacional se componen de elementos pasivos.

El término de sistema difuso puede ser interpretado de muchas formas. Un determinado sistema que procese una variable lingüística o un número difuso, ya puede ser considerado como sistema difuso. Sin

Cada subproceso del algoritmo genético se describe a continuación. Dado que se trata de un algoritmo genético canónico, se hace énfasis en la forma como se definieron los operadores requeridos para esta aplicación en particular.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

44


45

Tabla I. Rangos Para Los Elementos Pasivos Elemento

Valor Mínimo

Valor Máximo

Resistencia Capacitancia

10Ω 1x10 -6 F

10 x106 Ω 50 x10 -3 F

La población inicial es la primera matriz de cromosomas. Esta es una matriz con valores aleatorios distribuidos uniformemente. Se pretende con esta inicialización permitir que la búsqueda se realice sobre rangos amplios del espacio solución. 3.2 Función de aptitud

Las recomendaciones para el diseño de esta función son múltiples [5]. En este trabajo se ha tenido en cuenta que el principal propósito de esta función es evaluar lo que realmente se pretende optimizar. Por tanto, se considera emplear un sistema de inferencia difusa (FIS por sus siglas en inglés), el cual a partir de cierto conocimiento del problema calcula la aptitud de los individuos. Se propone un sistema de una entrada y una salida con fusificación síngleton, motor de inferencia Mamdani producto y defusificador por centroide discreto [11]. 3.2.1 Entrada al sistema de inferencia difusa Figura 3. Diagrama del procedimiento general del algoritmo genético.

3.1 Población del algoritmo genético

La respuesta del circuito generalizado depende fundamentalmente de los valores de los elementos pasivos que lo conforman. Por tanto se puede decir que el cromosoma se debe conformar con estos valores. Este se construye como un vector donde cada celda (gen) contiene el valor real limitado de uno de los elementos del circuito, originándose así un vector de tamaño igual al número de elementos pasivos.

45

La población se construye como una matriz conformada por los vectores que representan los cromosomas de la población. El objetivo de esta construcción matricial es facilitar la manipulación de los datos en los procesos del algoritmo. Para la representación de los parámetros en el cromosoma se utilizan valores dentro del rango de la Tabla I. Estos rangos obedecen a valores de elementos que comúnmente se utilizan en estos circuitos y que se pueden encontrar en el mercado de componentes electrónicos.

La entrada al sistema es una métrica de error que pondera la diferencia entre la respuesta temporal del circuito requerido ante una entrada paso con la respuesta temporal del candidato en evaluación ante esta misma entrada. Es necesario aclarar que aunque se trata de la evaluación de circuitos analógicos, las respuestas temporales se tratan como señales discretas dado que se obtienen de simulaciones computacionales de estos circuitos. Por tanto, solo es de interés garantizar que exista una similitud entre las respuestas en los instantes de muestreo. Una de las formas más usadas para comparar señales en el tiempo es la métrica del error cuadrático medio normalizado [7] (NMSE por sus siglas en inglés):

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

(1)

(2)

(3) Vol.14 No.2

45


46

SI NMSE es muy alto ENTONCES el circuito es descalificado (4)

a)

SI NMSE es alto ENTONCES el circuito es normal

(5)

SI NMSE es medio ENTONCES el circuito es normal

(6)

SI NMSE es bajo ENTONCES el circuito es apto

(7)

SI NMSE es mínimo ENTONCES el circuito es apto

(8)

3.2.3 Función no lineal equivalente

b)

Figura 4. Funciones de pertenencia para las variables de entrada y salida. (a) muestra la partición difusa sobre el universo de entrada del error normalizado de cero a uno. (b) muestra la partición difusa sobre el universo de salida de la aptitud del individuo.

Donde Pi representa cada valor de la señal obtenida del circuito solución en evaluación y Mi concierne a cada valor de la señal de referencia. 3.2.2 Conjuntos difusos y base de reglas

Las funciones de pertenencia del sistema de inferencia difusa se eligen gaussianas y sigmoidales dado que este tipo de funciones tienen una mayor capacidad de generalización en comparación con funciones triangulares o trapezoidales [11]. Esta característica permite obtener sistemas difusos con comportamientos globales no lineales más ricos, con una base de reglas relativamente pequeña. El conjunto de funciones propuestas en este caso se presenta en la Figura 4. Estas funciones representan la apreciación lingüística que tiene un experto con respecto a los posibles valores de NMSE calculados a partir de (1). Para el universo de discurso de entrada se elige un número de etiquetas lingüísticas razonable que caracterice cada candidato en relación a su NMSE y que además sea interpretable. Para el caso de la variable de salida, se aprecia una distribución uniforme de solo tres etiquetas lingüísticas, ya que para el problema en cuestión no hacen falta más descripciones. La base de reglas la componen las relaciones (4-8).

La función no lineal equivalente al sistema difuso se presenta en la Figura 5. Notese que la partición lingüística genera cuatro regiones de interés en relación al valor de aptitud de los individuos. La primera región corresponde a los individuos cuyo NMSE está por debajo de 0.3, los cuales obtendrán calificaciones superiores al 50% de la escala, siendo aquellos que tendrían mayores oportunidades de ser seleccionados. La segunda es una región de poca variabilidad entre 0.3 y 0.6, donde los individuos tienen oportunidades similares de ser seleccionados sin ser las mejores. En tercer lugar, se encuentra una región nuevamente de descenso entre 0.6 y 0.8 donde los individuos tienen calificaciones por debajo del 50% de la escala. Finalmente aparece una zona de poca variabilidad donde los individuos tienen las oportunidades más bajas de ser seleccionados.

Figura 5. Función de aptitud resultante del mapeo de un sistema de inferencia difusa. Nótese la no linealidad impuesta a propósito por factores como las funciones de pertenencia y la base de reglas.

Esta función resultante puede ejercer presión selectiva para diferentes clases de individuos. La primera región garantiza que ninguno de los mejores individuos obtendrá máxima probabilidad de ser seleccionado, lo cual evitaría convergencia prematura hacia determinadas soluciones. Mientras que la cuarta región garantiza que los individuos con el peor desempeño tengan una probabilidad pequeña de ser seleccionados, lo que permitiría conservar la diversidad genética. 46

46

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


47

3.3 Proceso de selección y cruce

El operador de selección consiste en una implementación hibrida entre selección elitista y selección por ruleta, esto con razón de explotar al máximo los beneficios que brinda cada uno de estos métodos [5]. La selección inicia con la aplicación del operador elitista, este elige un porcentaje de los mejores individuos en dependencia del resultado del proceso de evaluación. Estos quedan habilitados para ser padres y son además ordenados de acuerdo con la calificación resultante de la simulación. Seguidamente se ejecuta el operador de ruleta, el cual trabaja con los individuos resultantes de la selección elitista. Este elige los individuos que harán parte del proceso de cruce. En este operador, a cada individuo se le asigna una probabilidad de ser elegido en dependencia del puesto que obtuvieron en el proceso de evaluación. El proceso empieza asignándole a cada uno de los individuos un rango de una nueva variable, que va de cero a uno, en función del puesto que obtuvieron en el proceso de evaluación. El mejor individuo obtiene el rango más grande y el peor el más pequeño. Seguidamente se genera un número aleatorio entre cero y uno, si el valor del número generado cae dentro del rango asignado a algún cromosoma, ese cromosoma es seleccionado para el cruce. El procedimiento se realiza dos veces para generar los cromosomas padres. En vista de que el cromosoma representa valores reales de los parámetros de la posible solución, el cruce se realiza promediando todos los valores de ambos cromosomas, se genera así por cada operación de cruce un solo hijo. Este proceso se repite las veces necesarias para generar un número constante de individuos.

47

Adicionalmente, por la forma en que se asignan los rangos, es consecuente que los mejores individuos de la población tengan siempre más probabilidad de ser elegidos que los peores. La decisión de incluir los peores individuos dentro del proceso evolutivo se debe a que estos individuos pueden tener características genéticas que enriquecerían el desarrollo del mismo.

A continuación se forma un nuevo conjunto de individuos concatenando los individuos resultantes del proceso de cruce con los individuos resultantes del proceso de selección elitista. Este conjunto tiene siempre un número constante de individuos. La nueva población se genera aplicando el operador que se describe a continuación. 3.4 Proceso de mutación

En este paso se altera el valor de una resistencia y una capacitancia por cromosoma de forma aleatoria, el operador cambia el valor del elemento respetando el rango previamente establecido. De los individuos disponibles en la población se decide mutar a sólo un 10% por generación. Lo anterior se define de esta manera teniendo en cuenta que esta tasa proporcionó buenos resultados experimentales en el algoritmo implementado en [5].

Figura 6. Filtro de tipo Sallen-Key empleado para la inicialización del algoritmo.

4. RESULTADOS La topología del circuito se elige como un filtro tipo Sallen-Key, el cual muestra en la Figura 6. De este circuito se deduce la siguiente función de transferencia [12]:

(9)

Se hacen tres pruebas que consisten en considerar como referencia al algoritmo tres funciones de transferencia distintas. La primera de segundo orden de tipo sobreamortiguado, cuya respuesta se asemeja a la de un sistema de primer orden. En segundo lugar se considera un sistema de tipo subamortiguado con una alta componente oscilatoria y finalmente un

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

47


48

sistema de tercer orden. El parámetro de parada en todas las pruebas es el número de generaciones necesario para que el algoritmo converja. La entrada del sistema en todas las pruebas es la función paso. Es importante resaltar que debido al carácter estocástico del algoritmo genético [10] y con el fin de atenuar varianzas estadísticas, los resultados presentados a continuación recopilan la información de múltiples experimentos para cada una de las pruebas mencionadas.

la respuesta del mejor individuo obtenido en el último experimento. Se puede ver que las respuestas se solapan dado que el NMSE obtenido es de 8.85x10-5. El promedio de las curvas de error de los mejores individuos por generación en todos los experimentos se muestra en la Figura 8, incluyendo también barras de desviación. De esta se aprecia que el algoritmo converge rápidamente dado que la función de transferencia es del mismo orden que la del circuito, además porque la respuesta de referencia tiene una dinámica simple.

Figura 7. Respuestas del mejor individuo de una corrida y de la primera función de transferencia de referencia ante entrada paso, NMSE = 8.85 x 10-5. Figura 9. Respuestas del mejor individuo de una corrida y de la segunda función de transferencia de referencia ante entrada paso, NMSE = 0.0033.

Figura 8. Error del mejor individuo por generación promediando todas las ejecuciones con barras de desviación.

4.1. Sistema de referencia de segundo orden sobreamortiguado

La función de transferencia en cuestión es: (10)

De esta primera prueba se realizaron 30 experimentos, en cada uno de ellos el algoritmo genético se ejecutó durante 30 generaciones. A manera de ilustración se exhibe en la Figura 7 48

Vol.14 No.2

Figura 10. Error del mejor individuo por generación promediando todas las ejecuciones con barras de desviación.

4.2. Sistema de referencia de segundo orden subamortiguado

La función de transferencia corresponde esta vez a: (11)

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

48


49

La anterior fue escogida intencionalmente con un alto grado de oscilación para observar el comportamiento del algoritmo. De nuevo se realizan treinta experimentos en igualdad de condiciones. El algoritmo se ejecuta con setenta generaciones, debido a que en esta ocasión la convergencia requiere de más tiempo. La mejor respuesta obtenida en el último experimento se muestra en la Figura 9, donde el NMSE es igual a 0.0033. El desempeño del algoritmo empeora en comparación al caso anterior, sin embargo la respuesta es aceptable para el número de generaciones adoptado. La curva del error promedio de los mejores individuos por generación se presenta en la Figura 10. La escala vertical es diez veces más grande que la empleada en la Figura 8, aún así las barras de desviación se observan más amplias, lo que da a entender que el algoritmo convergió a varias soluciones no similares durante los experimentos.

Figura 11. Respuestas del mejor individuo y de la tercer función de transferencia de referencia ante entrada paso, NMSE = 0.0030.

4.3 Sistema de referencia de tercer orden

La función de transferencia en este caso es: (12)

Se aprecia que el denominador se compone de dos factores que deben generar una respuesta muy parecida a la de un sistema de segundo orden sub-amortiguado. Esta vez la intención no es causar un comportamiento muy oscilatorio, tan sólo se quiere apreciar el comportamiento del circuito para sistemas de mayor orden. El algoritmo se detiene en doscientas generaciones. Al igual que los anteriores casos, se realizan 30 experimentos. La respuesta del mejor individuo en el último experimento se muestra en la Figura 11, en este caso el NMSE obtenido es igual a 0.0030. El resultado es aceptable considerando que el circuito es por naturaleza de segundo orden y se le está forzando a seguir una respuesta de tercer orden. El gráfico del error promedio de los mejores individuos por generación se presenta en la Figura 12. Con respecto a la misma escala vertical que la Figura 8, las barras

Figura 12. Error del mejor individuo por generación promediando todas las ejecuciones con barras de desviación.

de desviación son más pequeñas que en las pruebas anteriores dado que la respuesta de referencia es más suave y así le resulta más fácil al algoritmo llegar al óptimo. Para las tres anteriores pruebas se apreciaron comportamientos característicos. En el primer caso según la Figura 7 y 8, el algoritmo converge mucho antes de las 30 generaciones estipuladas y genera una respuesta tan acertada, que al graficarla junto con la de referencia, estas se superponen. En el segundo caso se aprecia que el algoritmo se enfrenta a una referencia más particular por lo que ya no se solapan del todo las gráficas en la Figura 9 y las barras de desviación en la Figura 10 son más considerables que el caso anterior. Por último, el tercer caso es una muestra de convergencia temprana pero no de una respuesta necesariamente óptima.

49

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

49


50

5. CONCLUSIONES

[6] M. D. Vose. “The Simple Genetic Algorithm”. MIT Press, Cambridge, MA, August. 1999.

Se ha presentado una propuesta para el diseño evolutivo de circuitos analógicos basados en amplificadores operacionales. La propuesta hace uso de un algoritmo genético simple cuya función de aptitud está dada por un sistema de inferencia difusa, lo cual ha permitido incluir una valoración lingüística de los individuos solución. En particular, la función de aptitud difusa presenta una serie de regiones interesantes que favorecen tanto a la convergencia del algoritmo como a la diversidad genética de las poblaciones.

[7] M. C. Cirillo and A. A. Poli. “On the use of the normalized mean square error in evaluating dispersion model performance”. Atmospheric environment. Part A, general topics, Vol 27, No. 15, pp. 2427-2434. 1993.

La propuesta se ha validado sobre tres casos de aplicación. En cada uno de ellos se logró emular satisfactoriamente la respuesta al escalón de un sistema de determinado orden por medio de un circuito relativamente simple como es el filtro de Sallen-Key. Por tanto el método propuesto adquiere un valor interesante para el diseño de computadores analógicos, los cuales se aplican en la simulación de algunos procesos físicos en el área de control.

[13] D. Goldberg. “Genetic Algorithms in Search, Optimization and Machine Learning”. Addison-Wesley.1989.

Como trabajo futuro se propone llevar esta propuesta de diseño hacia circuitos analógicos más complejos cuyo análisis matemático directo sea complicado. Igualmente valdría la pena explorar algoritmos evolutivos más interesantes que permitieran realizar optimización de múltiples objetivos, lo que permitiría incluir variables de interés adicionales al NMSE.

[8] S. Sumathi, T. Hamsapriya, P. Surekha. “Evolutionary Intelligence”. Springer-Verlag, Berlin. 2008. [9] M. Affenzeller, S. Winkler, S. Wagner y A. Beham. “Genetic algorithms and genetic programming - Modern concepts and practical applications”. Numerical Insights. CRC Press. 2009. [10] Z. Michalewicz. “Genetic Algorithms + Data Structures = Evolution Programs”. Springer-Verlag, Heidelberg, 3ra Edición. 1996. [11] L. X. Wang. “A course in Fuzzy Systems and Control”. 1st ed., New Jersey: Prentice Hall International. 1997. [12] J. Karki.“Analysis of the Sallen-Key architecture”. Texas instruments application report SLOA024B, Sep. 2002.

[14] J. H. Holland. “Adaptation in Natural and Artificial Systems”. Cambridge, MA: The MIT Press. 1992.

Federico Andrés Sanabria Muñoz Estudiante de Ingeniería Electrónica de la Universidad Distrital Francisco José de Caldas. Actualmente está adscrito al grupo de investigación del Laboratorio de Automática, Microelectrónica e Inteligencia Computacional (LAMIC) de la Universidad Distrital Francisco José de Caldas donde realiza estudios en el campo de Inteligencia Computacional. fasanabriam@correo.udistrital.edu.co

Héctor Leonardo Hostos Orjuela Estudiante de Ingeniería Electrónica de la Universidad Distrital Francisco José de Caldas. Actualmente está adscrito al grupo de investigación del Laboratorio de Automática, Microelectrónica e Inteligencia Computacional (LAMIC) de la Universidad Distrital Francisco José de Caldas donde realiza estudios en el campo de Inteligencia Computacional. hlhostoso@correo.udistrital.edu.co

Miguel Melgarejo

REFERENCIAS BILIOGRÁFICAS [1] El B. Grimbledy. “Automatic Analogue Circuit Synthesis using Genetic Algorithms”. The University of Reading, Reading. 2000. [2] V. Aggarwal. “Evolving Sinusoidal Oscillators Using Genetic Algorithms”. Netaji Subhas Institute of Technology, New Delhi. 2002. [3] D. H. Horrocks, Y.M.A. Khalifa. “Genetic Algorithm Design of Electronic Analogue Circuits Including Parasitic Effects”. School of Engineering, University of Wales, College of Cardiff, Cardiff. 1996. [4] C. A. Peña. “Coevolutionary Fuzzy Modeling”. Lecture Notes in Computer Science. Springer-Verlag, Alemania. 2004. [5] R. L. Haupt, D. H. Werner. “Genetic Algorithms in Electromagnetics”. John Wiley & Sons, Inc, New Jersey. 2007.

Ingeniero Electrónico de la Univerisdad Distrital Francisco José de Caldas. Magister en Ingeniería Electrónica y Computadores de la Universidad de los Andes. Ha sido investigador del Centro de Microelectrónica de la Universidad de los Andes e investigador invitado del Logic Systems Laboratory de la Ecolé Polytechnique Federale de Lausanne, Suiza. Actualmente es profesor asistente de la facultad de ingeniería de la Universidad Distrital Francisco José de Caldas e investigador del Laboratorio de Automática, Microelectrónica e Inteligencia Computacional (LAMIC) en la misma universidad. Ha publicado 45 artículos técnicos y dos capítulos de libro. Ha servido como miembro del comité de programa del IEEE World Congress on Computational Intelligence (2008) y de la International Conference on Intelligente Computing (2008 y 2010). Igualmente ha servido como miembro del comité técnico del IEEE Latin American Symposium on Circuits and Systems (2010) y de la IEEE International Conference on Fuzzy Systems (2008-2010). Sus areas de interés son: Sistemas difusos tipo dos, computación evolutiva, sistemas empotrados y procesamiento digital de señales. mmelgarejo@udistrital.edu.co

50

50

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


51

Evaluación de funciones de utilidad de GRASP en la programación de producción para minimizar la tardanza total ponderada en una máquina Ángela María Niño Navarrete 1 Juan Pablo Caballero Villalobos 2

RESUMEN Este artículo aborda la minimización de la tardanza total ponderada en un entorno de producción (1|| ∑wj Tj ) que es conocido en complejidad como de tipo NP-hard. El enfoque de solución propuesto utiliza la metaheurística Greedy Randomized Adaptive Search Procedure (GRASP), la cual es reconocida por la correlación existente entre la calidad de las soluciones y la capacidad discriminante de la función de utilidad empleada en su fase constructiva. Este trabajo propone y analiza tres diferentes funciones de utilidad para este problema en particular. El desempeño de estas funciones se evaluó mediante un estudio estadístico que evidenció diferencias significativas en los valores medios de tardanza total ponderada, explicadas por el factor función de utilidad. La fase experimental se desarrolló usando instancias de la librería OR-LIBRARY y permitió obtener soluciones competitivas en calidad con respecto a los mejores valores conocidos para las instancias de este problema. Este trabajo ilustra la potencialidad de uso de métodos GRASP implementados en una hoja de cálculo normal para hallar soluciones a problemas de programación de la producción. Palabras clave: Función de utilidad, GRASP, programación de la producción, tardanza total ponderada.

51

1

Estudiante de Maestría en Ingeniería Industrial de la Pontificia Universidad Javeriana.

2

Profesor Asistente y Director del grupo de Investigador del Grupo de Investigación CIOL, Pontificia Universidad Javeriana. Departamento de Ingeniería Industrial de la Facultad de Ingeniería.

EVALUATION OF UTILITY FUNCTIONS FOR MINIMIZATION OF TOTAL WEIGHTED TARDINESS IN MACHINE SCHEDULING USING GRASP ABSTRACT This paper considers the total weighted tardiness minimization in a single machine

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

environment (1|| ∑wj Tj ) a scheduling problem which has been proved to be NP-Hard. The solution approach uses the Greedy Randomized Adaptive Search Procedure (GRASP) meta-heuristic known for the quality of the solutions it can generate and the selective ability of its utility function during the construction phase. This work proposes and analyses three different utility functions for the problem in question. A statistical study showed significant differences between the mean values obtained from the proposed utility functions. The computational experiments were carried out using problems instances found in the ORLIBRARY, and the outcome of these experiments were competitive solutions compared to the best known values of the instances involved. This work also shows the ease of developing GRASP methods for solving scheduling problems in a simple spreadsheet software such as MS Excel. Key words: Utility function, GRASP, single machine scheduling, total weighted tardiness.

1. INTRODUCCIÓN El entorno de los negocios actuales caracterizado por la búsqueda de la competitividad en un contexto global y el rápido avance en tecnología y sistemas de información, ha propiciado la orientación de las empresas del sector manufacturero hacia sistemas de producción flexibles. Estos cambios de filosofía, en materia de producción, se evidencian en los cada vez más frecuentes lotes pequeños, en los trabajos bajo pedido (make to order) y en la relevancia creciente del cumplimiento de los tiempos de entrega pactados con los clientes [1] para lograr indicadores de servicio al cliente aceptables y la satisfacción de los mismos. Vol.14 No.2

51


52

En este contexto cobra relevancia el problema de minimizar la tardanza ponderada total, catalogado como NP-hard [24, 25] y conocido según la notación de Graham et al. [12] como 1|| ∑w j T j . El problema es formulado de la siguiente manera: n

min

∑w T j

j

j=1

Donde: wj : es la importancia o prioridad del trabajo j en el conjunto de trabajos. Tj : max{Cj - Dj ,0}, siendo Cj el tiempo de finalización del trabajo j y Dj la fecha de entrega del mismo. El problema busca la programación de un conjunto de trabajos a procesarse, buscando la minimización de la tardanza total ponderada bajo los siguientes supuestos [28, 29]: • Se tienen n trabajos (1,2,...,n) a procesarse en una máquina. • Todos los trabajos están disponibles para ser procesados en el tiempo 0, es decir rj =0 ∀ j = 1,2,...,n • La máquina puede procesar solo un trabajo a la vez. • No se permite el desmonte de trabajos. • Cada trabajo (j = 1,2,...,n) está definido por su pj (tiempo de procesamiento), wj (importancia del trabajo) y Dj (fecha de entrega del trabajo). Debido a su clasificación, proporciona un ámbito de trabajo desafiante para los algoritmos exactos y enfoques metaheurísticos [29]. Un gran número de estudios se han enfocado en este problema y han experimentado con diversos enfoques entre los que se encuentran los métodos exactos, las reglas de despacho y métodos de intercambio. Métodos exactos tales cómo algoritmos enumerativos que usan programación dinámica y enfoques de ramificación y acotación fueron descritos para el problema en estudio por Fisher [10], Lawler [16] y Rinnooy et al. [22]. Estos enfoques son una mejora considerable respecto a la búsqueda exhaustiva, pero siguen siendo complejos y 52

Vol.14 No.2

sólo son aplicables a problemas relativamente pequeños de máximo 50 trabajos [2, 25, 28]. Los resultados de comparación mostrados por estos algoritmos son computacionalmente ineficientes cuando el número de trabajos es mayor que 50, por lo tanto muchos investigadores se enfocaron en desarrollar heurísticas para obtener soluciones cercanas a las óptimas en tiempos razonables [28, 29]. Las reglas de despacho usadas para construir una solución mediante la fijación de un trabajo en una posición en cada paso, se describen por Cheng et al. [5], Fisher [7] y Morton et al. [20]. Estas heurísticas constructivas son muy rápidas en lo referente a tiempo de respuesta, pero la calidad de las soluciones no es buena [3]. Para problemas de instancias mayores se han utilizado métodos de intercambio como lo presenta Bozejko et al. [3], que parten de una solución inicial y cíclicamente intentan mejorar la solución actual mediante intercambios locales. Para mejorar el desempeño de los algoritmos de búsqueda local se han combinado con metaheurísticas como búsqueda tabú o (tabu Search) [2, 3], Recocido Simulado o (simmulated Annealing) [15], algoritmos genéticos (GA) [6, 17] y optimización de colonia de hormigas o (ant colony optimization) [14, 19]. En la revisión realizada por Wang et al. [29] se muestra el mejor algoritmo para este problema disponible en la literatura, desarrollado por Congram et al. [7] conocido como Iterated Dynasearch, el cual fue mejorado por Grosso et al. [13], al combinarlo con el método de búsqueda en vecindario variable - VNS (variable neighborhood search). El uso de las metaheurísticas ha permitido alcanzar soluciones exitosas en tiempos de computo razonables para este tipo de instancias (ver p.e. [18],[29]). En el mismo sentido, otros autores han combinado tabu search con VNS [18], GRASP con VNS [9] y GRASP con otra técnica conocida como Path Relinking [26]. El horizonte que plantean estos desarrollos es bastante prometedor en relación a la búsqueda de soluciones competitivas en tiempo y calidad al problema de la tardanza ponderada en instancias de más de 50 trabajos.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

52


53

2. MARCO TEÓRICO 2.1 Greedy Randomized Adaptive Search procedure (GRASP)

GRASP es una metaheurística que ha logrado buenos resultados en una variedad de problemas de optimización combinatoria [21], en la que cada iteración consta de dos fases: construcción y búsqueda local. La fase de construcción genera una solución factible mediante un proceso de selección y adición de un nuevo elemento de acuerdo a la evaluación de una función de utilidad. La vecindad de esta solución inicial es examinada durante la fase de búsqueda local hasta encontrar un mínimo local. La mejor solución global se mantiene como el resultado [11]. En cada iteración de la fase de construcción se conforma una lista de candidatos con todos los elementos que pueden ser incorporados paso a paso a la solución parcial en construcción, sin destruir la factibilidad de la solución. A partir de esta lista preliminar, se construye un subconjunto de estos elementos denominada la RCL, Lista Restringida de Candidatos, la cual contiene aquellos elementos cuya incorporación a la actual solución parcial resulte en los menores costos incrementales (este es el aspecto codicioso del algoritmo). Esta condición de pertenencia de los candidatos a la RCL se expresa de la siguiente manera: RCL={x|L ≤ fc (x) ≤ L+α (U - L)} • • • •

Donde: fc (x) es la función de utilidad del elemento x α es un número entre 0 y 1. L es el menor valor (caso de minimización) de la función de utilidad encontrado. U es el mayor valor (caso de minimización) de la función de utilidad encontrado.

En el paso siguiente se elije un candidato al azar de la RCL (este es el aspecto probabilístico de la heurística) para adicionar a la solución inicial, se actualiza la RCL y los costos incrementales son reevaluados (este es el aspecto adaptativo de la heurística). Este proceso se realiza hasta que se tiene construida la solución inicial. La figura 1 presenta el pseudocódigo del algoritmo descrito: 53

Figura 1. GRASP - Fase Constructiva.

La etapa de construcción busca generar soluciones iniciales con un grado de diversidad controlado con el fin de permitir explorar diferentes zonas del espacio de solución, sin embargo estas soluciones deben al menos ser tratadas con un algoritmo de búsqueda local, lo que normalmente mejora la solución encontrada [11]. Esta es la segunda etapa de GRASP. En un algoritmo de búsqueda local se aplica una transformación o modificación parcial denominada como movimiento [4], de forma iterativa a una solución inicial, para encontrar nuevas soluciones alternativas. El algoritmo se detiene cuando se alcance el número de iteraciones predefinido y se guarda la mejor solución encontrada. Un factor que afecta la eficiencia de un algoritmo de búsqueda local es el tamaño de la vecindad. Si se consideran muchos vecinos la búsqueda puede ser muy costosa. Esto es especialmente cierto si la búsqueda toma muchos pasos para alcanzar un óptimo local y/o cada evaluación de la función objetivo, requiere una cantidad significativa de computación [27]. Muchos métodos de mejoramiento se basan en intercambios k-Optimal, que consisten en encontrar soluciones en la vecindad mediante la eliminación de k arcos de un grafo dirigido y reconectar la nueva trayectoria del grafo, usando nuevos arcos [11]. Para el caso específico de 2-Optimal, propuesto originalmente por Croes [8], la solución en la vecindad se obtiene de la solución actual mediante la eliminación de dos arcos,

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

53


54

problema de programación de la producción en una máquina para minimizar la tardanza ponderada total, que consistió en implementar la metaheurística GRASP, con tres diferentes funciones de utilidad y aplicar como método de búsqueda local 2-Optimal (Figura 4). Todos los algoritmos desarrollados fueron implementados en una macro de Excel 2007 en lenguaje Visual Basic para Aplicaciones.

GRASP

reversando una de las trayectorias y reconectando el grafo. Si la solución encontrada es mejor, se toma, de lo contrario se mantiene la mejor encontrada. (Ver pseudocódigo, Figura 2).

Función de utilidad a Función de utilidad b

2Optimal

Solución

Función de utilidad c Figura 4. Etapas principales de la implementación. Fuente: Presentación propia de los autores.

3.1 Parámetros del modelo

Figura 2. GRASP – Búsqueda Local 2-optimal.

Una diferencia fundamental entre GRASP y metaheurísticas como búsqueda tabú y recocido simulado, es que GRASP depende de la alta calidad de las soluciones generadas en la fase 1, mientras que los otros métodos no necesariamente requieren buenas soluciones iniciales y gastan la mayor parte del tiempo mejorando la solución inicial e intentando salir de óptimos locales [23]. Finalmente, con la integración de las dos fases se consolida el pseudocódigo de la metaheurística GRASP, que se muestra en la figura 3.

El modelo propuesto requiere como datos de entrada: el parámetro α, un valor entre 0 y 1, que indica el porcentaje de elementos que deben adicionarse a la RCL, el número de veces que se ejecutarán la fase constructiva y de búsqueda local de GRASP y la información de cada trabajo (tiempo de proceso pj , importancia wj y fecha límite de terminación Dj ). La aplicación también puede recibir el valor de la mejor solución encontrada para el problema que se esté procesando, el cual no es obligatorio. Cada trabajo se identifica con un número entero j | j ∈{1,2,...,n}, donde n es la cantidad de trabajos del problema. Con esta notación cada programa o solución generada será una permutación de los primeros n números enteros. 3.2 Implementación de GRASP con diferentes funciones de utilidad

Figura 3. GRASP.

3. DESARROLLO En esta sección se presenta en detalle el algoritmo implementado para resolver el 54

Vol.14 No.2

Un aspecto importante en el desempeño del algoritmo GRASP, es la correcta definición de la función de utilidad, que es el criterio para permitir la adición de un candidato a la lista RCL. En esta investigación se trabajó con tres funciones de utilidad, buscando identificar la más favorable en cuanto a calidad de las soluciones encontradas. En el algoritmo, la función de utilidad de GRASP a utilizar en la ejecución de los problemas se debe seleccionar en la ventana de inicio para poder iniciar la corrida del mismo. Las funciones se especifican a continuación.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

54


55

3.2.1 Función de utilidad basada en WSPT

Para el problema en una máquina 1|| ∑wj Cj, se ha demostrado que la regla de despacho WSPT (tiempo de proceso ponderado más corto, por sus siglas en inglés), genera la secuencia óptima [21]. Esta regla consiste básicamente en que un trabajo j debería ser procesado antes que un trabajo k siempre que se cumpla que: wk pk

wj pj

4. RESULTADOS

Como en el problema estudiado en este artículo el objetivo es minimizar la tardanza total ponderada, se propone una regla similar como función de utilidad para la metaheurística GRASP, así: fc (j)=

t + pj - dj wj

{

pj wj

si el trabajo j está atrasado si el trabajo j no está atrasado

(1)

donde t es el tiempo actual del sistema. 3.2.2 Función de utilidad basada en la regla de despacho Earliest Due Date (EDD)

Teniendo en cuenta que para los problemas de 1|| ∑ Lmax y 1|| ∑ Tmax se ha demostrado que la regla de despacho EDD (fecha mínima de entrega, por sus siglas en inglés), genera la secuencia óptima [21], se decide aplicarla de la siguiente forma: fc (j)=

trabajo j está atrasado { t d- dsisieleltrabajo j no está atrasado j

(2)

j

donde t es el tiempo actual del sistema. 3.2.3 Función de utilidad basada en (CR) y (SPT) modificada

Haciendo una modificación de las reglas de despacho CR y SPT (razón crítica y tiempo más corto de procesamiento, respectivamente, por sus siglas en inglés) [21], se propone la siguiente función de utilidad:

Se consideraron nueve instancias del problema 1|| ∑wj Tj de la librería OR-Library (http://people.brunel.ac.uk/~mastjjb/jeb/ info.html) con 40, 50 y 100 trabajos, para medir el desempeño de las diferentes funciones de utilidad propuestas e implementadas en el algoritmo. Por cada instancia el algoritmo se ejecutó en 10 ocasiones, utilizando como parámetro de entrada 10 iteraciones para el procedimiento definido en la Figura 3. El parámetro α tuvo dos niveles con valores de 0,05 y 0,1. Los parámetros usados en la experimentación fueron fijados en esos valores teniendo en cuenta el número de réplicas necesarias para hacer inferencia estadística de los resultados obtenidos y el comportamiento aleatorizado del método GRASP al utilizar mayores valores de α. El objeto del estudio era proponer funciones de utilidad diferentes de las obvias para el problema 1|| ∑wj Tj e identificar diferencias significativas en la calidad media de las soluciones obtenidas mediante GRASP atribuibles a ellas. Para tal efecto y debido a que la pregunta de interés gira en torno a pruebas de hipótesis de igualdades de medias, se realizaron las pruebas asociadas para realizar dichas evaluaciones.

(3)

Los resultados obtenidos se presentan en las figuras 5, 6 y 7. La desviación del valor de la función objetivo obtenida por los autores respecto al mejor valor que se conoce en la literatura para cada instancia, se expresa porcentualmente.

La anterior busca utilizar la estructura de las reglas de despacho mencionadas, pero se incluye la importancia del trabajo wj .

En la instancia de 50 trabajos en el 18,7% de las corridas se obtuvo el mejor resultado encontrado en la literatura, y como se observa en la Figura 6, en el 96,7% de los casos la solución estuvo en el rango de desviación de

fc (j)=

{ wd ∑- tp j

j

j

donde t es el tiempo actual del sistema.

55

Teniendo presente el objetivo de minimizar la tardanza ponderada total, los elementos que se adicionan a la lista restringida de candidatos RCL, son aquellos que tienen menores valores de fc en los tres casos. En la fase posterior se aplica la búsqueda local 2-Optimal, para revisar todos los intercambios posibles de pares de trabajos.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

55


56

Diferencia porcentual de la solución encontrada frente al mejor valor conocido Figura 5. Resultados instancias de 40 trabajos. Fuente: Presentación propia de los autores.

% de soluciones

Resultados consolidados instancia 50 trabajos

Diferencia porcentual de la solución encontrada frente al mejor valor conocido Figura 6. Resultados instancias de 50 trabajos Fuente: Presentación propia de los autores.

% de soluciones

Resultados consolidados instancia 100 trabajos

Diferencia porcentual de la solución encontrada frente al mejor valor conocido Figura 7. Resultados instancias de 100 trabajos. Fuente: Presentación propia de los autores. 56

Vol.14 No.2

0% a 10%. Las funciones de utilidad 1 y 3 mostraron mejor desempeño al tener la totalidad de sus soluciones en el rango mencionado anteriormente, mientras que la basada en la regla de despacho EDD, tuvo el 10% de sus soluciones en el rango de 10% a 20% de desviación. En los problemas estudiados de 100 trabajos en el 40,6% de las corridas, la solución estuvo en el rango de desviación de 0% a 10%, únicamente con soluciones encontradas por las funciones de utilidad 1 y 3, mientras que la basada en la regla de despacho EDD, no tuvo ninguna solución en dicho rango de desviación (Ver Figura 7). Para concluir sobre la existencia de diferencias en las soluciones obtenidas al usar las tres funciones de utilidad, se realizó una gráfica de diferencia de medias, para todas las instancias del problema, con un nivel de confianza del 90%, que se presenta a continuación: Analizando la Figura 8 se puede observar que la dispersión de los resultados de la función de utilidad 3 basada en CR y SPT modificada, es mayor que la dispersión de los resultados de las otras dos funciones. Igualmente con un nivel de confianza del 90% hay evidencia que la función de utilidad 1 basada en WSPT para los valores de α seleccionados (0.05, 0.10) obtiene mejores soluciones que la función 2 basada en la regla de despacho EDD. Respecto a las funciones de utilidad 2 y 3 se puede afirmar que con α de 0.10, al nivel de confianza del Gráfico de medias para resultados obtenidos (intervalo de confianza de 90%)

Diferencia porcentual de la soluciones frente al mejor valor conocido

% de soluciones

Resultados consolidados instancia 40 trabajos

Valor correspondiente de alpha para GRASP

Figura 8. Diferencia de medias entre las funciones de utilidad. Fuente: Presentación propia de los autores.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

56


57

90% hay evidencia que la función de utilidad 3 basada en CR y SPT modificada, obtiene mejores soluciones que la función 2. En los demás casos estudiados no hay evidencia suficiente para mostrar una diferencia de medias entre las funciones aplicadas.

modificada presentan mayor número de soluciones en el menor rango de desviación. Mientras que en las instancias de 50 y 100 trabajos la función basada en WSPT muestra un mayor número de soluciones en el menor rango de desviación frente al mejor resultado encontrado en la literatura.

5. CONCLUSIONES Y RECOMENDACIONES

En trabajos futuros es importante considerar el estudio de otras funciones de utilidad para solucionar otros problemas como el de minimizar el makespan y comparar la calidad de las soluciones y la influencia del factor α.

En este artículo se presentó la implementación de la metaheurística GRASP, con tres diferentes funciones de utilidad propuestas y adaptadas por los autores y la aplicación de 2-Optimal como método de búsqueda local, para resolver el problema de programación de la producción de la tardanza ponderada total en una máquina (SMTWT). Se obtuvieron resultados competitivos en la calidad de las soluciones frente a los mejores valores conocidos de las diferentes instancias de los problemas probados y en tiempos de procesamiento razonablemente cortos. Esto pone a disposición de las empresas una alternativa contundente para solucionar los problemas de programación de producción, solo con contar con MS Excel, sin requerir software más especializado y posiblemente de mayor costo. En las tres instancias de 40, 50 y 100 trabajos con las que se midió el desempeño del algoritmo en estudio, se encontró con un nivel de confianza del 90% que la función de utilidad 1 basada en WSPT para los valores de α seleccionados (0.05, 0.10) obtiene mejores soluciones que la función 2 basada en la regla de despacho EDD. Mientras que para un α de 0.10, al nivel de confianza del 90% la función de utilidad 3 basada en CR y SPT modificada, obtiene mejores soluciones que la función 2. En los demás casos estudiados no hay evidencia suficiente para mostrar una diferencia de medias entre las funciones aplicadas. Esto permite afirmar que la correcta definición de la función de utilidad es el factor fundamental en el desempeño de la metaheurística GRASP, para obtener buenas soluciones. Finalmente se observa que en instancias hasta de 40 trabajos la función CR+SPT

REFERENCIAS BIBLIOGRÁFICAS [1] K. Baker, J. Hayya. “Priority dispatching with operation due dates”. Journal of Operations Mangement 2, 167–175. 1992. [2] U. Bilge, M. Kurtulan, F. Kiraç. “A tabu search algorithm for the single machine total weighted tardiness problem”. European Journal of Operational Research, 176, 1423–35. 2007. [3] W. Bozejko, J. Grabowski, M. Wodecki. “Block Approach Tabu Search algorithm for single machine total weighted tardiness problem”. Computers and Industrial Engineering 50, 1–14. 2006. [4] R. Britto, G. Mejía, J. P. Caballero-Villalobos. “Programación de la producción en sistemas de manufactura tipo taller con el algoritmo combinado cuello de botella móvil y búsqueda Tabú”. Ingeniería y Universidad, volumen 11, No 2, 203 – 224. 2007. [5] T. C. E. Cheng, C. T. Ng, J. J. Yuan, Z. H. Liu. “Single machine scheduling to minimize total weighted tardiness”. European Journal of Operational Research, 165, 423–443. 2005. [6] F. Chou. “An experienced learning genetic algorithm to solve the single machine total weighted tardiness scheduling problem”. Expert Systems with Applications, 36, 3857–3865. 2009 [7] R. K. Congram, C.N. Potts, S. L. Van de Velde. “An iterated dynasearch algorithm for the single-machine total weighted tardiness scheduling problem”. Informs Journal on Computing, 14(1), 52–67. 2002. [8] A. Croes. “A method for solving traveling-salesman problems”. Operations Research, 5, 791-812. 1958. [9] L. M. A. Drummond, L. S. Vianna, M. B. Silva, L. S. Ochi. “Distribution parallel metaheuristics based on GRASP and VNS for solving the traveling purchaser problem”. In Proceedings of the 9th International Conference on Parallel and Distributed System, pp. 257–263. 2002. [10] M. L. Fisher. “A dual algorithm for the one machine scheduling problem”. Mathematical Programming, 11, 229–252. 1976. [11] F. Glover, G. Kochenberger. “Handbook of Metaheuristics. Kluwer Academic Publishers”. 2003. [12] R. L. Graham, E. L. Lawler, J. K. Lenstra, A.H.G. Rinnooy Kan. “Optimization and approximation in deterministic sequencing and scheduling: A survey”. Annals of Discrete Mathematics, 5, 287-326. 1979. [13] A. Grosso, C. Della, R. Tadei. “An enhanced dynasearch neighborhood for single-machine total weighted tardiness scheduling problem”. Operations Research Letters, 32, 68–72. 2004. [14] O. Holthaus, C. Rajendran. “A fast ant-colony algorithm for single-machine scheduling to minimize the sum of weighted tardiness of jobs”. Journal of the Operational Research Society, 56, 947–53. 2005.

57

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

57


58

[15] F. Jin, S. Song, C. Wua. “A simulated annealing algorithm for single machine scheduling problems with family setups”. Computers and Operations Research, 36, 2133 – 2138. 2009. [16] E.L. Lawler. “Efficient implementation of dynamic programming algorithms for sequencing problems”. Technical report, BW-106. Amsterdam: Centre for Mathematics and Computer Science. 1979. [17] F. Jolai, M. Rabbani, S. Amalnick, A. Dabaghi, M. Dehghan, Y. Parast. “Genetic algorithm for bi-criteria single machine scheduling problem of minimizing maximum earliness and number of tardy jobs”. Applied Mathematics and Computation, 194, 552–560. 2007. [18] C. Liao, C. Cheng. “A variable neighborhood search for minimizing single machine weighted earliness and tardiness with common due date”. Computers and Industrial Engineering 52, 404-413. 2007.

with sequence dependent setup times”. Computers and Operations Research, 36, 1900 – 1915. 2009. [26] C.A. Vega-Mejía, J.P. Caballero-Villalobos. “Uso combinado de GRASP y Path-Relinking en la programación de producción para minimizar la tardanza total ponderada en una máquina”. Ingeniería y Universidad, volumen 14, número 1, 79 – 96. 2010. [27] C. Voudouris, Tsang. “Guided Local Search. Handbook of Metaheuristics”. Capítulo 7. Kluwer Academic Publishers. 2003. [28] G. Wan, B.P.C. Yen, “Single machine scheduling to minimize total weighted earliness subject to minimal number of tardy jobs”. European Journal of Operational Research 195, 89–97. 2002. [29] X. Wang, L. Tang. “A population based variable neighborhood search for the single machine total weighted tardiness problem”. Computers and Operations Research 36, 2105-2110. 2009.

[19] C. Liao, H. Juan. “An ant colony optimization for single-machine tardiness scheduling with sequence-dependent setups”. Computers and Operations Research 34. 2007. [20] T. E. Morton, R. M. Rachamadugu, A. Vepsalainen. “Accurate myopic heuristic for tardiness scheduling”. Working paper No. 36-83-84. Pitsburgh: Carnegie-Mellon University. 1984. [21] M. Pinedo. “Scheduling Theory, Algorithms and Systems”. Third edition. New Jersey. Prentice Hall. 2008. [22] A. H. G. Rinnooy Kan, B. J. Lageweg, J. K. Lenstra. “Minimizing total costs in one-machine scheduling”. Operations Research, 25, 908–927. 1975. [23] R. Rios-Mercado, J. Bard. “Heuristics for the flow line problem with setup costs”. European Journal of Operational Research 110, 76–98. 1998. [24] T. Sen, J. M. Sulek, P. Dileepan. “Static scheduling research to minimize weighted and unweighted tardiness: a state-of-the-art survey”. International Journal of Production Economics, 83, 1– 12. 2003. [25] M. Tasgetiren, Q. Pan, Y. Liang. “A discrete differential evolution algorithm for the single machine total weighted tardiness problem

Ángela María Niño Navarrete Ingeniera Industrial de la Pontificia Universidad Javeriana. Actualmente, es estudiante de Maestría en Ingeniería Industrial en la Pontificia Universidad Javeriana. Se desempeña como Coordinador del Sistema Integrado de Gestión en Colcafé S.A.S. anino@javeriana.edu.co

Juan Pablo Caballero Villalobos Ingeniero Industrial de la Pontificia Universidad Javeriana. Obtuvo su título de Maestría en Ingeniería Industrial en la Universidad de Los Andes. Actualmente se desempeña como profesor asistente y Director del Centro de Investigaciones en Optimización y Logística (CIOL), del departamento de Ingeniería Industrial de la Pontificia Universidad Javeriana, sus intereses de investigación están asociados a técnicas de optimización, problemas de programación de la producción, problemas combinatorios y uso de metaheurísticas. juan.caballero@javeriana.edu.co

58

58

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


59

Mejoramiento de gestión universitaria basado en el Modelo de Sistema Viable. Caso de estudio: Universidad Libre

María Ramírez Sánchez 1 Víctor Hugo Medina García 2 David de la Fuente García 3

RESUMEN Este artículo presenta una propuesta metodológica basada en el Modelo de Sistema Viable (MSV) que pretende estudiar, diseñar y ofrecer mecanismos particulares de viabilidad, eficiencia y mejoramiento de la gestión universitaria. Como aplicación de este caso de estudio se ha tomado la Universidad Libre (Unilibre) de Bogotá, Colombia. Por ello se desarrolló un plan piloto de mejoramiento y rediseño organizacional, tendiente específicamente a lograr su reestructuración, entendiéndola como un sistema complejo y dinámico capaz de administrar su propia identidad, operar como una organización efectiva y viable. El Modelo del Sistema Viable está enmarcado en la filosofía de la forma de ver las organizaciones denominado “enfoque sistémico”. Palabras clave: Cibernética organizacional, Modelo de Sistema Viable.

UNIVERSITY MANAGEMENT IMPROVEMENT BASED ON THE VIABLE SYSTEM MODEL. CASE STUDY: LIBRE UNIVERSITY ABSTRACT

1

2

3

59

Candidata Magíster en Ingeniería Industrial, Universidad Distrital. Profesor de la Facultad de Ingeniería de la Universidad Distrital Francisco José de Caldas. Profesor del Departamento de Administración de Empresas y Contabilidad de la Universidad de Oviedo.

This paper presents a methodology proposal based on the Viable System Model (MSV) which aims to study, design and offer specific mechanisms of viability, efficiency and improvement of university management. As an application of this model, a study case for the Libre University in Bogota is described. To develop this study a pilot plan has been developed for the improvement and

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

organizational redesign, intended to focus on the administration of the university in order to make this institution an effective and viable organization. This Viable System Model is supported by a organization analysis theory known as “systematic approach”. Key words: Organizational cybernetics, Viable System Model.

1. INTRODUCCIÓN El Modelo del Sistema Viable (MSV) es un modelo de empresa eficiente por medio del cual se puede estudiar, diseñar y/o diagnosticar organizaciones y a su vez, ofrecer mecanismos particulares de viabilidad, eficiencia y mejoramiento de la gestión de la misma [1]. Las pocas experiencias en Colombia en el uso del MSV han sido lideradas por la Universidad de los Andes [2], y aplicadas en organizaciones diferentes a entidades de Educación Superior. Este motivo, junto con las declaraciones de la UNESCO para la Educación Superior emitidas a principios de la década del 90 y ratificadas en la declaración de París en 1998, e incorporados por el estado Colombiano en las políticas de calidad de los procesos académicos y pedagógicos del sistema educativo a partir de la Constitución Nacional de 1991 y las Leyes 30 de 1992 y 115 de 1994, han motivado a tomar como caso de estudio la Universidad Libre (Unilibre) Seccional Bogotá. Para este caso de estudio se ha desarrollado un plan piloto de mejoramiento y rediseño organizacional con base en las necesidades específicas de cambio organizacional, autoorganización, auto-regulación y administración eficiente de la mencionada entidad. Vol.14 No.2

59


60

2. MARCO CONCEPTUAL Hasta hace pocos años la forma tradicional en que la ingeniería trataba de comprender los problemas organizacionales se reducía al uso de metodologías de “Sistemas Duros”. En este sistema los objetivos y propósitos de trabajo eran asumidos desde su inicio con claridad y precisión, obligando a considerar siempre situaciones debidamente estructuradas. En todos los casos se trataba de comprender y reducir la complejidad y variedad del mundo empresarial a experimentos, cuyos resultados debían ser validados por la posibilidad de repeticiones sucesivas y adicionales (método científico) y poder sólo de esta manera crear nuevo conocimiento, gracias a la simple contrastación de hipótesis [3, 4,5]. Sin embargo, “el conocimiento científico sólo constituye una descripción de la realidad que poseemos en el momento” [6]. Por ende toda realidad es susceptible de varias interpretaciones, tantas como observadores la describan y analicen. Hoy en día se reconoce que en las empresas existen propiedades emergentes o características que sólo son manejables, entendibles y descifrables en determinados niveles de complejidad. Es así como Checkland [7] revalida la importancia de técnicas como Investigación-Acción, en la necesidad de incorporar un pensamiento holístico en la comprensión de los problemas organizacionales, en establecer la necesidad de considerar la “Arquitectura de la Complejidad” como fundamental en el análisis e interpretación de los problemas sociales, humanos y organizacionales. Esta nueva interpretación, obliga a considerar necesariamente nuevos instrumentos conceptuales y teóricos que apuntan a formalizar y modelar cualquier organización social, tomando en cuenta, de una manera más coherente y global, las múltiples variables que en ellas se entrecruzan e interrelacionan cotidianamente (administración de la complejidad), buscando siempre una mejor sinergia entre todos sus componentes y dentro de una amplia visión sistémica.

60

Vol.14 No.2

El Paradigma del Enfoque Sistémico o Paradigma del Aprendizaje, plantea que toda organización debe considerarse como una totalidad, que debe poseer cualidades sinérgicas que la adapten al medio y donde sus potencialidades y realidades pueden considerarse y valorarse bajo nuevos y desprevenidos esquemas o modelos mentales [7]. Este enfoque apoyado en Investigación Acción, implica un continuo aprendizaje en situaciones problemáticas; se está ante la incertidumbre del futuro, con objetivos y propósitos inciertos. Por tanto, es necesario concebir el cambio y mejoramiento en situaciones no estructuradas. Esta técnica implica una amplia participación de las personas, y su efectividad reside en conducir los procesos creativos, dinámicos y de auto aprendizaje dentro de la organización. Es así como se da origen al proceso de tipo Experimentación-Acción, en el cual, la investigación está orientada por la necesidad de generar conocimiento específico, que permita actuar en una organización específica; en donde el investigador no puede estudiar la realidad social desde el laboratorio y se sumerge en una situación humana y deja que ésta siga su curso sin intervenir en ella, estudiando los caminos que ésta tome, a medida que la misma se despliega a través del tiempo. La Cibernética Organizacional es la ciencia de la organización efectiva con capacidad para entender, analizar y ofrecer soluciones en entidades sociales donde coexisten problemas de complejidad, variedad y propiedades holísticas. Desde otro punto de vista, la Cibernética Organizacional reconoce que todo sistema complejo (empresa), debe ser autoregulado y auto-organizado, con capacidad de adaptabilidad y desarrollo (cultura de cambio per manente), para sobrevivir independientemente (viabilidad). Esta conceptualización reconoce, igualmente, que es posible establecer un conjunto de leyes de viabilidad, que permiten la búsqueda de la efectividad organizacional, desagregando en niveles recursivos su complejidad administrativa y haciéndola flexible al cambio necesario para su supervivencia y desarrollo [8, 9].

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

60


61

El Modelo de Sistema Viable [10], es un instrumento conceptual básico de la Cibernética Organizacional, que permite determinar los mecanismos de estabilidad y adaptabilidad de toda la organización, entendida ésta como un sistema complejo, capaz de cambiar y administrar su propia identidad. Según este enfoque, la estructura organizacional de cualquier empresa, estaría constituida por un conjunto de normas, valores y acuerdos inherentes a la organización, las cuales, sumadas a las relaciones de autoridad y control, inciden en la cultura organizacional. Las relaciones de autoridad y control constriñen o impelen el cambio. La importancia de este enfoque se hace cada vez más relevante, si se tienen en cuenta los contemporáneos conceptos que enfatizan cada vez más en la necesidad de organizaciones abiertas al aprendizaje (Organizations as Learning Systems), al cambio y al mejoramiento continuo, al aprendizaje generativo más que adaptativo y a la necesidad de incorporar el pensamiento sistémico en el conocimiento de la complejidad organizacional. En forma particular, alrededor de los conceptos fundamentales de la Cibernética Organizacional y su herramienta principal (el Modelo de Sistema Viable), existen metodologías como el método cibernético para el estudio de las organizaciones [2], que resultan ser más útiles que las metodologías que se denominan sistemas duros, para entender la necesidad del cambio empresarial, la búsqueda de la viabilidad organizacional, el mejoramiento de la eficiencia y el diseño de instrumentos de control de gestión, que apoyen a su vez el crecimiento corporativo dentro de entornos económicos sociales cada vez más dinámicos y cambiantes.

3. CASO DE ESTUDIO EN LA UNIVERSIDAD LIBRE

61

La Universidad Libre es una entidad sin ánimo de lucro, organizacionalmente está conformada por siete seccionales académicas ubicadas en las ciudades Bogotá, Barranquilla, Cali, Cartagena, Cúcuta, Pereira y Socorro. Se ha tomado como caso de estudio la Seccional

Bogotá, dado que su estructura organizacional (Fig 1.) se encuentra centralizada en esta ciudad.

Figura 1. Estructura organizacional Universidad Libre de Colombia.

Las especificaciones que posee la organización permiten identificar su estructura; la tarea planteada consistía en presentar una propuesta metodológica que admitiera formular mecanismos administrativos, que dentro de un rediseño organizacional, permitieran desarrollar flujos adecuados de información y comunicación entre todos los sistemas y subsistemas, aunando esfuerzos para alcanzar metas y objetivos misionales. Esta tarea se ha abordado mediante el desarrollado un plan piloto de mejoramiento y rediseño organizacional con base en las necesidades específicas de cambio organizacional, auto-organización, autoregulación y administración eficiente de la entidad, identificadas en las autoevaluaciones de los diferentes programas, en las evaluaciones externas de pares académicos y con el desarrollo de una metodología de tipo Experimentación – Acción que consiste en crear, capacitar y motivar grupos de trabajo y debate en el interior de la institución, los que, mediante la reflexión dirigida interpretaron su realidad particular, bajo los principios del pensamiento sistémico; de esta forma se buscó generar nuevas actitudes frente a las necesidades de cambio y de mejora institucional. Este estudio se llevó a cabo durante siete meses, para lo cual se crearon seis grupos de trabajo, conformados por un comité ejecutivo, integrado por las directivas de la Universidad, un comité técnico integrado por funcionarios, y cinco comités técnicos integrados por docentes adscritos a los diferentes programas académicos. Todos los comités fueron ilustrados y capacitados en el uso de la

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

61


62

metodología de tipo Experimentación-Acción y en los conceptos y variables que encierra el Modelo de Sistema Viable. La implementación de la metodología, que dio lugar al desarrollo del plan piloto, está basada en el Modelo de Sistema Viable de Stafford Beer, el cual representa la estructura, las actividades, interrelaciones y flujos de información en las organizaciones. Este sistema lo que hace es permitir a las organizaciones obtener las flexibilidad que necesitan para sobrevivir en ambientes rápidamente cambiantes y complejos. Sus principales conceptos son la comunicación, la información, la retroalimentación, y los principios deducidos de la observación de los hilomorfismos entre el comportamiento de sistemas físicos y sociales, y el desarrollo de criterios de efectividad organizacional en los Modelos de Sistema Viable. Estos criterios son un conjunto de principios y leyes de organización, usando como referencia la Ley de Requisito de Variedad, en la que se plantea la capacidad para mantenerse dentro de un conjunto de objetivos deseados. El método de diseño se hace mediante el establecimiento de la identidad organizacional (transformación de recursos, participación de actores que transforman los recursos, clientes afectados por la transformación hecha, los dueños quienes son responsables del sistema, el metasistema y el ambiente en el que se desarrolla el mismo), el modelamiento de los límites organizacionales del sistema y de los niveles estructurales, el estudio de discreción y autonomía y el estudio de los mecanismos de control [11]. La metodología empleada se fundamenta en el trabajo expuesto en [12, 13, 14] que busca facilitar la aplicación del MSV a cualquier tipo de organización social, y la investigación desarrollada en [15, 16], aplicada por la Universidad Pedagógica y Tecnológica de Colombia (UPTC).

Diagrama de bloques del Modelo de Sistema Viable Metodología en uso Implementada 4.1. Establecimiento de la Identidad Organizacional 4.2. Modelaje de los Niveles Estructurales de la Unilibre 4.3. Análisis de Efectividad de la Estructura Actual Modelo de Sistema Viable (Metodología Sugerida) 4.4. Ofrecimiento de Mecanismos de Viabilidad, Eficiencia y Mejoramiento de Gestión • Ajustes Propuestos a los Mecanismos de Manejo de Información y Comunicaciones. • Valoración Global de los Mecanismos de Viabilidad y Eficiencia. • Dimensionamiento de los Recursos Requeridos. • Aspectos Legales, Procedimentales y de Cultura Organizacional. • Diseño de la estrategia de Implementación de los Mecanismos Propuestos.

4.5. Estudio y Diseño de los Mecanismos de Control • Determinación de Áreas Críticas de Éxito. • Valoración de Necesidades. • Recomendaciones para el Establecimiento de un Sistema de Control.

Figura 2. Modelo Conceptual Utilizado en el Estudio. Fuente: ESPEJO RAÚL Y HARDEN ROGER. 1989. THE VIABLE SYSTEM MODEL.

4. METODOLOGÍA DE VIABILIDAD, EFICIENCIA Y MEJORAMIENTO DE GESTIÓN UNIVERSITARIA El desarrollo de una propuesta metodológica basada en el Modelo de Sistema Viable no puede llevarse a cabo a espaldas de las personas que conforman la organización; por tanto es indispensable que los actores en la situación problema participen no sólo en la asimilación de conceptos, sino en procesos de tipo Experimentación-Acción que rescate en ellos su capacidad interpretativa, creativa y de pensamiento generativo. El Modelo de Sistema Viable implementado en la Unilibre basado en [17], establece cinco etapas secuenciales ilustradas en la Fig. 2. 4.1 Establecimiento de la identidad organizacional

En esta primera etapa se crearon espacios conversacionales y de debate grupal acerca del trabajo cotidiano en la universidad. Se promovieron acuerdos sobre la visión y misión 62

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

62


63

A) FASE I: ELABORACIÓN DEL MODELO DE ACTIVIDADES

Análisis de las Distribuciones Actuales de Recursión

Análisis de la Eficiencia de los Canales de Comunicación e Información

1. Identificación de Actividades Tecnológicas. EFECTIVIDAD DE LA ESTRUCTURA ACTUAL

2. Concepción Sistémica de Actividades, como Procesos Estratégicos.

-

3. Definición de Tareas dentro de los Procesos Estratégicos. 4. Interpretación Cibernética de las Actividades Tecnológicas, en el Modelo de Sistema Viable (MSV). (Modo Diagnóstico). B) FASE II: ELABORACIÓN DEL MODELO DE DESDOBLAMIENTO DE COMPLEJIDAD 1. Identificación de las Actividades Primarias. 2. Reflexión sobre las Actividades Primarias en el entorno de la Universidad. 3. Interpretación Cibernética de las Actividades Primarias en el Modelo de Sistema Viable (MSV) (Modo Diagnóstico).

Auto- Regulación. Auto- Organización. Coherencia. Consonancia.

Análisis de los Mecanismos de Monitoreo y Control

Análisis de los Mecanismos de Adaptación

Figura 4. Esquema Metodológico empleado, al interior de los Grupos, para el desarrollo de la Etapa Nº 3 del Diagnóstico. Fuente: Los Autores.

estratégicas y llegar a una primera interpretación de tipo cibernético, del quehacer de la Unilibre. En la Fase II, el objetivo fue estructurar las necesidades o procesos de la institución, en sistemas autocontenidos y con necesidad de autonomía, que permitieron, finalmente, interpretar la complejidad de la entidad en niveles recursivos, así como determinar un sistema en foco, objeto de atención y estudio.

4. Interpretación de los Niveles de Recursividad. 5. Modelaje de los Niveles estructurales de la Universidad. Figura 3. Esquema Metodológico empleado, al interior de los grupos para abordar la definición de niveles estructurales en la Unilibre. Fuente: Los Autores.

corporativa, se buscaron e identificaron compromisos entre todas las áreas o actividades primarias. 4.2 Modelaje de los niveles estructurales de la Universidad Libre

Esta etapa se desarrollo en dos fases (Fig.3). En la primera se elaboró un modelo de actividades académicas y en la segunda se construyó un modelo de de desdoblamiento de complejidad. Esta metodología es esencialmente un procedimiento sistemático que trata de facilitar la aplicación del MSV a este tipo de organización social.

63

En la Fase I, la atención se centró en identificar, analizar y justificar cada uno de los procesos y actividades que realiza la Universidad, con el fin de establecer tareas

4.3 Análisis de efectividad de la estructura actual

La Fig. 4. muestra el esquema metodológico empleado en el interior de los grupos de trabajo para el desarrollo de esta etapa. 4.3.1 Análisis de las distribuciones actuales de recursión

El objetivo se centró en determinar cómo es el nivel de autonomía o discrecionalidad que tienen los responsables de desarrollar los servicios o procesos estratégicos del sub-sistema de formación Universitaria, con relación a las actividades secundarias o de soporte. 4.3.2 Análisis de la eficiencia de los canales de comunicación e información

Con base en trabajo desarrollado en [18] por la Universidad de los Andes para el acopio de la información, se desarrolló un conjunto de cuestionarios que permitieron identificar los canales de información utilizados, su funcionamiento, filtros, mecanismos de amplificación y atenuación, así como su operatividad y eficiencia.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

63


64

1. Revisión global de la Estructura de Efectividad, del Sistema en Foco. 2. Redefinición de Funciones, en la Estructura de los Niveles Recursivos. 3. Redefinición de Responsabilidades en las Funciones del M.S.V. 4. Modelaje de los Niveles estructurales de la Universidad. 5. Propuesta de Mejoramiento de los Niveles de Autonomía. 6. Propuesta de Mejoramiento de los Canales de Comunicación e Información. 7. Propuesta de Mejoramiento de la Efectividad de la Regulación. 8. Propuesta de Mejoramiento de los Mecanismos de Adaptabilidad. Figura 5. Esquema Metodológico empleado, en el interior de los grupos, para abordar el rediseño de la estructura organizacional. Fuente: Los Autores.

4.3.3 Análisis de los mecanismos de monitoreo y control

Se evaluó la eficiencia de los mecanismos de regulación actualmente utilizados por la institución, los desequilibrios existentes en ellos, su interrelación entre los diferentes niveles recursivos y su apoyo para el crecimiento que requiere la Unilibre. 4.3.4 Análisis de los mecanismos de adaptación

Se evaluaron las interacciones entre las funciones de control, inteligencia y política, con respecto a los aspectos estratégicos para el desarrollo de la entidad. Se determinó si estas funciones son apoyadas; igualmente, se evaluó la interacción de la universidad con su entorno; cómo ocurren los procesos administrativos de diseño de objetivos y estrategias y, cómo se mantiene la cohesión y consonancia de todas las actividades que le permiten construir el mañana de la organización. 4.4 Ofrecimiento de mecanismos de viabilidad, eficiencia y mejoramiento de gestión

aspectos relevantes (Fig. 5), que permitieron finalmente conformar un Plan de Mejoramiento para la Unilibre, Seccional Bogotá. 4.5 Estudio y diseño de los mecanismos de control

Finalmente en esta etapa se evaluaron las necesidades de administración de la información, las posibles alternativas de solución y la identificación de un conjunto de factores críticos de éxito, en consonancia con los ajustes estructurales diseñados en la etapa 4.4. Esta etapa permitió identificar problemas particulares relacionados con: las relaciones entre los diferentes sub-sistemas; la administración de los flujos de información y comunicación; la recursividad estructural y la estructura formal; el grado de autonomía entre los sistemas y actividades primarias; los desequilibrios que afectan su eficiencia en el desarrollo de objetivos en coherencia con una gran misión global, la eficiencia de sus mecanismos de coordinación y control y, el grado de auto-regulación y auto-organización de todos sus sub-sistemas. Es importante enfatizar que en la metodología de diagnóstico empleada, se utilizó el concepto de Estructura Organizacional como el conjunto de mecanismos de comunicación que actualmente utiliza la Unilibre (tanto físicos como humanos); entendida esta estructura como un mecanismo atenuador de variedad entre todos los miembros de la institución. Este concepto de estructura organizacional, difiere completamente de la carta organizacional de la Universidad.

5. RESULTADOS Es importante destacar cómo el esfuerzo realizado a través de tareas de Experimentación- Acción de seis comités de trabajo de la Unilibre, Seccional Bogotá, durante un periodo de siete meses, permitió, además de rediseñar el concepto estructura eficiente y viable, involucrar estos conceptos administrativos con el compromiso institucional. Los resultados alcanzados se sintetizan de la siguiente forma:

Esta penúltima etapa (MSV - Teoría sugerida), cuenta con un esquema compuesto por siete 64

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

64


65

Los comités de trabajo asimilaron los conceptos teóricos que constituyen los principios de la Cibernética Organizacional y el Modelo de Sistema Viable, generando nuevas formas de pensamiento y actitud mental con base en soluciones compartidas del rediseño organizacional, lo cual permitirá a mediano plazo, en la medida que se ejecute la metodología de viabilidad, eficiencia y mejoramiento de gestión universitaria, para que su estructura organizacional sea más eficiente.

La importancia de los enfoques del Modelo de Sistema Viable se hacen cada vez más relevantes [15, 16, 17], si se tienen en cuenta los conceptos que enfatizan cada vez más en la necesidad de organizaciones abiertas al aprendizaje, al cambio, al mejoramiento continuo, al aprendizaje generativo más que adaptativo y a la necesidad de incorporar el pensamiento sistémico en el conocimiento de la complejidad organizacional.

Por tanto, se está hablando de metodologías que resultan ser más útiles que las metodologías de los denominados sistemas duros, para entender la necesidad del cambio en la Unilibre, la búsqueda de la viabilidad organizacional, el mejoramiento de la eficiencia y el diseño de instrumentos de control de gestión, que apoyen a su vez el crecimiento corporativo, dentro de entornos económicos y sociales cada vez más dinámicos y cambiantes.

65

Para la maduración y consolidación del esquema metodológico desarrollado, es indispensable replicar el Modelo de Sistema Viable descrito anteriormente, en cada una de las seccionales de la Unilibre, con el fin de generar un conjunto de soluciones de mejoramiento organizacional, mediante un esfuerzo participativo y de reflexión directa por parte de las personas vinculadas en cada una de las seccionales. Esta tarea contribuirá a mejorar el desarrollo institucional, dado que se apoya en instrumentos de auto-regulación y auto-organización, los que se sustentan en flujos de comunicación e información adecuados. Este trabajo es el punto de partida para la creación de una nueva cultura organizacional en la Unilibre, afianzada en el uso de nuevos modelos interpretativos de las realidades organizacionales; nuevas concepciones de liderazgo, compromiso y logro; el reconocimiento de sus responsabilidades frente a estructuras flexibles y autónomas y, la voluntad para proseguir en el mantenimiento de subsistemas estratégicos con capacidad de autogestión.

7. AGRADECIMIENTOS Los autores expresan sus agradecimientos a las directivas, de Unilibre, así como a cada uno de los funcionarios, docentes y estudiantes de la Seccional Bogotá, por su apoyo, cooperación y disposición durante el desarrollo de la prueba piloto.

6. CONCLUSIONES

REFERENCIAS BIBLIOGRÁFICAS

Es de vital importancia comprender que la estructura organizacional de cualquier entidad social no está constituida sólo por relaciones de autoridad y control, que en sí mismos constriñen o impelen el cambio e inciden en el comportamiento sistémico de la entidad, sino también por un conjunto de normas, valores y acuerdos inherentes a la cultura organizacional. Por ende, este estudio no constituye un plan de acción global para la institución, ni pretende ajustar los requerimientos individuales de cada seccional a la prueba piloto de viabilidad, eficiencia y mejoramiento de gestión universitaria que se desarrolló dentro de la Seccional Bogotá.

[1] M. Satizábal. “Diagnóstico a procesos de una institución Educativa”. Tesis de Maestría en Ingeniería Industrial. Universidad de los Andes. Bogotá, D.C. 2005. [2] Á. M. Espinosa. “Metodología Cibernética para Análisis Organizacionales y de Requerimientos de Información”. Revista SISTEMAS. Bogotá, D.C., pp. 28. 2003. [3] D. E. Avison. y G. Fitzgerald, “Information System Development: Methodologies, Techniques and Tools”. Blackwell scientific publications. pp.336. 2008. [4] B. Wilson. “Systems: concepts, methodologies and applications”. John Wiley & Sons, Inc., New York. pp. 391. 2004. [5] A. T. Wood-Harper, L. Antill and D. E. Avison. “Information systems definition: The multiview approach”. Blackwell scientific publications. pp. 167. 2005. [6] E. Grun. “Los conceptos fundamentales de teoría general de sistemas y cibernética”. Asociación Latinoamericana de Sistemas, 24 de Enero de 2006. Disponible en: http://projects.isss.org/ Main/ALAS. [8] J. Underwood. “Models for change”. Soft systems methodology, 7 (5) 13-16, MCB University Press, Bradford, England, 1996.

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

65


[9] C. Vanegas. “La relevancia del modelo del sistema viable”. [Documento en línea], Disponible: http://www.gestiopolis.com. Consulta: Septiembre, 2009. [9] C. Vanegas. “La relevancia del Modelo del Sistema Viable”. 13 de Septiembre de 2009. Disponible: http://www.gestiopolis.com. [10] S. Beer. “Diagnosing The System Organizations”. John Wiley & Sons, Inc., New York. pp.153. 1995. [11] C. Palomera, A. Campos, R. Lara, E. Uribe, y E. García. “Modelo de Stafford Beer”. Universidad Tecnológica Metropolitana. Facultad de Ingeniería. Departamento de Industrias. Santiago de Chile. 2007. [12] R. Espejo. “The Viable System Model: Interpretations and Applications of Stafford Beer’s VSM”. John Wiley & Sons, Inc., New York. Capítulo 13. 1989. [13] R. Espejo, R. Harden. “The Viable System Model”. John Wiley & Sons, Inc., New York. pp.488. 1992. [14] R. Espejo. “An Introduction to Business Process Reengineering”. 1994. [15] N. Sánchez Rueda. “Estudio de Viabilidad para la Creación de una Zona Franca en Boyacá”. Universidad Pedagógica y Tecnológica de Colombia - Uptc - Sede Tunja. Escuela de Administración de Empresas. 2007. [16] N. Sánchez Rueda. “Estudio de Viabilidad para la Creación del Parque Tecnológico Agroindustrial, en el Municipio de Jenesano, Boyacá”. Universidad Pedagógica y Tecnológica de Colombia, UPTC. Sede Tunja Escuela de Administración de Empresas, 2007. [17] M. Ramírez Sánchez. “Mecanismos de Viabilidad, Eficiencia y Mejoramiento de Gestión en Universidades. Caso Universidad Libre de Colombia: Unilibre”. Informe Técnico Directivas Universidad Libre de Colombia. Unilibre. Santa Fe de Bogotá, D.C, 2010. [18] E. Y. Barón Núñez. “Tesis de Maestría en Ingeniería Industrial. La educación continuada y la aplicación de las nuevas tecnologías en educación, para la universidad de los andes un reto importante por asumir”. Universidad de los Andes. Bogotá, D.C, 2002.

María Ramírez Sánchez Ingeniera Industrial egresada de la Universidad Distrital Francisco José de Caldas. Candidata a Magister de la Maestría en Ingeniería Industrial de la misma Universidad. Asistencia permanente en labores de Asesoría y Consultoría en temas Gerenciales especialmente en Planeación y Direccionamiento Estratégico, Diseño de Indicadores de Gestión, Análisis y Diagnostico estratégico, Diseño Organizacional, Manual de funciones y procedimientos, Cuadros de Mando Integral, Análisis Financiero y Análisis de la Estructura de Costos, Elaboración de Presupuestos Empresariales, Elaboración de informes para clientes y empresas. mramirez_07@yahoo.es

Víctor Hugo Medina García Doctor en Ingeniería Informática de la Universidad Pontifica de Salamanca. Magíster en Informática de la Universidad Politécnica de Madrid. Especialista en Marketing de la Universidad del Rosario. Ingeniero de Sistemas de la Universidad Distrital Francisco José de Caldas. Actualmente es profesor titular en la Universidad Distrital, en la Maestría en Ciencias de la Información y las Comunicaciones y el Programa Curricular de Ingeniería de Sistemas, en el área de Ingeniería de Software y Gestión del Conocimiento. Es investigador del grupo GICOGE. vmedina@udistrital.edu.co

David de la Fuente García Doctor en Ingeniería Industrial de la Universidad de Oviedo, España. Ingeniero Industrial de la Escuela Técnica Superior de Ingenieros Industriales de Madrid. Actualmente se desempeña como profesor titular del Departamento de Administración de Empresas y Contabilidad de la Universidad de Oviedo. Es investigador de las líneas de producción, inteligencia artificial, redes neuronales, previsión, tecnológica de grupos y producción flexible. vid@etsiig.uniovi.es


Modelo de ampliación de la capacidad productiva Dusko Kalenatic1 César Amílcar López Bello 2 Leonardo José González Rodríguez 3

RESUMEN Este artículo es el resultado del proyecto de gestión de capacidades del Grupo de Sistemas Logísticos de la Universidad de la Sabana, en el cual se presenta un modelo de planeación estratégica para la ampliación de la capacidad productiva. La estructura del modelo proyecta a largo plazo la adquisición de máquinas y equipo en función de utilidad no percibida por la falta de capacidad para cubrir la potencialidad de la demanda. La naturaleza estratégica del modelo proyecta las necesidades de infraestructura en lo relacionado a maquinaria y equipo para procesos de producción por etapas, toma en cuenta los requerimientos de fuerza laboral expresada como mano de obra polivalente, además, se dimensiona en cuanto a la disponibilidad de espacio físico requerido para la instalación de nueva maquinaria y equipo, sobre un horizonte temporal. En función de dicho horizonte, se analiza y evalúa el impacto de las decisiones de aumento de la capacidad. Por simplicidad el modelo asume que por cada etapa de proceso se tienen iguales tecnologías, aunque es posible adecuarlo para contemplar diversas tecnologías por etapas de proceso. Palabras clave: Gestión de la capacidad productiva, programación lineal.

A MODEL FOR EXPANDING THE PRODUCTIVE CAPACITY ABSTRACT 1

Investigador Grupo de sistemas logísticos Universidad de la Sabana.

2

Investigador del grupo de investigación MMAI de la Universidad Distrital. Universidad Católica de Colombia, Investigador grupo sistemas logísticos, Universidad de la Sabana.

3

Director Grupo de Investigación en Sistemas Logísticos, Universidad de la Sabana.

This paper is the result of the project named “Integral models for capacity management”, in which a model of strategic planning for expanding the productive capacity is presented. The structure of this model projected in the long term involves the acquisition of machines and equipment, as a function of the utility that it is not perceived due to the lack of capacity to cover the potential demand. The strategic nature

of the model projects the needs of infrastructure related to the machines and equipment for the stages of a production process. Also, it takes into account the workforce requirements expressed as polyvalent labour, and it allows to calculate the space needed to install new machinery and equipment within a temporary horizon. With that horizon in mind, the impact of the desicion-making on capacity expansion is analysed and evaluated. In order to simplify the model, the assumption of all stages of the process having the same technolgy is made, although it is possible to adjust the model to account for diverse technologies in different stages of the process. Key words: Capacity planning, manufactoring capacity, linear programming.

1. INTRODUCCIÓN El impacto del desarrollo tecnológico y la globalización de las economías, hace que las empresas formulen per manentemente estrategias conducentes al mejoramiento de su posición en un mercado altamente competitivo. Una de las actividades gerenciales a nivel estratégico que se ejecutan en los sistemas de producción es la proyección del crecimiento y desarrollo de su capacidad. El soporte de las decisiones de incremento de la actividad productiva se fundamenta en la necesidad de responder a las exigencias de nuevos mercados en cuanto a cantidad, calidad y servicio, además los impuestos por los requerimientos de una demanda potencial no satisfecha. A menudo surgen cuestionamientos tales como: ¿cómo se debe ampliar la capacidad del sistema productivo y con que estrategia?. ¿Es suficiente con la programación de tiempo extra, programando turnos adicionales, o es necesario ampliar la capacidad instalada adquiriendo nuevas máquinas y equipo, claro está, tomando en cuenta la capacidad de fuerza adicional para la manipulación de estos nuevos puestos de trabajo o es preferible maquilar


68

El término estrategia de desarrollo de la capacidad consiste en la formulación de alternativas de ampliación de la actividad productiva con la compra e instalación de nuevos equipos.

órdenes de producción?, ¿Será necesario adquirir nuevas tecnologías o comprar nuevas instalaciones?, ¿Es conveniente aumentar las operaciones, con nuevos productos y/o servicios?, ¿Comprar nuevas máquinas o habilitar nuevos puestos de trabajo?, ¿Apropiarse de nuevas tecnologías? ¿Se debe centralizar la producción en una planta grande o es mejor construir o habilitar varias plantas de producción o instalaciones pequeñas?. Todos estos cuestionamientos se abordan a nivel estratégico en la medida que se concibe la estrategia para desarrollar la capacidad de la organización. La actividad productiva se ve afectada por las restricciones asociadas a la capacidad disponible de los recursos máquina y por la disponibilidad de la mano de obra contratada por la organización, es así como la formulación de la estrategia de ampliación de la capacidad, y los procesos de planeación y programación de las actividades productivas sobre un horizonte temporal se muestran como una de las temáticas más atractivas para la gestión de las operaciones. Si bien la estrategia para desarrollar la capacidad es un plan de amplio alcance para satisfacer la demanda potencial de los productos y servicios que ofrece una organización [1], es necesario visualizar el proceso de crecimiento sobre un horizonte temporal. La inversión en la adecuación y adquisición de instalaciones, desarrollo de nuevos productos y procesos de operación, aumento en el nivel de la fuerza laboral, compra de maquinaria y equipo son estrategias que por su importancia tienden a decidirse en los niveles jerárquicos más altos de las empresas. La adquisición de nuevas instalaciones y equipos son factores que afectan significativamente la competitividad de la empresa, si se tiene insuficiencia de capacidad no se puede responder rápidamente a las fluctuaciones de la demanda y por tanto, la pérdida de su nicho de mercado, esto se debe a que la ampliación de la capacidad es una decisión costosa e implica un tiempo considerable para habilitar los nuevos equipos a la producción [2]. De otra parte, la planeación de la producción a niveles estratégicos y tácticos requiere de la

68

Vol.14 No.2

planeación e identificación de la disponibilidad de la capacidad a mediano plazo sobre un horizonte de tiempo monitoreado, además de la estimación de los requerimientos de capacidad para realizar la provisión de los recursos necesarios para la actividad productiva. La factibilidad técnica que tienen las máquinas y equipos para realizar deter minados productos, así como el ordenamiento secuencial, los tiempos de alistamiento y el grado tecnológico de las operaciones de producción afectan y reducen significativamente la disponibilidad de la capacidad a corto plazo; en otras palabras, en el intento de materializar los planes de producción a largo y mediano plazo, en la programación al detalle, existe una diferencia importante que se debe tomar en cuenta para la planeación global de la capacidad.

2. ASPECTOS CONCEPTUALES SOBRE AMPLIACIÓN DE LAS CAPACIDADES PRODUCTIVAS Para este aparte es conveniente introducir los conceptos de capacidad, nivel de actividad y de estrategia de desarrollo de la capacidad, así como su impacto sobre los procesos de planeación, programación y control de las actividades productivas. Se entiende por capacidad el potencial de un trabajador, una máquina, un centro de trabajo, un proceso, una planta o una organización para fabricar productos por unidad de tiempo.1 La capacidad productiva, su análisis, planeación, programación y control, constituyen actividades críticas que se desarrollan paralelamente con las actividades de programación y planeación de materiales, siendo la capacidad la cantidad de productos o ser vicios destinados a satisfacer las necesidades del cliente o de la sociedad que puede ser obtenida por una unidad productiva en un determinado periodo de tiempo [3]. Otros autores [4] la definen como el volumen de producción que se puede alcanzar en un 1

Definición de la Sociedad Estadounidense de Control de Producción e Inventarios (APICS).

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

68


69

tiempo determinado, o como la velocidad máxima que un sistema puede realizar en un trabajo [5]. Por otra parte, el concepto de capacidad puede ser definido también en diferentes niveles jerárquicos de la organización, de acuerdo a los objetivos que en cada caso se persigan, es decir, a nivel global de todo el sistema productivo y de sus unidades estructurales, así como de las instalaciones, máquinas, equipos y puestos de trabajo. La capacidad de un proceso que genera una amplia variedad de productos por lo general se expresa como tasa de producción por unidad de tiempo. Es complicado expresar la capacidad como tasa de producción cuando se producen diversidad de productos que requieren diferentes niveles de recursos; para tal situación la tasa de producción depende de la mezcla de productos y del tamaño de los lotes, así la capacidad puede medirse en unidades de recurso disponible. Cuando un proceso requiere de operaciones en serie, su capacidad se determina por la operación cuya tasa de rendimiento tiene el nivel más bajo en la secuencia. La operación que limita la capacidad se denomina operación cuello de botella. Una forma de expresar la capacidad cuando se refiere a la disponibilidad de un recurso requerido para la producción de una mezcla de productos en un espacio de tiempo, puede ser la capacidad del recurso máquina, la cual se expresa en [horas- máquina al año], o la capacidad del recurso mano de obra expresada en [horas- hombre al año]. El término capacidad se relaciona a la potencialidad técnica y económica que posee un sistema u organización productiva o sus unidades estructurales, para participar en la elaboración de productos y/o prestación de servicios de una forma técnica, racional y económicamente eficiente, en un tiempo determinado. La capacidad puede clasificarse en los siguientes tipos [6]:

69

• Aquella determinada por la potencialidad que tiene un sistema, unidad estructural, elemento, máquina o persona para realizar una determinada producción y/o servicio en

un lapso de tiempo dado la cual se denomina capacidad técnica, es decir, el máximo rendimiento posible que se puede obtener en su desempeño. • Aquella definida en relación a los costos asociados a la producción en un horizonte temporal definido conocida como capacidad económica; en otras palabras, cuando la organización en su conjunto obtiene los menores costos por unidad de producción y/ o servicio realizado, garantizándose así, el denominado óptimo técnico – económico [7]. La capacidad de los medios de producción o de los insumos estructurales, en general, puede también diferenciarse en función de la disponibilidad, requerimiento y utilización temporal. Así, aquella que está potencial y totalmente disponible para alcanzar los resultados productivos máximos especificados por un productor se denomina capacidad instalada. La magnitud de esta capacidad se ve solo disminuida por razones de mantenimiento de los medios de producción, requeridos para garantizar su propia disponibilidad y utilización en la actividad productiva [8]. Su medición se realiza para diferentes horizontes de tiempo. La capacidad instalada es la cantidad de máquinas y equipo que una organización productiva posee y el potencial de producción que estos permiten alcanzar. La capacidad instalada representa la producción posible, si todas las máquinas y equipos estuvieran trabajando al 100 % del tiempo ininterrumpido [9]. A su vez, la capacidad instalada puede ser sostenida por muy cortos periodos de tiempo, así como pocas horas al día o pocos días al mes [10]. Es habitual denominar la capacidad de espacio físico como capacidad instalada para el almacenamiento de productos terminados, productos en proceso y materiales, así como para la instalación de nuevos equipos y puestos de trabajo. Cuando la magnitud es inferior a la de la capacidad instalada y se toma en cuenta las condiciones asociadas a los factores de alistamiento de la producción, administración y organización, se trata entonces de la capacidad disponible la cual se calcula en función de los días hábiles, el número de turnos

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

69


70

programados y su longitud, considera las pérdidas de tiempo originadas por el ausentismo de los trabajadores, las originadas por factores organizacionales y por aquellos otros factores externos que de una u otra forma hacen que se disminuya la capacidad [11]. Las máquinas no se pueden usar a toda capacidad a lo largo del periodo de producción. Hay varias razones para que esto ocurra. La necesidad de instalación, mantenimiento preventivo, afilado de herramientas, fallas y reparaciones imprevistas reduce el tiempo disponible para la producción. Las máquinas con tecnología más antigua son susceptibles de averiarse que las nuevas, ocasionando así una menor productividad. Factores relacionados con la fuerza laboral, como el ausentismo, los tiempos de para, las necesidades personales, el tiempo de valoración de lo producido, los ajustes, preparación y alistamiento de las máquinas y del material reducen la disponibilidad del recurso máquina. Debido a los requerimientos de calidad en los procesos de producción, existe cierta pérdida de capacidad inclusive cuando el equipo esté adecuadamente instalado y se opere correctamente. Además se pierde alguna producción al desechar algunas unidades defectuosas cuando la máquina esta operando mal o se produce incorrectamente produciéndose piezas con la calidad no deseada. En ciertas situaciones se les asigna más de una máquina a un solo operario, lo cual se conoce como acoplamiento de máquina. Esto se determina dividiendo el tiempo de ciclo total en dos partes, a saber el tiempo de la máquina y el tiempo del trabajador. El tiempo de máquina es aquel en que la máquina está funcionando sin asistencia del operario, y el tiempo del operario es aquel en donde el trabajador está con la máquina inactiva, realizando por ejemplo actividades de alimentación y carga de las máquinas. Cuando el tiempo de máquina es relativamente más grande que el tiempo del trabajador es usual que en este tiempo de operación de la máquina el trabajador realice actividades de carga de otras máquinas. Por lo tanto es posible que a un operario se la asigne varias máquinas en su actividad productiva. 70

Vol.14 No.2

En el sistema de conversión, un problema de desperfecto en una máquina o una producción defectuosa puede afectar la producción de otras máquinas del proceso productivo. Así mismo, un operario ocupado en tratar de solucionar un problema o corregir una producción defectuosa pude descuidar las demás máquinas que requieren de su presencia para su funcionamiento. El tiempo disponible para la producción no se incrementa en la misma proporción que el número de turnos; la programación de otro turno de producción no añade otras ocho (8) horas de producción. La pérdida de tiempo de producción aumenta, por que el tiempo libre disponible para reparaciones disminuye. Por ejemplo si en algún momento una máquina se avería, usualmente su reparación se realizaría en el segundo turno de trabajo, lo cual haría que se disminuyera el tiempo destinado para la producción de ese segundo turno. De otra parte factores como la falta de material, la falta de ayuda técnica, el ausentismo de los trabajadores afectan el rendimiento y la capacidad en mayor grado en el segundo turno, que en el primero. En general el grado de ausentismo es mayor en el segundo turno y aún más en el tercero. Finalmente, un modelo de ampliación de capacidades se reporta en [6, pág.70] aunque solamente considera elementos de un solo periodo.

3. MODELO DE AMPLIACIÓN DE LA CAPACIDAD PRODUCTIVA Para abordar el problema de planeación y desarrollo de la capacidad, se formula un modelo de ampliación de la capacidad instalada que fundamenta las decisiones que permita absorber demandas potenciales no satisfechas. Con este modelo se pretende evaluar la viabilidad técnica y económica de ampliar la capacidad de producción con la adquisición de nueva maquinaria y equipo, así como la contratación de nuevo personal para cubrir las necesidades originadas por la consecución y habilitación de nuevos puestos de trabajo. En el se evalúa si es conveniente incrementar la capacidad instalada para cada etapa de proceso, dado que al aumentar la capacidad

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

70


71

es posible incrementar los niveles de producción y por lo tanto la contribución a la utilidad frente al incremento en los costos de amortización por la compra, instalación y puesta en funcionamiento de las nuevas máquinas y equipos. 3.1 Objetivo

Concretamente el propósito del modelo consiste en determinar un plan de ampliación de capacidades orientado a la maximización de la utilidad. 3.2 Función objetivo

De acuerdo a lo anterior, entonces la función objetivo queda estructurada en relación a los niveles de producción e inventario, en la decisión de comprar nuevas máquinas y equipo, y en la decisión de contratar nuevo personal requerido para la manipulación de los nuevos equipos. Por otra parte, la función objetivo del modelo está estructurada para que en base a los márgenes de contribución se logre un incremento a partir de la producción adicional ocasionada por el aumento de la capacidad. La utilidad está en función de las variables de producción, inventario, operarios a contratar y máquinas a adquirir como se expresa en la ecuación (1) F = f(Xj,t, j=1,2, ..;J;t=1,2..;T;Oct ;Yi ,i=1,2,..;m )

(1)

El criterio de maximización de la función utilidad y ampliación de la capacidad instalada se expresa como la relación (2) (2)

3.3 Conjuntos referenciales

i : Índice que identifica la etapa de proceso y el tipo de máquina, donde i=1,2...,M j : Índice que identifica el tipo de producto, donde j=1,2...,J t: Índice que identifica el periodo de producción, donde t=1,2...,T

71

M: Número de etapas de proceso o tipos de máquina

J: Número de tipos de producto T: Número de períodos del horizonte de planeación. 3.4 Definición de variables de decisión

El modelo de ampliación de capacidades temporalizado presenta el conjunto de variables de decisión siguiente: Xj,t : Cantidad a elaborar de producto tipo j, en el período t. Yi : Número de máquinas a adquirir del tipo i, Oct : Número de operarios nuevos a contratar (polivalentes), en el periodo t. XJ+i,t : Ocio productivo de la maquinaria tipo i, en el período t. XJ+M+1,t : Ocio productivo del recurso mano de obra, en el período t. Ij,t : Inventario disponible al final del período t del producto tipo j. dnj,t : Demanda no satisfecha de producto tipo j, en el período t. 3.5 Parámetros

Cj : Costo unitario de producción del artículo tipo j. Pj : Precio de venta por unidad de producto tipo j. CF : Costo Fijo d maxj,t : Demanda potencial del producto tipo j, en el período t. d minj,t : Demanda requerida del producto tipo j, en el período t. Cdi,t : Capacidad disponible de la maquinaria en la etapa de proceso i, en el período t. Cdui,t : Capacidad disponible por unidad de máquina en la etapa de proceso i, en el período t. Kdt : Capacidad disponible del recurso mano de obra, en el período t. Kdot : Capacidad disponible por operario, en el período t. ai,j : Tiempo de elaboración estándar de un

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

71


72

producto tipo j en una máquina de la etapa de proceso i. bi,j : Tiempo de ejecución estándar requerido de mano de obra por unidad de producto tipo j en la etapa de proceso i. Ai : Costo de amortización por la compra, instalación y puesta en marcha de una máquina tipo i. CC : Costo de selección, contratación y capacitación de un operario nuevo. Eri : Espacio requerido para la instalación de una nueva máquina, considerando las áreas de trabajo para: alimentación de materia prima, manipulación del equipo y almacenamiento temporal de producto procesado en la etapa de proceso i. Ed : Espacio disponible para la instalación de nuevos equipos. hj,t : Costo de mantenimiento de inventario por unidad de producto tipo j en el período t. fs : Factor de servicio. 3.6 Condiciones iniciales

Ij,0 : Inventario disponible al inicio del período de planeación de producto tipo j (de tal manera que es igual a una constante).

laboral y para la compra y adquisición de maquinaria y equipo, ecuación (11) y las condiciones iniciales sobre el estado de los inventarios disponibles de cada tipo de producto al comienzo del horizonte de planeación . Las diferencias entre las expresiones (3) y (4) radican en que la segunda se expresa en forma estándar, agregando la variable de holgura, la cual expresa el ocio productivo en que puede incurrir los fondo de tiempo máquina sobre el horizonte temporal. (3)

(4)

La expresión (5) indica como el nivel de actividad que se puede generar medido en unidades de fuerza laboral debe ser asociado a la disponibilidad del fondo de tiempo disponible del recurso humano, lo cual al ser estandarizado se observa en la expresión (6), que es el ocio productivo de la fuerza laboral asociado a la variable de holgura que se puede causar en la actividad productiva sobre el horizonte de planeación. (5)

3.7 Restricciones del modelo

El modelo de ampliación de capacidades productivas toma como representativas cuatro tipos de restricciones: restricciones de capacidad disponible asociadas a la maquinaria y el equipo por etapas de proceso en intervalos de tiempo, ecuaciones (3-4), restricciones de capacidad asociadas a la mano de obra (bajo el supuesto de polivalencia) sobre un horizonte temporal, ecuaciones (5-6), restricciones de disponibilidad de espacio físico para la ubicación de nuevos puestos de trabajo e instalación de nuevos equipos y máquinas, ecuación (7), restricciones de demanda potencial y requerida, ecuaciones (8-9), restricciones de disponibilidad de espacio físico para la instalación y puesta en marcha de nuevas máquinas y equipos en sitios de trabajo, las condiciones lógicas de no negatividad para las variables de nivel de producción e inventario, ecuación (10), las relacionadas a la condición entera asociada a la contratación de fuerza 72

Vol.14 No.2

(6)

La expresión (7) muestra como el espacio físico asignado para la instalación de nueva maquinaria y equipo se convierte en una restricción que trunca el desarrollo de la organización. (7) (8) (9)

Las expresiones (8) y (9) indican como es posible cubrir la demanda en un periodo en particular a partir de los niveles de producción

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

72


73

y de inventario, dentro del rango mínimo (demanda requerida) y máxima (demanda potencial). Las restricciones de capacidad disponible por grupo de sitios de trabajo (3) y (4), al igual que las restricciones de capacidad de mano de obra (5) y (6) se diferencian en la inclusión de las variables de holgura que representan en el primer caso (4) el ocio productivo de los medios de trabajo, y en el segundo (6) el ocio productivo del recurso mano de obra, esto con el fin de satisfacer diferentes objetivos en los modelos propuestos en este articulo. Diferentes autores [12] [13] realizan modificaciones a esta restricción con el fin de incluir la capacidad perdida en actividades de alistamiento, otros autores [14], [15] desagregan el lado derecho de la restricción por grupos de herramientas y/o centros de trabajo, así mismo analizan el impacto de cambios tecnológicos en la capacidad [16] [17] [18]. Así pues, el modelo de ampliación de capacidad productiva se puede resumir en la expresión (13). (10) (11) (12)

(13)

4. VALIDACIÓN Con el fin de validar el modelo de ampliación de capacidades temporalizado y con base en la experiencia, se propone un caso que caracteriza la situación práctica. El caso muestra un análisis y una interpretación enriquecedora para los procesos de toma de decisiones en cuanto a la ampliación de la capacidad instalada. Las empresas manufactureras plantean en sus planes estratégicos de desarrollo [19] la posibilidad de ampliar la capacidad productiva, para lo cual puede utilizar estrategias tales como la programación de tiempo extra, programación de nuevos turnos de trabajo, mediante la compra, instalación y habilitación de nuevos puestos de trabajo o el cambio o modificación tecnológica. Para tal fin, se presenta información relevante que identifica una organización. La empresa elabora cuatro (4) familias o tipos de producto, a lo largo de tres (3) etapas de proceso, en donde hay varias máquinas (o puestos de trabajo) por etapa de proceso de la misma tecnología. La empresa labora en un (1) turno de trabajo de ocho (8) horas, seis (6) días a la semana (de lunes a sábado), no labora días festivos y además programa vacaciones colectivas que corresponde a quince (15) días hábiles al año (7 días del mes de diciembre y ocho días del mes de enero). Los tiempos de elaboración estándar, en minutos máquina por unidad de cada tipo de producto por tipo de máquina en cada etapa de proceso, el número de máquinas disponibles de cada tipo por etapa de proceso (Ni), las pérdidas de tiempo estándar ocasionadas por el mantenimiento preventivo de los equipos por unidad de máquina de cada tipo expresada en horas al año (g i), el número de operarios requerido por puesto de trabajo o por tipo de máquina (Orj), el costo de materia prima por unidad de producto (CMP j), el costo de operación de una máquina de cada tipo en $ por hora máquina (COi), el costo por unidad de cada tipo de materia prima, el inventario inicial disponible de cada tipo de producto (Ij,0), y el precio de venta por unidad de cada tipo de producto (Pj),se muestra en la Tablas I y II.

73

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

73


74

La empresa por razones de capacidad ha tenido que subcontratar y ha perdido oportunidad de vender sus productos, por eso ha decidido, realizar un análisis de capacidad para poder suplir las necesidades del mercado y así prestar un mejor servicio al cliente. Tabla I. Datos de los parámetros del caso de estudio ETAPA

PRODUCTO minutos/unidad

E1 E2

P1 15 11

P2 14 10

P3 12 9

P4 11 8

(CMP j) (P j ) (I j,0 )

12200 45180 500

13250 46022 250

13200 44772 420

14400 45531 285

El costo fijo anual de operación de la empresa sin tomar en cuenta alguna ampliación, los costos de contratación, los costos de amortización por la compra, adquisición e instalación de nuevos equipos, el área requerida para la instalación y funcionamiento de una máquina de cada tipo y el área disponible para la ubicación de nuevos puestos de trabajo se muestran en la Tabla IV. Tabla IV. Datos adicionales para evaluar la ampliación de la capacidad. Máquina

Costo de

Área requerida/

Amortización $/año

Máquina

Área disponible = 620 metros

M1

4'200.000

6m2

Costo de contratar

M2

4'800.000

8m2

=$1'200.000/operario

Tabla II. Datos para estimar pérdidas de capacidad ETAPA E1 E2

Ni 16 13

gi 110 115

Or j 1 2

CO i 27380 25870

E3 12 135 2 24750 Pérdidas de tiempo por factores organizacionales, ausentismo y factores externos G2=3500 horas/año G3=3200 horas/año G4=3300 horas/año

La demanda mensual requerida proyectada para cada tipo de producto se muestra en la Tabla III. Tabla III. Datos de demanda de los productos

Vol.14 No.2

M3

5'600.000

10 m 2

El costo de mantenimiento del inventario es del 2% mensual cargado al costo del inventario promedio (es decir 2% mensual por el costo unitario del producto). De la lectura del caso se resume que es necesario obtener planes orientados a la obtención de la máxima utilidad, además de realizar un análisis de ampliación de capacidad. 4.1 Solución

Periodo

DEMANDA POR PRODUCTO

Enero Febrero

P1 10510 11420

P2 9510 9820

P3 10210 11420

P4 5500 6550

Marzo Abril Mayo Junio

13300 14560 15600 16450

8300 12570 13680 15420

8800 10560 8600 9450

6280 7620 10600 12450

Julio Agosto Septiembre

13250 12300 14640

16250 15380 14720

10250 12300 13640

15240 16300 17640

Donde:

Octubre Noviembre Diciembre

15600 15820 16920

14640 16620 17320

17600 18820 20920

17600 18820 19920

DH t : Días hábiles del periodo t, para t=1,2...,T.

4.1.1 Determinación de parámetros

La empresa cuenta con una planta de 96 operarios polivalentes, el tiempo de labor implica un 20% adicional para la manipulación de materiales y para el alistamiento de los equipos. El costo de mano de obra está determinado por el salario de cada trabajador los cuales son medianamente calificados y que corresponde a $1´120.000. 74

Costo fijo =$1200.000.000/Año

Para efectuar los cálculos de capacidad del recurso máquina de cada etapa de proceso en cada periodo de tiempo se recurre a la expresión (14). (14)

HT : Horas turno. NT : Número de turnos. Ni : Número de máquinas o puestos de trabajo disponibles en la etapa de proceso i para i=1,2...,M. gi : Pérdidas de tiempo por la realización de mantenimiento programado por unidad de

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

74


75

máquina en la etapa de proceso i para G2 : Pérdidas de tiempo estándar ocasionadas por factores organizacionales G3 : Pérdidas de tiempo estándar ocasionadas por el ausentismo G4 : Pérdidas de tiempo estándar ocasionadas por factores externos T: Número de periodos del horizonte de planeación

T : Número de periodos del horizonte de planeación. M : Número de etapas de proceso. Para calcular el costo unitario por tipo de producto, es necesario determinar los costos de operación por unidad de cada tipo de producto, el costo unitario de mano de obra y el costo de materia prima asociada a cada unidad de producto. Para tal efecto se utiliza la expresión (17). (17)

M: Número de etapas de proceso Para efectuar los cálculos de capacidad del recurso mano de obra (polivalente) en cada periodo de tiempo se recurre a la expresión (15). (15)

Donde las pérdidas totales por mantenimiento de los equipos se calculan como se muestra en la expresión (16) (16)

Donde: COj : Costo de operación por unidad de cada tipo de producto j. CMOj : Costo de mano de obra por unidad de cada tipo de producto. CMPj : Costo de materia prima por unidad de cada tipo de producto j. Para el cálculo del costo de operación se utiliza la expresión (18)

Donde:

(18)

OD: Número de operarios disponibles. HT: Horas turno. Ni : Número de máquinas o puestos de trabajo disponibles en la etapa de proceso i para i=1,2...,M. gi : Pérdidas de tiempo por la realización de mantenimiento programado por unidad de máquina en la etapa de proceso i para i=1,2...,M. DH t : Días hábiles del periodo t, para t=1,2...,T. G 1 : Pérdidas de tiempo estándar por mantenimiento preventivo. G2 :Pérdidas de tiempo estándar ocasionadas por factores organizacionales. G3 : Pérdidas de tiempo estándar ocasionadas por el ausentismo. 75

G4 : Pérdidas de tiempo estándar ocasionadas por factores externos.

Donde: COj : Costo de operación por unidad de cada tipo de producto j. COi : Costo de operación por unidad de tiempo de una máquina en la etapa de proceso i. a i,j : Tiempo de elaboración estándar por unidad de cada tipo de producto j en una máquina en la etapa de proceso i. 4.1.2 Instrumentación

Se entiende como instrumentación la consecución de los diferentes recursos necesarios para conducir la experimentación. El levantamiento de datos, la validación de la información de entrada para el modelo son procedimientos que están fuera del alcance del presente artículo. Para resolver el problema es necesario utilizar un algoritmo de programación entera mixta, como el CIPLEX. Por lo tanto, para la realización del proceso experimental se

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

75


76

utilizó el Software GAMS Versión 20.20.0 Módulo GAMS Rev 133 Windows NT/95/ 98, el cual tiene disponible el algoritmo CIPLEX. 4.1.3 Análisis modelos de ampliación de capacidad

La opción de utilizar la estrategia de ampliación de la capacidad instalada es significativamente muy superior, pero implicaría un tiempo considerable para su implementación, debido a que su alcance es a largo plazo, es evidente el impacto positivo que tiene sobre el rendimiento y contribución a la utilidad. La capacidad adicional por la compra de nuevos equipos no es suficiente para cubrir mayor demanda, entonces la decisión de comprar más máquinas se ve limitada por el espacio físico disponible, que necesariamente se debería pensar en la generación de una estrategia orientada a la ampliación de la planta física, que genere mayor espacio y se pueda así instalar más cantidad de puestos de trabajo. Si se hace la experimentación es posible que se pueda suplir en mayor cantidad la demanda de los productos, pero pensando en el desarrollo de nuevos productos y procesos la capacidad sería insuficiente. La otra alternativa sería en pensar en la programación de un segundo turno lo que generaría un mayor rendimiento sobre los activos disponibles, claro está que se debe considerar el incremento de los costos para el desarrollo de las actividades coordinación y control de la nueva actividad productiva. Al hacer la experimentación con planta física adicional se obtienen contribuciones mayores por ejemplo con una planta con capacidad de 2000 metros cuadrados, se lograría una mayor utilidad.

5. CONCLUSIONES Para el desarrollo de las organizaciones es importante pensar en la ampliación de la capacidad productiva a corto, mediano y largo plazo. En primera instancia con la adición de tiempo extra o la programación temporal de

turnos se puede responder a las necesidades a corto plazo; con la programación y proyección de nuevos turnos se responde a mediano plazo, claro está que implica la contratación de más personal para asignarlo al nuevo turno y definitivamente para obedecer a las necesidades y tendencias del mercado a largo plazo, es necesario pensar en la compra e instalación de nuevas máquinas y puestos de trabajo. Con la formulación de modelos de programación entera mixta se puede determinar y proyectar las necesidades de capacidad, así como percibir el beneficio que conlleva el desarrollo del sistema productivo. Para la formulación de los planes de producción y llevar a cabo los procesos de gestión de los sistemas productivos, es de vital importancia determinar la capacidad de los recursos requeridos que intervendrán en la producción. El proceso de toma de decisiones afecta el desempeño de la organización reflejándose en indicadores de gestión, los cuales varían en función de la capacidad productiva. La orientación de la actividad productiva puede generar mejoramiento sobre algunos criterios de decisión, pero pueden afectar negativamente el desempeño de la organización al evaluarse en función de otros criterios. Por ejemplo en el intento de reducir costo se puede incurrir en la producción de bienes de calidad inferior, o generar niveles de producción baja y por tanto menor productividad. Para ampliar el concepto se puede consultar [21-24]. La determinación de elementos tales como el ocio productivo asociado a las variables de holgura en las restricciones de capacidad, los requerimientos de capacidad determinada a partir de la estimación de los recursos necesarios, traducido en la programación de horas extras o programación de más turnos, los porcentajes y grados de utilización de la capacidad, el grado de participación de la demanda potencial, los niveles de servicio, el equilibrio entre los recursos máquina y la fuerza laboral, la identificación de los recursos cuello de botella, y los costos asociados a la producción y la inactividad productiva entre otros son de gran importancia para el diseño y formulación de planes de producción, los 76

76

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


77

cuales se pueden obtener bajo un análisis de ampliación de la capacidad y a través de la interpretación de los resultados del problema de optimización.

[17] H. Sherali, K. Stachus, J. Huacuz. “An integer programming approach and implementation for an electric utility capacity planning problem with renewable energy sources”. Management science, Jul 1987, 3, 7 ABI/INFORM Global Pg. 831.

REFERENCIAS BIBLIOGRÁFICAS [1] H. Noori y R. Radford. “Administración de Operaciones y Producción”. Mc Graw Hill. 1997.

[19] D. Kalenatick, C. López, L. González. “Modelos de Medición, Análisis, Planeación y Programación de Capacidades en un Contexto de Múltiples Criterios de Decisión Colombia”. Revista Ingeniería. ISSN: 0121-750X, vol:2-2005 fasc: 1 págs: 15 - 25.

[2] J. A. Domínguez Machuca et al. “Dirección de Operaciones, Aspectos Tácticos y Operativos en la Producción y los Servicios”. Editorial Mc Graw Hill Interamericana de España. 1995

[20] R. Leachman & T. Carmon. “On capacity modelling for production planning with alternative machine types”. IIE transactions September 1992, Vol 24, No 4.

[3] D. Kalenatick, C. López, L. González. “Modelo Integral de Producción en Empresas Manufactureras Colombia”. 2006, ISBN: 9589784011 vol: 1, Ed. Kimpres.

[21] Y. Hung & G. Cheng. “Hybrid capacity modelling for alternative machine types in linear programming production planning”. IIE Transactions, Feb 2002, 34,2 ABI/INFORM Global Pg. 157.

[4] K. Lockyer. “Production and Operation Management”. Prentice Hall. 1992.

[22] D. Paraskevopoulos et al. “Robust capacity planning under uncertainty management science”. Jul 1991, 37,7 ABI/INFORM Global Pg. 787.

[5] R. Chase, F. Robert Jacobs, and Nicholas Aquilano. “Operations Management for Competitive Advantage”. Mc Graw Hill. 2005. [6] D. Kalenatic. “Modelo Integral y dinámico para el análisis, planeación, programación y control de las capacidades productivas en empresas manufactureras”. Universidad Distrital Francisco José de Caldas. Centro de Investigaciones y desarrollo científico. 2001. [7]

I. Chiavenato. Iniciación a la planeación y control de la producción. México : McGraw-Hill, 1993.

[8] K. Lee & R. Larry. “Administración de Operaciones”. Editorial Prentic Hall, 5ta. 2001. [9] D. Kalenatick, C. López, L. González. “Modelos de Medición, Análisis, Planeación y Programación de Capacidades en un Contexto de Múltiples Criterios de Decisión Colombia”. Revista Ingeniería. ISSN: 0121-750X, 2005 vol:2-2005 págs: 15 - 25 [10] H. Lewis et al. “Master scheduling in assemble-to-order environments: a capacitated multi-objective lot-sizing model, Decision sciences”. Jan/Feb 1992; 23, 1 ABI/INFORM Global. Pg. 21. [11] M. Bruccoleri, G. Lo Nigro, S. Noto la Diega, P. Retina, C. Perrone. "A DSS for strategic planning". En: Design of Advanced Manufacturing Systems: Models for Capacity Planning in Advanced Manufacturing Systems. Andrea, M. and Quirico, S. (Eds.). Springer, 2005. [12] F. S. Hillier, G. J. Lieberman. “Introduction to Operations Research”. Eighth Edition. Mc Graw Hill. 2004. [13] W. L. Winston. “Investigación de Operaciones”. Cuarta Edición. Editorial THOMSON. 2005. [14] D. Kalenatick, C. López, L. González. “Modelo de planeación de capacidades utilizando programación fraccional lineal en un contexto de múltiples criterios de decisión Colombia”. Revista Ingeniería. ISSN: 0121-750X, 2006 vol:11 fasc: 2 págs: 48 - 60 [15] S. Bermon & S. Hood. “Capacity optimization planning system CAPS”. Interfaces. Sep/Oct 1999, 29, 5 ABI/INFORM Global Pg.31. [16] S. Karabuk & D. Wu. “Coordinating strategy capacity planning in the semiconductor industry”. Operation Research Nov/Dec 2003, 51,6 ABI/INFORM Global Pg.839.

[18] B. Balachandran et al. “On the efficiency of cost-based decision rules for capacity planning”. The Accounting revew; Oct 1997, 72,4; ABI/INFORM Global Pg. 599.

[23] J. McClain et al. “Efficient solutions to a linear programming model for production scheduling with capacity constraints and no initial stock”. IIE Transactions Jul 1989, 21,2 ABI/INFORM Global Pg.144. [24] T. Fahringer & M. Siddiqui. “Grid Resource Management: Ondemand Provisioning, Advance Reservation, and Capacity Planning of Grid Resources (Lecture Notes in Computer Science/ Theoretical ... Science and General Issues)”. Springer 2009.

Dusko Kalenatic Doctor en Ciencias Técnicas, Universidad de Las Villas Marta Abreu, Santa Clara. Especialista en Ingeniería de Producción Universidad Distrital Francisco José de Caldas. Especialista del Instituto de Periodismo Yugoslavo. Economista de la Escuela Superior de Economía, Belgrado. Ingeniero en Organización de Trabajo de la Universidad de Belgrado. Profesor e Investigador del grupo en sistemas logísticos de la Universidad de la Sabana. dusko.kalenatic@udistrital.edu.co

César Amilcar López Bello Magíster en Ingeniería Industrial, Universidad de los Andes. Especialista en Ingeniería de Producción, Universidad Distrital. Ingeniero Industrial, Universidad Distrital Francisco José de Caldas.Profesor Investigador grupo sistemas logísticos de la Universidad de la Sabana. Profesor Asociado, Facultad de Ingeniería Universidad Distrital. Investigador grupo MMAI de la Universidad Distrital. clopezb@udistrital.edu.co. cesar.lopez@unisabana.edu.co

Leonardo José González Rodríguez Magíster en Ingeniería Industrial, Universidad de los Andes. Especialista en Ingeniería de Producción, Universidad Distrital. Ingeniero Industrial, Universidad Distrital. Director Grupo de Investigación en Sistemas Logísticos, Universidad de la Sabana. Leonardo.gonzalez1@unisabana.edu.co

77

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.2

77


78

Vol.14 No.2

4

13

18

25

31

38

47

53

59

Este artículo propone un método heurístico para resolver el problema de secuenciación para sistemas Flow Shop Estrictos con Buffer Ilimitados, con una función objetivo que consiste en la minimización del tiempo de procesamiento de la última orden en el sistema, es decir, el makespan. Se desarrolla una metodología diferente y sencilla en el diseño e implementación de filtros digitales con respuesta impulsional finita, sobre una arquitectura reconfigurable como la FPGA XC3S200. En este desarrollo se emplearon herramientas CAD como “FIR toolbox” e “ISE” de Xilinx. Esta investigación aplicada a la Universidad Distrital Francisco José de Caldas, demuestra que es posible transferir información adquirida del Modelo de Información de Edificación (Building Information Model, BIM) hacia el entorno geoespacial. Los resultados confirman que el BIM proporciona el nivel y la cantidad de información suficiente para la integración de la información. A partir del problema NP–Hard se propone constructivamente una implementación de la metaheurística colonia de hormigas. Las soluciones generadas se basan en el principio que la secuencia óptima se encuentra en el conjunto de los programas activos reportando soluciones óptimas. Este artículo desarrolla una propuesta para una ingeniería de software basada en la premisa de establecer un conjunto de principios para formalizar un cuerpo de conocimiento guiado, no solo por actividades de trabajo, métodos y técnicas sino también fortalecida por propiedades que en efecto puedan ser utilizadas y aplicadas. El artículo muestra un modelo de simulación que permite identificar tendencias y hace posible realizar proyecciones del sistema financiero de la PyMe. Entre las variables de influencia se encuentran la liquidez, el capital de trabajo, las inversiones, la gestión y control de presupuestos, la rentabilidad y el financiamiento. El desarrollo de este artículo genera la estructura del sistema de información operacional para el control de transferencia de una cadena de manufactura por procesos, así: subsistema de entrada, subsistema operacional y subsistema de salida que permita con sus resultados establecer el monitoreo, control y trazabilidad. Este trabajo presenta consideraciones metodológicas para desarrollar una herramienta que genere automáticamente especificaciones de procesadores difusos, las cuales puedan ser implementadas en dispositivos de hardware empotrado. Como caso específico muestra una herramienta automática para generar código en lenguaje de programación ANSI C de modelos de procesadores difusos especificados en una herramienta de alto nivel. Este artículo presenta los pasos para realizar los cambios de integración y migración de información de los repositorios digitales en diversas plataformas de código abierto (open source) con el fin de garantizar la estandarización de las soluciones informáticas propias de las Instituciones de Educación Superior (IES). Además de mejorar el acceso a la aplicación impendiendo que personas no autorizadas a la IES se registren dentro del sistema.

Diseño de un Metodo Heurístico para Secuenciación en Sistemas Flow Shop Estrictos con Buffers Ilimitados Tutorial for the Design of FIR Digital Filters over FPGA Aplicabilidad del Modelo de Información de Edificios en el ámbito geoespacial para apoyar el Plan Maestro de Desarrollo Físico y Tecnológico de la Universidad Distrital Minimización de la tardanza ponderada total en talleres de manufactura aplicando colonia de hormigas Principios para la Formalización de la Ingeniería de Software

Simulador para el Control Financiero de las Pymes

Sistemas de Información para el Control de Transferencia en una Cadena de Manufactura

Consideraciones metodológicas para la síntesis automática de procesadores difusos en ANSI-C

Integración de Repositorios Digitales para la Gestión del Conocimiento en el ámbito universitario Colombiano

Diana Catherine Salamanca L., Harry Andrés Ortiz Cabuya, César Amilcar López Bello

César Augusto Hernández S., Edwar Jacinto Gómez, Octavio José Salcedo Parra

José Nelson Pérez Castillo, José Ignacio Rodríguez Molano

Oscar Yecid Buitrago S., Rodrigo Britto Agudelo, Gonzalo Mejía D.

Germán A. Méndez Giraldo, Patricia Parra, José Hurtado Portela

Jairo Humberto Torres Acosta

Edgar Forero, Edgar Garcia, Miguel Melgarejo

Luís Eduardo Cano Olivera, Pedro Enrique Espitia Zambrano, José Nelson Pérez Castillo, Luis Joyanes Aguilar

Sandro Javier Bolaños C., Víctor Hugo Medina G., Luis Joyanes Aguilar

PÁG.

RESUMEN

TÍTULO

AUTOR (ES)

78

78

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

ÍNDICE PERIÓDICO Volumen 14 No. 1 año 2009


REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Dusko Kalenatic, César Amílcar López Bello, Leonardo José González Rodríguez

María Ramírez Sánchez, Víctor Hugo Medina García, David de la Fuente García

Ángela María Niño Navarrete, Juan Pablo Caballero Villalobos

Héctor Hostos, Federico Sanabria, Miguel Melgarejo

Hugo Felipe Salazar Sanabria, César Amílcar López Bello

Hugo Alexander Rondón Quintana, Luís Ángel Moreno Anselmi, Daniella Rodríguez Urrego, Jennifer Lee Mariño

Johan Sebastián Patiño Abella, Juan Sebastián Tello Reyes, Johann Alexander Hernández Mora

César Leonardo Trujillo Rodríguez, David Velasco de la Fuente, Emilio Figueres Amorós, Gabriel Garcerá Sanfeliú, Rubén Ortega González

AUTOR (ES)

19

34

42

51

59

Presenta de manera resumida los resultados de estudios en el área de los asfaltos modificados. El objetivo ha sido evaluar el cambio en las propiedades mecánicas que experimentan mezclas asfálticas modificadas con aditivos productos de desechos industriales. Como conclusión de los estudios se reporta que la mayor parte de los materiales empleados para modificar las propiedades de los asfaltos y las mezclas asfálticas aumentan la resistencia mecánica de las mezclas y la tendencia a presentar menor susceptibilidad térmica, mayor resistencia a fluir y rigidez. Este artículo desarrolla la configuración SCOR (Supply Chain Operations Reference) de una cadena de suministro básica, las ventajas de utilizar el modelo SCOR, las principales herramientas en la gestión de cualquier cadena de suministro y principalmente contiene una metodología propuesta y su aplicación en una organización de la industria forestal, incluyendo la descripción de la configuración por medio de categorías de proceso. Es una propuesta para el diseño de circuitos analógicos basados en amplificadores operacionales usando un algoritmo genético simple. La entrada al algoritmo es la función de transferencia requerida por el diseñador expresada como la respuesta al escalón unitario que el circuito debería exhibir. Adicionalmente, una característica especial del algoritmo radica en que la función de aptitud se implementa como un sistema de inferencia difusa. Este trabajo aborda y analiza tres funciones de utilidad para la minimización de la tardanza total ponderada en un entorno de producción (1|| ∑wj Tj ). El desempeño de estas funciones se evaluó mediante un estudio estadístico que evidenció diferencias significativas en los valores medios de tardanza total ponderada, explicadas por el factor función de utilidad. La fase experimental se desarrolló usando instancias de la librería OR-LIBRARY y permitió obtener soluciones competitivas en calidad con respecto a los mejores valores conocidos para las instancias de este problema. Describe una propuesta metodológica basada en el Modelo de Sistema Viable (MSV) que pretende estudiar, diseñar y ofrecer mecanismos particulares de viabilidad, eficiencia y mejoramiento de la gestión universitaria en la Universidad Libre de Bogotá, Colombia. El Modelo del Sistema Viable está enmarcado en la filosofía de la forma de ver las organizaciones denominado “enfoque sistémico”.

Experiencias sobre el estudio de materiales alternativos para modificar asfaltos

Propuesta metodológica para la aplicación del modelo Supply Chain Operations Reference

Diseño de circuitos analógicos basados en amplificadores operacionales usando algoritmos genéticos con función de aptitud difusa

Evaluación de funciones de utilidad de GRASP en la programación de producción para minimizar la tardanza total ponderada en una máquina

Mejoramiento de gestión universitaria basado en el Modelo de Sistema Viable. Caso de estudio: Universidad Libre

67

13

Este artículo presenta el proceso empleado en el desarrollo un regulador virtual de carga para sistemas fotovoltaicos autónomos, el cual incluye adquisición y control de datos, medición en tiempo real del voltaje de las baterías, y registro de eventos en archivo de Excel® en el que se indica la hora, día, mes, año, evento ocurrido y magnitud del mismo.

Desarrollo de un regulador de carga para sistemas fotovoltaicos aplicando instrumentación virtual

Expone los resultados del proyecto de gestión de capacidades del Grupo de Sistemas Logísticos de la Universidad de la Sabana, en el cual se presenta un modelo de planeación estratégica para la ampliación de la capacidad productiva. La estructura del modelo proyecta a largo plazo la adquisición de máquinas y equipo en función de utilidad no percibida por la falta de capacidad para cubrir la potencialidad de la demanda.

4

En este artículo se analiza la condición en modo isla cuando los inversores que hacen parte de la microrred deben operar como fuentes de tensión en paralelo con otros equipos de similares características. Para validar dicho análisis, se realizan simulaciones de inversores conectados en paralelo alimentando una carga y se dan conclusiones.

Análisis de la impedancia de salida en lazo cerrado de inversores funcionando en modo isla, utilizando esquemas droop

Modelo de ampliación de la capacidad productiva

PÁG.

RESUMEN

TÍTULO

79

79

Vol.14 No.2

79

ÍNDICE PERIÓDICO Volumen 14 No. 2 año 2009


80

REVISTA

Ingeniería

ÁREAS DE PUBLICACIÓN • • • • • • • • • • • • • • • • • •

Comunicaciones y Televisión Telecomunicaciones –Teleinformática Instrumentación, Control y Automatización Electrónica de Potencia Dispositivos y Circuitos Electrónicos (FPGA, ASIC). Procesamiento de señales e imágenes Microelectrónica, Optoelectrónica y Fotónica Bioingeniería Tiempo Real Ingeniería de Software y Simulación Inteligencia Artificial, Sistemas Expertos y Robótica Gestión Informática Investigación de Operaciones Producción Logística Seguridad y Salud Ocupacional Geomática Catastro y Sistemas de Información Geográfica

CUPÓN DE SUSCRIPCIÓN

REVISTA Publicación admitida en el Índice Nacional de Publicaciones Seriadas Científicas y Tecnológicas de Colciencias Circulación nacional e internacional ISSN 0121-750X Suscripción y factura a nombre de: Dirección de envío: País:

Tel. Residencia:

Tel. Oficina:

Suscripción a partir del número: SISTEMA DE PAGO: Cheque No.

Fecha: Efectivo Cheque Valor suscripción (2 Números) Colombia ....... $20.000 Exterior .......... US 25

Banco Ciudad

• Todo pago se hace a nombre de la Universidad Distrital Francisco José de Caldas. • Para su comodidad, usted puede consignar el valor de la suscripción en la Cuenta Nacional No. 230053548 del Banco de Occidente en cualquier oficina del país, a nombre de la Universidad Distrital. Si usted paga por este sistema debe enviar una copia del recibo de consignación junto con el cupón de suscripción.

CORRESPONDENCIA, CANJE Y SUSCRIPCIONES: Revista Ingeniería – Facultad de Ingeniería Carrera 7 No. 40-53 Decanatura de Ingeniería Tel. 571 + 3239300 - 571 + 4822061, Bogotá, D.C. - Colombia 80

80

Vol.14 No.2

REVISTA INGENIERÍA - FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.