Issuu on Google+


Segunda ĂŠpoca

Indexada en Publindex 2007-2008


INSTITUTO TECNOLÓGICO METROPOLITANO Institución universitaria adscrita a la Alcaldía de Medellín REVISTA Tecnológicas / Segunda época No. 23, diciembre de 2009 ISSN 0123-7799 Indexada en Publindex 2007-2008 Categoría C Revista dirigida a la comunidad científica de habla hispana interesada en desarrollo científico y tecnológico Rector José Marduk SÁNCHEZ CASTAÑEDA Director Centro de Investigación Edilson DELGADO TREJOS Editores Edilson DELGADO TREJOS Jairo OSORIO GÓMEZ Secretaría Técnica Francisco E. LÓPEZ GIRALDO María Elena MONCADA ACEVEDO Comité Editorial María Elena MONCADA ACEVEDO, PhD Edilson DELGADO TREJOS, PhD Adolfo ESCOBAR ORDOÑEZ, PhD Jorge Enrique BUITRAGO GARCÍA, PhD Francisco E. LÓPEZ GIRALDO, PhD Camilo VALENCIA BALVÍN, PhD(c) Germán MORENO OSPINA, PhD Edgar Alberto RUEDA MUÑOZ, PhD Germán CASTELLANOS DOMÍNGUEZ, PhD Álvaro OROZCO GUTIÉRREZ, PhD Óscar M. DÍAZ BETANCOURT, PhD Mauricio OROZCO ALZATE, PhD Diseño, diagramación e impresión Editorial L. Vieco e Hijas Ltda. Artículos abiertos a discusión y crítica. Se solicita canje

INSTITUTO TECNOLÓGICO METROPOLITANO Calle 73 No. 76A 354 – Tel. (57+4) 4405100 tecnologicas@itm.edu.co www.itm.edu.co


Contenido

Editorial..........................................................................................7 An approach to optimal control of the combustion system in a reverberatory furnace...............................................13 Henry Copete López Santiago Sánchez Acevedo Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio: unidad de control de pronóstico noroeste (área Antioquia-Chocó)...............................31 Héctor Tabares Ospina Jesús Hernández Riveros Diseño y construcción de una red de fibra óptica para análisis de topologías y transmisión de señales en

dispositivos para redes wdm-pon. ..................................................55

Claudia Milena Serpa Imbett Nelson Darío Gómez Cardona Armando Borrero Neil Guerrero González

Cooperación internacional y financiamiento de actividades de desarrollo tecnológico en Colombia................... 65 Fredy Alexander Gómez Jiménez Jorge Robledo Velásquez Modelos para el diagnóstico y cuantificación del poder de mercado en sectores industriales: un enfoque de estructura-conducta-resultados ......................... 85 José Benjamín Gallego Alzate


Hacia la mejora del secado mecánico del café en Colombia.........................................................................109 Jhony Mauricio Gutiérrez Flórez Henry Copete López Localización y orientación de equipos móviles usando color. ..............................................................................133 Juan Sebastián Botero Valencia Edilson Delgado Trejos Estudio comparativo de métodos de selección de características de inferencia supervisada

y no supervisada. .........................................................................149

Diego Hernán Peluffo Ordóñez José Luis Rodríguez Sotelo Germán Castellanos Domínguez

Especificación de perfil zigbee para monitoreo y control de plantas industriales.................................................167 Sergio Serna Los clúster del sistema regional de innovación antioqueño: más debilidades que fortalezas en su desempeño...........................................................................187 Carlos Alberto Acevedo Alvarez Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants..................................................223 Alexander Sepúlveda Sepúlveda Edilson Delgado Trejos Santiago Murillo Rendón Germán Castellanos Domínguez Generating interpretable fuzzy systems for classification problems...............................................................239 A. Contreras Montes Oscar S. Acuña Camacho


Editorial

Durante décadas, el demonio de Maxwell, aquella invención mental citada en 1867 por el físico escocés James Clerk Maxwell, y que surgió como una manera original de ilustrar los alcances de la Segunda Ley de la Termodinámica1, sigue siendo una de las principales fascinaciones intelectuales en el campo de las ciencias y la ingeniería. Vale la pena resaltar, que el término “demonio” tiene una connotación científica, relacionada con el término “intermediario”, más que con un significado malévolo. A manera de ilustración, el demonio de Maxwell representaría a un ser diminuto con capacidad de actuar a nivel molecular, lo que le permitiría seleccionar moléculas calientes y moléculas frías, separando arbitrariamente unas de las otras. Esta “divina” ventaja se podría aprovechar para considerar el diseño de una máquina térmica con una eficiencia del 100%, lo cual, hoy en día, le vendría muy bien a la tecnificada humanidad, dadas las notables deficiencias estructurales, ambientales y sociales de nuestro planeta. La interpretación generalizada del significado del demonio de Maxwell se puede resumir en la expresión: “en un sistema aislado, la entropía nunca decrece”. De forma acertada, diferentes ramas de las ciencias y la tecnología, tales como las ciencias económicas, ciencias naturales y la nanotecnología, han hecho uso de los alcances del término de entropía, y lo han aplicado para explicar debidamente ciertos comportamientos. Como ejemplo, los economistas explican muchos comportamientos en los niveles de confianza del consumidor, basándose en la entropía generada por las tasas 1 La Segunda Ley de la Termodinámica establece claramente que dos cuerpos a diferentes temperaturas, aislados de cualquier otro sistema del universo y que entran en contacto, nunca experimentarán transferencia de calor del cuerpo frío al cuerpo caliente.


[8]

de interés, los niveles de la bolsa o la dependencia tecnológica. A pesar de los claros avances de la humanidad en todas las ramas del conocimiento, y de los notables desarrollos en el mejoramiento de la calidad de vida de algunos grupos de personas, es indudable el deterioro del planeta y del entorno social, algo totalmente explicable a partir del análisis de la entropía generada en nuestro sistema. Algunos sociólogos lo denominan “entropía social”, que claramente expresa que la sociedad se va volviendo más compleja y genera más problemas a medida que crece la población. De forma análoga, y citando el caso colombiano, se podría hablar de una auténtica “entropía investigativa”, aquella que nos lleva a los involucrados en la investigación y la academia, a sistemas cada vez más complejos, y no solamente en el campo del desarrollo científico. Dicha clase de entropía, nos enfrenta a sobrellevar las deficiencias propias del sistema, el innegable desorden en la priorización de las verdaderas necesidades de la sociedad, todo esto ligado a un evidente deterioro del entorno, a pesar de que las diferentes técnicas de medición de la calidad y la eficiencia indiquen una clara mejoría respecto a nuestros predecesores. Lo que se deriva de todo esto es que es posible teorizar sobre el estado actual de la investigación, y de esa forma, imaginar que dentro de éste mundo existen también pequeños (o grandes) seres con capacidad para manipular ciertas partes del sistema, separando indistintamente lo bueno de lo malo, pero para desgracia de lo verdaderamente fundamental, no alcanzan niveles de eficiencia comparables con aquellos obtenidos por el demonio de Maxwell, si bien pudiéramos hacer uso de su fantástica paradoja mental. Conviene reflexionar sobre nuestro sistema investigativo, evaluar su desempeño e intentar dar soluciones que realmente lleguen a la sociedad y que estén apoyadas en el talento de nuestra comunidad científica. Para esta edición de la Revista Tecno Lógicas, se han presentado trabajos desde diferentes ramas del conocimiento, lo que indica un importante aumento del interés de la comunidad científica en publicar en la revista, agradecemos la confianza y la gran

Revista Tecnológicas


Revista Tecnológicas

contribución de los autores para la presente edición. El trabajo de Henry Copete y Santiago Sánchez presenta la implementación de una técnica de control del aire en el sistema de combustión de un horno reverbero, basándose en el registro de los niveles de oxígeno en la chimenea, empleando para su desarrollo un modelo no-lineal estimado con redes neuronales. La demanda eléctrica es muy variable a lo largo del tiempo, lo que convierte todo lo relacionado con el marco regulatorio en un complejo campo de análisis. Héctor Tabares Ospina y Jesús Hernández Riveros exponen en su trabajo el estado del arte de la gestión de la demanda de energía y potencia, centrándose en el caso particular del área operativa Antioquia-Chocó. Como parte del esfuerzo del Instituto Tecnológico Metropolitano de Medellín para motivar el desarrollo de las líneas de investigación, el trabajo realizado en el Laboratorio de Fibras Ópticas del instituto y presentado por Claudia M. Serpa Imbett et al., muestra el diseño e implementación de una red de fibra óptica con variación en la topología, permitiendo realizar pruebas en dispositivos en enlaces de hasta 45 km. Dicho trabajo representa un novedoso reporte de desarrollo tecnológico para este tipo de temáticas en Colombia. Fredy A. Gómez Jiménez y Jorge Robledo Velásquez presentan los resultados de un estudio de caracterización sobre las relaciones que firmas establecidas en Colombia tienen con instituciones internacionales alrededor del mundo, y al mismo tiempo analizan sus consecuencias en la política pública y en la gestión de las empresas. José B. Gallego Alzate expone en su trabajo dos modelos para diagnosticar y cuantificar el poder de mercado en sectores industriales, inscriptos en el paradigma clásico “EstructuraConducta-Resultados”. El autor muestra cómo el poder de mercado está estructuralmente relacionado con los índices de concentración o cuota de mercado, la elasticidad precio de la demanda, la variación conjetural y los rendimientos a escala. En un completo y cuidadoso trabajo, Jhony M. Gutiérrez Flórez y Henry Copete López presentan una revisión y análisis del estado del arte de las

[9]


[10]

tecnologías de secado mecánico de café y las potenciales acciones para incrementar la eficiencia. Además, plantean la importancia de utilizar el alcohol carburante obtenido a partir de los subproductos de algunos procesos propios del procesamiento del grano de café. Uno de los mayores problemas en el desarrollo de interfaces móviles autónomas está ligado al desarrollo del sistema de localización. Con el objetivo de contribuir al desarrollo de Robots Móviles y mejorar los actuales, el trabajo propuesto por Juan S. Botero Valencia y Edilson Delgado Trejos, presenta un algoritmo que individualiza dos conjuntos de Robots Móviles, además de orientar y localizar cada móvil en el plano, y para ello proponen el uso de técnicas de segmentación por umbralización binaria en conjunto con operaciones lógicas. En un interesante trabajo sobre métodos de selección de características, Diego H. Peluffo Ordóñez et al. presentan un estudio comparativo de algunos métodos de selección mediante inferencia supervisada y no supervisada derivados del algoritmo PCA clásico, evaluando su desempeño en función de la cantidad de características relevantes obtenidas, costo computacional y resultados de clasificación. Como un aporte en el área de las telecomunicaciones, y con más detalle en el desarrollo de la tecnología inalámbrica ZigBee, el trabajo presentado por Sergio Serna presenta la especificación formal de un perfil ZigBee para monitoreo y control de plantas industriales, el cual implementa herramientas de última generación para microcontroladores de 8 bits. Juan A. Contreras Montes y Óscar S. Acuña Camacho presentan un nuevo método para generar sistemas difusos interpretables, a partir de datos experimentales de entrada y salida, para resolver problemas de clasificación. El método propuesto consigue una mayor precisión que la alcanzada con los métodos actuales existentes, empleando un número reducido de reglas y parámetros y sin sacrificar la interpretabilidad del modelo difuso. Alexander Sepúlveda Sepúlveda et al. presentan un estudio en el cual describen un método con alta capacidad de generalización

Revista Tecnológicas


Revista Tecnológicas

para detección y el análisis de la hipernasalidad de las consonantes oclusivas sordas españolas. Completando la presente edición de la Revista Tecno Lógicas, se presenta el trabajo de Carlos A. Acevedo Álvarez, el cual realiza una contextualización internacional del origen, estado actual y perspectivas del concepto de sistema regional de innovación (SRI) y finaliza estableciendo el panorama actual de la política de microcluster como eje central de las actividades del SRI antioqueño. Esperamos poder seguir contribuyendo en la difusión de los resultados de investigación de la comunidad científica, y de esa forma continuar con una labor tan gratificante y necesaria como lo es la investigación.

JORGE E. BUITRAGO G. Académico Investigador - Centro de Investigación ITM

[11]


An approach to optimal control of the combustion system in a reverberatory furnace Henry Copete López1 Santiago Sánchez Acevedo2

Resumen: En este trabajo se presenta una técnica de control óptima aplicada al control del exceso de aire en el proceso de combustión de un horno reverbero mediante el monitoreo del porcentaje de O2 en la chimenea, el controlador es diseñado basado en un modelo no-lineal estimado con redes neuronales y se emplea para el previo entrenamiento una base de datos conformada por dos conjuntos: uno para entrenamiento y otro para la validación.

Palabras Clave: Horno reverbero, combustión, controlador digital, redes neuronales, control óptimo.

Abstract: In this work an optimal control technique is applied to control the excess air in the combustion process of a reverberatory furnace by the monitoring of O2 percentage in the stack, the controller is designed based on a nonlinear model estimated by artificial neural networks and a data base is used for the previous training; the data base has two subsets one for training and other to validate the net.

1 M.Sc. Ingeniero Mecánico. Grupo GITER. Instituto Tecnológico Metropolitano. Docente Investigador. henrycopete@itm.edu.co 2 M.Sc. Ingeniero Electricista. Grupo MIRP. Instituto Tecnológico Metropolitano. Docente Investigador. santiagosanchez@itm.edu.co Fecha de recepción: 27 de marxo de 2009 Fecha de aceptación: 11 de mayo de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[14]

An approach to optimal control of the combustion system in a reverberatory furnace

Keywords: Reverberatory furnace, combustion, digital control, neural networks, optimal control.

Revista Tecnol贸gicas


Revista Tecnol贸gicas

1. Introduction The reverberatory furnaces have been used in many industrial activities such as glass and nonferrous materials melting. Most aluminum melters and molten aluminum holding (alloying) furnaces, as well as glass melting tanks and frit smelters are refractory-lined reverberatory furnaces (Trinks, 2004). The energy to process the materials is produced by a heat released for the combustion process in gas burners where air and fuel are combined and burned. Complete combustion of fuel in these burners requires a volume of air in excess of the theoretical requirement. On the other hand, too much air results in an increased volume of exhaust gas, and consequently the heat loss is increased. If the amount of air is minimized while ensuring that incomplete combustion does not occur is an important requirement for energy conservation (NEDO, 2006). Combustion improvement is indicated by the increase of the combustion efficiency in the combustion process of a furnace. The efficiency of the combustion process is generally controlled in open loop, by setting the air flow in such a way to guarantee the absence of carbon monoxide CO in all normal operation conditions. This allows avoiding the cost of additional sensors for monitoring the combustion process, as well as the complexity of additional closed loop controllers; however, it limits the efficiency of the combustion systems. Miyayama et al. (1991) used a combustion controller for a coal-fired boiler. Santoso et al. (2005) design a fuzzy controller for a boiler and Conte et al. (2006) presents a control scheme in domestic boilers; with a typical PID controller, in their work they did not apply an optimization methodology that warranties an optimal performance. The objective of this work is to develop an efficient methodology to control the combustion process in aluminum reverberatory furnaces. In order to maintain the optimal combustion conditions: the air/fuel ratio with sufficient quantity of O2 and the minimum

[15]


[16]

An approach to optimal control of the combustion system in a reverberatory furnace

quantity of CO. A standard combustion analyzer have been used (Bacharach PCA®2) in order to monitoring the O2 and CO in combustion products; in aluminum furnace for different air flows generated by a variable speed fan and to construct the data base. In this paper a methodology to model and design the controller for a reverberatory furnace is described. The air flow is the control variable and cannot violate the operations bounds given by the load of the furnace, the system model is obtained from a data set that employs measures of the O2 from a gas analyzer and thus, a neural network is trained to estimate the nonlinear model. A modified second order regulator is trained using evolutionary computation the performance index of the training algorithm is the mean square of the tracking error. In the last section results and conclusions of the designed system are shown.

2. Combustion system for reverberatory furnace The gas – fired reverb furnace consists simply of three parts: a fireplace at one end, a stack or chimney at the other end and a bed between both on which the aluminum is heated (McKenna, 1998). Heat is supplied in a space between the charge and the roof and transferred by radiation and convection. A simplified schematic diagram of a gas – fired aluminum reverberatory furnace is illustrated in Figure 1. This system comprises a combustion control unit, flue gas O2 sensor, temperature sensor, automatic damper operating unit. Its features allow controlling the excess air ratio and it is possible over the entire load range, from minimum to maximum load with a fast response.

Revista Tecnológicas


[17]

Revista Tecnológicas

Figure 1. Reverberatory furnace schematic diagram

2.1 COMBUSTION PROCESS Combustion is a specific group of chemical reactions where a fuel and oxygen burn together at sufficiently high temperature to evolve heat and combustion products. The stoichiometric combustion process of gaseous hydrocarbons could be expressed: (1) Natural gas is a gas consisting primarily of methane CH4. The chemical reaction for methane combustion with normal air is CH4+2O2+7,52N2→CO2+2H2O+7,52N2, one can determinate the correct amount of O2 in relation of quantity of gas, namely the stoichiometric quantity of O2, which theoretically assures the absence of CO in the combustion gases. The ratio of the volume of air required to completely combustion a given volume of fuel is


[18]

An approach to optimal control of the combustion system in a reverberatory furnace

called stoichiometric air/fuel ratio, (A/F). For methane is 9,52 m3aire/ m3CH4. In industrial practice, perfect mixing cannot be achieved. It is actually more cost-effective to ensure complete combustion with the addition of excess air. The excess air ratio can be written in terms of the stoichiometric air/fuel ratio, the combustion air volume flow rate, Qa, and fuel volume flow rate, Qf . (2) Excess air is that amount beyond theoretical added to ensure complete combustion of the fuel (Baukal, 2001). The stoichiometric equation is modified in equation (3) with e, the fraction of excess air. In percentage %e=100(n-1). (3) The measurement of the combustion efficiency is affected by the fuel supply, excess air level or the oxygen percentage, type of fuel used, combustion air and flue gas temperature. Sensible heat loss is typically the largest loss component in reverberatory furnaces for the high temperatures of the products of combustion. These losses are proportional directly to the combustion gasses volume flow rate and the relation of specific heat Cp in function of temperature in the chance internal enthalpy equation: (4) where and the combustion gasses temperature. It is clear, now, that a direct measure of the percentage of O2, with a gas sensor gives an index of the quality and quantity of the combustion process. Since the percentage can be directly controlled by modulating the air flow by mean of a variable speed fan or damper, suitable control architecture for closed-loop control loop of the quality of the combustion can be realized with the aid of a sensor for measuring the percentage of oxygen. The required

Revista Tecnol贸gicas


[19]

Revista Tecnol贸gicas

percentage of oxygen in dry basis at full capacity for used natural gas in the burners of the furnace is between 1,1% and 3,3% that corresponding to 5% and 15% of excess air (Mullinger, 2008).

3. Neural network model The interconnection of artificial neurons results in an artificial neural network (ANN), its objective is to emulate the function of the human brain or a system and solve the problem. ANN is one of the most applied artificial techniques to model a system based on input-output data. For the task of modeling the reverberatory furnace with a constant flow of fuel in the aluminum heating, the training algorithm used is the back-propagation which computes the gradient; the feedforward network is employed, where the signal flows in a forward direction. A neural model is depicted in Figure 2, where W are the weights, f the scalar function used in the neurons, x the inputs and y the outputs of the NN, the NN has n layers and the final layer has to compute the output (Haykin, 2001; Bose, 2002; Liu, et al. 2003). To represent an unknown function based on the input-output data the ANN has to be trained by the supervised learning process; this selects the appropriate weights distributed in the NN. If the activation function of the neurons in the hidden layer is tanh() and the outputs of this layer are located in V, then, the output can be given as in (5), and (6) for the outputs of the network Y (Duda, 2001). (5)

(6)


[20]

An approach to optimal control of the combustion system in a reverberatory furnace

Figure 2. Architecture of the artificial neural network

In order to obtain the best model that represents the system the procedure follows several steps, first the training data set is used, in the second place the model is estimated and the final step employs the validation data set (Jagannathan, 2006).

4. Genetic algorithm The genetic algorithm is a technique used to optimize complex problems; this method employs characteristics of an evolution process, the algorithm uses a population (Ling et al., 2008), the reproduction is made by a change in the population and later the strongest individual survives (Liu, et al. 2003; Ashlock, 2006). To solve the optimization problem the genetic algorithm has to follow the next steps: 1. Choose a codification form (i.e. binary or real). This way makes possible to configure each solution. 2. Computes the fitness function of each configuration.

Revista Tecnol贸gicas


[21]

Revista Tecnológicas

3. Select the strongest individuals; those give a fitness function with a very good performance for the problem. 4. Realize the recombination of tow configurations; they are called the parents of the resulting configuration (offspring). 5. With the resulting individuals a mutation is made; this is the way to obtain the new population which is used in the next generation. The Figure 3 shows the flow of the data in the genetic algorithm, where the stages were described before. The metric to calculate the distance between the full and final population is the spacing, this metric allows measuring the distribution of the individuals. The expression of the metric is shows in (7). s=

n

∑ (d − d ) i =1

i

2

(7)

Where n is the size of the population, di = min j f i − f j , i, j = l,..., n, d , is the mean of all di and f i the fitness function of the i individual. A zero value means that the solutions are equally spaced (Schott, 1995).

5. Controller A simple digital controller of second order is designed; the structure of the controller is presented in (8) (Iserman, 1988); where u is the control signal, e is the tracking error with its past samples, the aim is to tune the coefficients qi by means of minimizing the cost function defined in (9) that is the mean square error of the tracking problem, with N the number of samples in a simulation test (Liu et al., 1995; Maiti, 2008).


[22]

An approach to optimal control of the combustion system in a reverberatory furnace

Figure 3. Genetic algorithm

u (k ) = u (k − 1) + q0 e(k ) + q1e(k − 1) + q2 e(k − 2) J=

∑e N

2

(8) (9)

Revista Tecnológicas


[23]

Revista Tecnol贸gicas

6. Implementation and

results

In order to combine the neural network modeling, the optimization technique and the controller tuning procedure to control the combustion process, the closed loop system is used in Figure 4 (Liu et al., 2005).

Figure 4. Closed loop system

The data set employed to estimate the model was obtained from a reverberatory furnace maintaining the thermal power 60 kW as constant, with variations of air volume flow by variable speed fan and monitoring the oxygen and carbon monoxide percentage in the chimney that assures complete combustion. In the modeling task, the maximum gas flow or power operation that employs the system was taken into account for the normalization, and assuming that the air flow is proportional to the gas flow to preserve the excess air ratio of the equation (2); the unnormalization procedure uses the gas flow percentage to give the real air flow of the system. The neural network has the 12 neurons in the input layer, the second layer has 12, the third layer has 8 and the output has 1 neuron, and uses logarithmic sigmoid and hyperbolic tangent sigmoid like activation functions. Figure 5 shows the training process of the neural system in order to model the reverberatory furnace, the training error reaches the order of 0,01x10-5.


[24]

An approach to optimal control of the combustion system in a reverberatory furnace

Model validation is performed with a second data set (Figure 6) and its error is shown in Figure 7, the validation analyses the mean square error.

Figure 5. Training of the neural network system

Figure 6. Model validation set

Revista Tecnol贸gicas


Revista Tecnol贸gicas

Figure 7. Error for the model validation set

In order to tune the second order digital controller; the genetic algorithm with the followed characteristics is configured, the codification form is real, the recombination coefficient selected is 0,3, the mutation coefficient is 0,1, the population size has 70 individuals, and the number of generations employed is 200. Each individual is formed by the three elements of the regulator; the restrictions to the system design are the minimum flow of the air and the excess air rate. A metric to observe the distance of the solutions given by the genetic algorithm is employed. The value of the metric in the final population is s=0,015, a near distance to zero means that the population is very crowded. The controller test for an initial condition of the O2 %= 3,64 (ci1) and the second test with O2 %=6,53 (ci2), the output of both tests for the second order controller designed are shown in Figure 8, where the system maintains constant around to O2 %=2,4 in order to does not cross the limit of the excess air ratio. If the air flow of the test violates the limit then a simple law restricts the

[25]


[26]

An approach to optimal control of the combustion system in a reverberatory furnace

air flow to 60 m3/h for a system operating at full load condition, this is due to the initial condition of the O2 % of the system could be very large (Figures 8 and 9).

Figure 8. Output of the controlled system

Figure 9. Control signal of the controlled system

Revista Tecnol贸gicas


Revista Tecnol贸gicas

Figure 10 shows the output response of the controller tuned with the genetic algorithm and a Ziegler-Nichols (Z-N) for the initial condition with O2%=6,53 (ci2). Where the optimal control presents a less tracking error and gets the steady state in a minor time.

Figure 10. Z-N and EA second order controller

7. Conclusions A methodology to control a reverberatory furnace is presented in this paper; the designed controller employs an evolutionary algorithm to optimize the tracking problem and to find the parameters of a discrete second order regulator that does not cross the system bounds. The application of a neural network to estimate the model of the furnace improves the task of finding a control law for the furnace system. The comparison shows the performances of the Ziegler-Nichols tuning procedure and the method implemented.

[27]


[28]

An approach to optimal control of the combustion system in a reverberatory furnace

The application of the metric helps in the supervision of the evolutionary algorithm and describes if it drops in a crowded response and the population could be composed by the same individual. The optimization of the air fuel ratio will reduce the excess air level and improve the combustion efficiency in the furnace system, keeping the value close to O2%=2,4 in the stack that corresponding to 11% of excess air. If the system is implemented an operating cost savings will be reached by the reduction of fuel consumption.

8. References Ashlock D. (2006). Evolutionary Computation for Modeling and Optimization. United States of America. Springer. Baukal C. (2001). The John Zink Combustion Handbook. New York: The John Zink Company. pp 38. Bose B. (2002). Modern Power Electronics and AC Drives. United States of America: Prentice Hall. Conte G., Cesaretti M. & Scaradozzi D. (2006). Combustion control in domestic boilers using an oxygen sensor. 14th Mediterranean Conference on Control and Automation. Duda P. (2001). Patern Clasification. USA: John Willey and Sons. Haykin S. (2001). Kalman Filtering and Neural Networks. New York: Jon Wiley and Sons. Iserman R. (1988). Digital Control Theory, Fundamentals Deterministic Control. Berlin: Springer-Verlag. Jagannathan S. (2006). Neural Network Control of Nonlinear Discrete-Time Systems. Taylor and Francis. Ling Q., Wu G., Yang Z. & Wang Q. (2008). Crowding clustering genetic algorithm for multimodal function optimization. Applied soft Computing. pp 88-95. Liu T., Ishihara T. & Inooka H. (1995). Multiobjective control systems design by genetic algorithms. IEEE. SICE 95 Procedings of the 34th SICE annual conference, International session papers. pp 1521-1526. Liu G., Yang Y. & Whidborne J. (2003). Multiobjective Optimization and Control. England: Research Studies Press.

Revista Tecnol贸gicas


Revista Tecnológicas Liu Y., Zhang J. & Wang S. (2005). Parameter estimation of cutting temperature nonlinear model using PSO algoritm. Journal of Zhejiang University Science. pp 1026-1029. Maiti D. (2008). Tuning a PID and PI+D Controllers Using the Integral Time Absolute Error Criterion. ICIAFS. IEEE. McKenna. (1998). Boost the efficiency of your gas - fired aluminun reverberatory furnace. Thermal product solutions. pp 1-4. Miyayama T., Tanaka S., Miyatake T. & Umeki T. (1991). A combustion control support expert system for a coal–fired boiler. Electronics, control and instrumentation. Proceedings IECON. International Conference on Volume 2, Issue 28. pp 1513 – 1516. Mullinger. (2008). Industrial and process furnace principles, desing and operation. Oxford: Elsevier. pp 287-300. NEDO. (2006). Japanese Technologies for Energy Savings/GHG Emissions Reductions. NEDO. JAPAN, pp 25-27: NEDO. Santoso H., Nazaruddin Y. & Muchtadi F. (2006). Boiler performance optimization using fuzzy logic controller. Department of Engineering Physics. Indonesia. Schott J. (1995). Fault Tolerant Design Single and Multicriteria Genetic Algorithm Optimization. Boston: Masachusetts Institute of Technology. Trinks W. & Mawhinney M. (2004). Industrial Furnaces. New Jersey: JOHN WILEY & SONS, INC. pp 111-113.

[29]


Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio: unidad de control de pronóstico noroeste (área Antioquia-Chocó). Héctor Tabares Ospina1 Jesús Hernández Riveros2

Resumen. El objetivo de este artículo es hacer un estudio del estado del arte referido a la Gestión de la Demanda de Energía y Potencia, caso particular, área operativa Antioquia – Choco, el marco regulatorio y las demás labores anexas como la elaboración semanal del pronóstico de demanda, sus estadísticas e indicadores y la gestión necesaria para asegurar la calidad. Finalmente se presentan propuestas de investigación que se pueden derivar sobre el asunto estudiado.

Palabras claves: Pronostico de demanda de energía y potencia, UCP (Unidad de Control de Pronóstico).

Abstract. The objective of this paper is to present a study about the state of the art referred to the Short Term Load Forecasting, specific case, Antioquia-Chocó Operative Area, regulatory and other annexed such as weekly preparation of demand prediction, its statistics and indicators and necessary administration to assure quality.

1 M.Sc. Instituto Tecnológico Metropolitano. Docente Ocasional e Integrante Grupo de Investigación GIT, hectortabares@itm.edu.co 2 Ph.D. Universidad Nacional de Colombia. Docente TC. jahernan@unalmed.edu.co Fecha de recepción: 21 de septiembre de 2009 Fecha de aceptación: 13 de noviembre de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[32]

Pron贸sticos demanda de energ铆a y potencia a corto plazo. Caso de estudio...

At the end of this paper, an investigation proposal which can result from this topic is presented.

Keywords: Short term load forecasting.

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción. Este trabajo es el inicio de una propuesta de investigación en la línea ENERGÍA Y DESARROLLO DE NUEVAS TECNOLOGÍAS, del programa doctorado en SISTEMAS ENERGÉTICOS, de la Universidad Nacional de Colombia, Sede Medellín. En particular, se están estudiando las series de tiempo de demanda de energía eléctrica, las cuales siguen en la mayor parte de los casos complejas dinámicas no-lineales de carácter caótico. El objetivo fundamental de este artículo consiste en realizar un estudio sobre los diferentes métodos convencionales utilizados por las empresas del sector eléctrico colombiano como instrumento de modelación y predicción no paramétrica para realizar los pronósticos de la demanda de energía y potencia a corto plazo, en el horizonte de una semana con resolución diaria y en el horizonte de 24 horas con resolución horaria. El articulo está organizado de la siguiente forma: En la Sección 2 se presenta una revisión del estado del arte en materia de pronósticos de energía y potencia eléctrica, se identifican las variables que inciden en su demanda y se estudia el método empleado por las empresas del sector eléctrico colombiano para calcularla. Seguidamente se presenta un resumen del Código de Operación del SIN (Sistema Interconectado Nacional). En la última sección se muestran las conclusiones y se presentan trabajos futuros.

2. Materiales y métodos 2.1. Proceso para elaborar el pronóstico de demanda. 2.1.1 Revisión estado del arte. Los modelos de series de tiempo estocásticas y de regresión lineal son ampliamente utilizados en el sector eléctrico, (Shoults et al., 1996); las limitaciones de estos modelos motivan el desarrollo y aplicación de nuevas metodologías para la previsión del consumo de energía eléctrica, que representen, de manera más exacta, las

[33]


[34]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

curvas de demanda. Dentro de este contexto, en las dos últimas décadas se han introducido nuevos modelos de previsión que manejan de manera eficiente la aleatoriedad de los consumos y presentan una fácil adaptabilidad a nuevos datos, sin la necesidad de incurrir en laboriosas formulaciones matemáticas. Entre estos modelos se incluyen las técnicas de las Redes Neuronales Artificiales (RNA) (Lee et al., 1992; Alireza et al., 1995; Khotanzad et al., 1995; Bakirtzis et al., 1996; Piras et al., 1996; Sforma et al., 1996; Caciotta et al., 1997), los Sistemas Fuzzy (SF), (Miranda & Saraiva, 1992; Matos et al., 2008) y los sistemas Neuro-Fuzzy (NF) (Kim, 1995; Lotfalian et al., 1998; Kim et al., 2000; Alireza et al., 2002; Ling et al., 2003; Liao et al., 2006). Estas técnicas han tenido una gran aceptación en el desarrollo de modelos para previsión de series de tiempo del sector eléctrico, debido a que combinan la capacidad de aprendizaje y adaptación de las RNA y el poder de interpretación lingüística de los SF.

2.1.2 Oferta y demanda. Como se explica en (Lozano et al., 2007), uno de los principales impactos de la realización de pronósticos de demanda se presenta sobre la definición del precio de la electricidad en la bolsa de energía, el cual sirve de referencia para las demás transacciones y contratos que se realizan y es clave en la libre competencia del mercado desregulado de energía. Se hace de acuerdo con las reglas definidas en la resolución CREG 024-95 (CREG, 1995a), la cual establece que el ASIC (Administrador de Intercambios Comerciales) definirá para cada hora del día, la lista de los generadores que saldrán despachados, según meritos alcanzados. La lista se elabora con base en la demanda pronosticada para cada hora del día y para cada región del país. Se presentan dos casos cuando ocurren desviaciones en la demanda pronosticada: Primer caso, si el pronóstico es menor a la demanda real, el CND realiza un redespacho en donde debe usar en la mayoría de los casos plantas y unidades de generación más costosos para atender la demanda. Dada esta situación, los demandantes tendrían la

Revista Tecnológicas


Revista Tecnológicas

posibilidad de esperar a que se atendiera su petición, formando colas de espera. Y como se sabe, la falta de electricidad generada conlleva un retraso en el suministro eléctrico que puede tener graves consecuencias económicas y sociales. O alternativamente podrían consumir algún sustitutivo cercano al bien demandado. Sin embargo, en el mercado eléctrico no existe la posibilidad de recurrir a sustitutos cercanos, al menos en el corto plazo. Segundo caso, si el pronóstico fue mayor a la demanda real, se incurre en sobrecostos de operación que involucran gastos por el encendido de unidades térmicas que no se requieren o por haber considerando generaciones de seguridad innecesarios. En este caso, se producen perdidas asociadas a una asignación ineficiente de las fuentes primerias, constituyen recursos escasos y limitados. Por lo tanto, al ser la electricidad un bien no acumulable, el exceso de oferta, es decir la electricidad producida y no consumida inmediatamente, se pierde, produciendo inestabilidad en la red.

2.1.3 Variables que influyen en la demanda. Una serie de investigaciones realizadas sobre la demanda eléctrica y sus determinantes (Murto, 1998) en diferentes países han permitido identificar un conjunto de variables básicas que explica la evolución de la demanda eléctrica a lo largo del tiempo, siendo este conjunto común para la mayoría de los países desarrollados. A continuación se comentan detalladamente las variables seleccionadas como posibles factores explicativos de la curva de carga. Calendario. Existen diferentes efectos relacionados con el calendario que incide sobre la curva de demanda eléctrica: • Hora del día. Resulta evidente que la demanda eléctrica realizada a las tres de la madrugada no es igual a la realizada a las 3 de la tarde. En un día convencional, el grueso de la demanda eléctrica se acumula en los periodos comprendidos entre las 10 hasta las 15 horas y entre las 19 hasta 21 horas, algo lógico si se tiene en cuenta que dichos periodos corresponden con la jornada laboral estándar.

[35]


[36]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

• Día de la semana. Repitiendo el mismo planteamiento, se puede intuir que la demanda de electricidad a la misma hora de días diferentes será también diferente. Así, la demanda llevada a cabo un miércoles a las once de la mañana probablemente no coincida con la realizada un domingo a esa misma hora. • Fin de semana y fiestas. También se puede observa la presencia de un factor que incide sobre la demanda eléctrica y que está asociada a los fines de semana y a los días no laborales. En estos días se produce una reducción generalizada en el consumo eléctrico. • Mes del año. En función del mes en el que se encuentre, la demanda diaria media de energía varía significativamente. Esto se debe principalmente al efecto de las estaciones. En invierno, desde mayo 1 hasta noviembre 30, aumenta el uso de sistemas calefactores, mientras que en verano (entre diciembre 1 y abril 30), se experimenta un considerable aumento en el consumo como resultado del uso de sistemas de aire acondicionado. Los pronósticos realizados por la UCP NOROESTE tienen en cuenta el tipo de día a analizar. Explica Lozano (2007) que en la metodología empleada, se clasifican los días en lunes normal, lunes festivo, martes, miércoles, jueves, viernes, sábado y domingo, para cada periodo del día. También se realiza un manejo especial para los días exclusivos o únicos del año. En el análisis del comportamiento de la demanda se identifican varios días especiales que solo se presentan una sola vez al año, los cuales se pronostican mediante reglas diferentes. Los días con estas características son: 1. Lunes, martes y miércoles de semana santa que presentan una leve disminución en la demanda total del día con respecto a los anteriores del mismo día de la semana, debido principalmente a la disminución del consumo. 2. Viernes y sábado de semana santa, 24, 25, 26 y 31 de diciembre, 1 y 2 de enero presentan una curva de carga diferente a los demás días del año.

Revista Tecnológicas


Revista Tecnológicas

3. Días de vacaciones de fin e inicio de año que depende principalmente de la actividad escolar e industrial, se presentan entre el 20 de diciembre y el 15 de enero La forma de la curva de carga es similar a las anteriores de los mismos días de la semana, pero con una disminución más representativa en la demanda horaria. 4. Día 22 de Abril, El concejo de la ciudad de Medellín aprobó el acuerdo de obligatorio cumplimiento El Día Sin Carro, desde las 6:00 a.m. hasta las 17:00 p.m, con el propósito de crear una conciencia ambiental a favor de disminuir los contaminantes que están contribuyendo al aceleramiento del calentamiento global. Con el propósito de facilitar el desplazamiento de los ciudadanos, el Metro aumento su frecuencia y opero durante toda la jornada con trenes de 6 coches. Condiciones meteorológicas. Aquí se engloban variables como la velocidad del viento, la nubosidad, la pluviosidad, la temperatura, etc. Sin embargo, no todos los factores climáticos afectan a la demanda eléctrica. Algunos de ellos son típicamente aleatorios y otros aparecen interrelacionados. Por ejemplo, la temperatura viene explicada parcialmente por la nubosidad, la pluviometría, la humedad relativa, etc. Entre todos los factores anteriormente mencionados, la temperatura es el más relevante, dado que influye de forma directa sobre múltiples fuentes de consumo eléctrico como sistemas calefactores, aire acondicionado, refrigeradores, etc. Esta relación entre la demanda eléctrica y la temperatura es de carácter no lineal. La temperatura, dado que la inmensa mayoría de los trabajos consultados señalan esta variable como principal determinante meteorológica de la demanda eléctrica, la UCP NOROESTE no la tiene en cuenta para realizar sus pronósticos debido a que por factores regulatorios previsto principalmente en el acuerdo 312 del CNO (CNO, 2004), el pronóstico de energía y potencia horaria se debe enviar semanalmente al CND por los operadores de red de Colombia. En los pronósticos realizado por la UCP NOROESTE, no se tienen en cuenta los datos meteorológicos. Como comenta

[37]


[38]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

Lozano, la consideración de esta variable es impráctica, ya que implicaría depender de su pronóstico con un horizonte temporal igual al que se requiere para la predicción de la demanda: de 7 días, y las entidades ambientales como CORANTIOQUIA o el IDEAM que hacen el pronóstico de estas variables tienen un margen de error del 5% en sus predicciones para el día siguiente. Esto indica que extenderlo a un periodo más largo incrementaría las posibilidades de error, propagándolo al pronóstico de energía y potencia horarias. Información económica. Dada la extensa penetración de la electricidad en la actividad económica del país, existen multitud de variables económicas que influyen en la demanda. La mayoría de ellas covarían entre sí en mayor o menor medida. Introducir varias por separado en un modelo explicativo da lugar a problemas de multilinealidad que haría imposible lograr unos resultados aceptables. Si bien todas estas variables pueden incidir significativamente en la demanda eléctrica, la UCP NOROESTE opto por no incluirlas en su modelo para realizar pronósticos, por cuanto la mayor parte de ellas afectan a la demanda, pero sus efectos son apreciables en el mediano y largo plazo, siendo irrelevante en el corto plazo, horizonte sobre el que se realizan los pronósticos de demanda de energía. Factores no predecibles. Se debe considerar la existencia de una serie de factores, que siendo puramente aleatorios, pueden afectar sensiblemente a la demanda de energía eléctrica. Entre dichos factores se destacan el cierre de instalaciones industriales intensivas en electricidad, desastres naturales, climatología adversa, presentación de averías o atentados terroristas que afectan a la infraestructura eléctrica. Por su carácter impredecible, la UCP NOROESTE no tiene en cuenta estos factores dentro de los análisis de pronósticos. Información ausente. Algunos científicos han llamado “la información ausente”, la incapacidad para hacer una descripción completa de un fenómeno. Esta información puede ser de gran

Revista Tecnológicas


Revista Tecnológicas

importancia, pero está ausente. En este sentido, existen factores desconocidos cuyo efecto sobre la demanda eléctrica puede ser considerado como un “ruido blanco”. La UCP NOROESTE, para efectos prácticos, filtra esta información dentro del análisis de pronósticos. Como conclusión final, aunque se sabe que el consumo de energía eléctrica es función funciona de las variables independientes: el calendario, las condiciones meteorológicas, información económica, factores no predecibles e información ausente, la UCP NOROESTE para efectos prácticos, las filtra, a pesar de que la mayoría de ellas covarían entre sí en mayor o menor medida, quedando el calendario como única variable que alimenta el modelo de pronóstico utilizado.

2.2 Código de operación del sin. Un detallado estudio sobre el código de redes está más allá del ámbito de esta unidad. En (CREG, 1995b) se ofrece una completa información. Un recuento de los principales antecedentes relacionados con este tema, se presentan a continuación: • Mediante la ley 134 de 1994 (Art 38) y el Acuerdo N° 20 del 27 de mayo de 1999 (CNO, 1999) del Consejo Nacional de Operación (CNO), estableció el procedimiento para el cálculo y envío de la demanda de las áreas operativas del SIN al Centro Nacional de Despacho (CND) y adicionalmente se establecieron las responsabilidades de los Centros Regionales de Despacho (CRD) relacionadas con la supervisión y control de la operación de las redes, subestaciones y centrales de generación localizadas en una misma región. • La resolución de la Comisión de Regulación de Energía y Gas (CREG) 025 de 1995 (CREG, 1995b), estableció que el manejo de la demanda se debe realizar por Áreas Operativas y debe obedecer al siguiente criterio “Un Área operativa comprende un conjunto de subestaciones, recursos de generación y demanda que presentan alguna restricción eléctrica que limitan los intercambios con el resto del sistema”.

[39]


[40]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

• La gestión de la demanda, tal como se establece en el marco de la Ley Eléctrica, resolución CREG 080 de 1999 (CREG, 1999), es realizada por los Operadores de Red (OR’S). Como consecuencia de lo anterior y como lo estipulan los Acuerdos N° 126 de 2001 (CREG, 2001) y 349 de 2006 (CNO, 2006a) del CNO, los agentes del mercado acordaron manejar la gestión de la demanda mediante la forma de Unidades de Control de Pronóstico (UCP). Una UCP se define, en lo fundamental, como una porción de demanda que es alimentada por uno o varios Operadores de Red. Cada UCP representa una porción de demanda nacional y tiene un agente responsable de: reportar la demanda de potencia, la demanda no atendida y los factores de distribución de energía activa y de potencia. Una de estas UCP es la llamada NOROESTE, ubicada en el Centro Regional de Control (CRC) de las Empresas Publica de Medellín (EPM), que agrupa la demanda de los departamentos de Antioquia y Chocó. • La razón primordial para gestionar la demanda por UCP es para tipificar el comportamiento semanal y mensual del pronóstico, con el ánimo de tener elementos de juicio en el caso que la CREG decida reglamentar las desviaciones al pronóstico de la demanda. En este mismo sentido la CREG, por medio de la resolución 095 de 2003 (CREG, 2003), solicito un estudio técnico a cada UCP que incluya criterios que permitan, entre otros, ajustar y optimizar el proceso de pronóstico de la demanda.

2.2.1 Características de la información de demanda • Nomenclatura: Se elimina el concepto de hora al referirse en todo lo relacionado con la demanda, tanto energía como de potencia y se establece el concepto de periodo. • Definición de punta: Dado que del análisis de curvas de carga no se observa que en las horas de la mañana exista una variación significativa que implique tratamiento especial de

Revista Tecnológicas


Revista Tecnológicas

ningún periodo, solo se adopta como punta la de la tarde, que corresponde a los periodos 19, 20 y 21. • Programa despacho económico horario. Es el programa de generación de las unidades SIN en cada una de las horas del día, producido por el despacho económico. • Información a utilizar en el despacho económico: Para efectos del despacho económico, se adaptara la información de demanda real, para alimentar los modelos de pronóstico a un formato horario con las siguientes características: En los periodos de punta, el dato a emplear debe corresponder a la potencia pronosticada para cada periodo. Esto con el objeto de garantizar la seguridad del sistema en los periodos de máxima carga o similares. En los periodos fuera de punta, el dato a emplear debe corresponder a la energía pronosticada para cada periodo. • Representación de la información para el despacho económico: La curva de carga de la UCP NOROESTE está dada por el diseño presentado en la figura 1, donde para los periodos fuera de punta se registran lecturas de energía MWh, y en los periodos de punta se tienen lecturas de potencia con intervalos de 15 minutos. • Información histórica de energía: De acuerdo con los lineamientos del CNO, es deseable que los agentes del sistema manejen curvas de carga y de pronóstico con 96 valores diarios, uno cada 15 minutos. Con ello se pretende incrementar la calidad de la información como tal. • Información histórica de potencia: Los agentes del sistema también deben manejar las medidas de potencia en sub-períodos de 15 minutos para los periodos de punta. Cuando se requiera relacionar la demanda del sub-período con el periodo horario, por ejemplo para el despacho económico, se acordó tomar el máximo de las cuatro lecturas de los sub-período correspondientes y a partir de estos, obtener el valor representativo para el periodo.

[41]


[42]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

Figura 1. Curva de carga UCP NOROESTE, usado para el despacho.

• Horizonte de Planeamiento Operativo. Es el periodo de tiempo cubierto por cada una de las etapas del planeamiento operativo denominadas Largo, Mediano Plazo, Corto Plazo y muy corto Plazo. El horizonte del Largo Plazo es de cinco años. El Mediano Plazo de cinco semanas, el Despacho Económico de 24 horas y el Muy Corto Plazo desde la hora actual hasta el final del día. • La planeación de corto plazo. Comprende la recepción de las ofertas diarias que presentan los generadores en la Bolsa de Energía, donde se asignan hora a hora las plantas que suministrarán la energía al día siguiente. El CND, realiza esta selección con criterios de seguridad y economía para garantizarle a los usuarios el servicio con estándares de calidad, confiabilidad y eficiencia. • Gestión de la Demanda. Tiene como finalidad analizar y caracterizar la demanda de energía del sistema, construir pronósticos de energía y potencia para diferentes resoluciones temporales y espaciales, distribuir y administrar posibles casos de programación de racionamiento. • Periodos estacionales. El planeamiento operativo caracteriza dos estaciones: verano, comprendido entre diciembre 1 y abril 30. Invierno, entre mayo 1 y noviembre 30. • Declaración de datos hidrológicos. Con el propósito de evaluar las reservas energéticas, las empresas de generación, las propietarias de plantas hidráulicas deben informar diariamente al CND antes de las 07:00 horas de cada día los siguientes datos: nivel

Revista Tecnológicas


Revista Tecnológicas

del embalse, agua turbinada, agua vertida, agua descargada, el promedio de aportes, relación de mantenimiento. • Perdidas. Las pérdidas horarias del Sistema de Transmisión Nacional (STN) se calculan como la diferencia entre la energía inyectada y extraída del STN. Las pérdidas así calculadas para cada hora del día (k) son consideradas dentro del despacho horario para la hora correspondiente del día (k + 2). • Balance de la generación, la demanda y las pérdidas del Sistema Interconectado y de los intercambios internacionales. Determinación del punto de equilibrio entre la oferta y la demanda en el mercado de energía, teniendo en cuenta las pérdidas del sistema, con el fin de establecer la magnitud de las compensaciones de agentes comercializadores y generadores.

2.2.2 Pronóstico de la demanda Según lo estipulado en la resolución CREG 025 de 1995 (CREG, 1995b), Código de Operación del Código de Redes, numeral 3.1, Despacho económico horario, Información básica de demanda, “La predicción horaria para el Despacho Económico se efectúa por aéreas operativas y para cada una de las 24 horas de cada día de la semana. Esta predicción de demanda de potencia la efectúa en CND y la envía a los agentes del sistema semanalmente el día miércoles y recibe comentarios o modificaciones hasta el día viernes a las 13:00 horas”. Por lo tanto, en la actualidad cada agente del sistema envía al CND el pronóstico antes de las 9:00 de cada día viernes y cubre una ventana de tiempo de la semana siguiente. El pronóstico consta de: • Pronóstico horario de la demanda de energía (MWh), para cada una de las 24 horas de cada día. • Pronóstico de la demanda esperada de potencia (MW), para las tres horas de punta (periodos 19, 20 y 21) de cada día. Una vez elaborada la demanda, el CND realiza el pronóstico oficial utilizando para tal fin los promedios móviles de la serie histórica con los datos horarios de energía desde el año 2005 y para

[43]


[44]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

esto se ajustan los modelos propuestos tomando como horizonte alrededor de las 15 semanas anteriores y proyectando la semana siguiente que es la pronosticada. A los datos resultantes para un día particular se les puede aplicar suavización exponencial. El CNO por medio del Comité de Distribución y con el objeto de mejorar el Pronóstico de Demanda Diario utilizado para el despacho económico, consideró el antecedente de que todas las investigaciones efectuadas muestran que reducir la restricción en el tiempo de anticipación del Pronostico, mejora significativamente la calidad del mismo. CNO, Acuerdos 366 de 2006 (CNO, 2006b) y 370 de 2006 (CNO, 2006c).

2.2.3 Despacho económico horario Es el proceso mediante el cual se obtiene para un periodo de 24 horas el programa horario de generación de los recursos del SIN despachados centralmente, como según lo indican las resoluciones CREG 053 de 1994 (CREG, 1994a), 055 de 1994, Art. 12-15 (CREG, 1994b) y 070 de 1995, Art. 1 (CREG, 1995c).

2.2.4 Cálculo del despacho económico El CND actúa como regulador, coordinando en todo momento la oferta y la demanda, asumiendo una serie de responsabilidades vitales: • La sustitución de energía que un grupo no puede producir. • El suministro instantáneo de la energía que los consumidores necesitan en cada momento. El esquema de funcionamiento seguido por el CND es el siguiente: En primer lugar averigua el valor que toma la demanda eléctrica en cada momento, tratando de llegar a la denominada curva de carga (Valor que toma la demanda eléctrica en cada momento, se correspondería con la demanda instantánea de energía eléctrica). Una vez conocido este dato, el operador se dirige a los centros de generación, indicando la carga eléctrica que deben de introducir en la red en cada momento para garantizar la cobertura de la demanda,

Revista Tecnológicas


[45]

Revista Tecnológicas

y al mismo tiempo, minimizar la sobreproducción y sus costos de eficiencia. Para cada una de las horas del día el CND establece el programa horario de generación de tal forma que se cubra la demanda esperada con los recursos de generación disponibles más económicos ofertados por las empresas, cumpliendo las restricciones técnicas y eléctricas de las unidades generadoras. Resolución CREG112-98-Art: 17 (CREG, 1998).

3. Resultados

y discusión.

3.1 Demanda de energía eléctrica del área antioquia-choco en un periodo de 24 horas. En la elaboración del pronóstico de demanda de energía y potencia de la UCP NOROESTE, se tiene en cuenta la serie histórica de demanda horaria real (NOROESTE – OFI – Ene 2005-2007), obtenido a partir de los contadores de importación y exportación de la UCP y validada por el CND. En forma general, las curvas de demanda de una semana normal es como se ilustra en la figura 2. Muestra como el consumo de electricidad tiene un fuerte patrón estacional diario que se puede apreciar en todos los días laborales debido a que poseen un perfil de demanda muy similar. Con respecto a los fines de semana se observa cómo, si bien se repite el mismo patrón horario de consumo detectado en los días laborales, en general el consumo medio es sensiblemente menor.

Figura 2. Demanda semanal UCP Noroeste.


[46]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

Como se comenta en (Nahmias, 2007), las anteriores series de tiempo son estacionales, porque tiene un patrón de repetición regular durante el mismo periodo de tiempo. Su comportamiento periódico, es reflejado en parámetros como la media, desviación estándar, asimetría, y asimetría de autocorrelación. Y dada la importancia de su previsión, gran variedad de modelos han sido propuestos durante las últimas décadas, de los cuales los más usados son: Regresión Lineal, Medias Móviles, Curvas Típicas Normalizadas, Modelos ARIMA, Suavización Exponencial y Redes Neuronales Artificiales. Estas técnicas se basan en métodos estadísticos y extrapolan el comportamiento de los consumos en el pasado, mientras consideran el efecto de otros factores como el clima y la correlación especial entre consumos de diferentes días; sin embargo, estos modelos emplean un gran número de relaciones complejas y no lineales entre las series de consumos; se requiere además una gran cantidad de tiempo y esfuerzo computacional, y pueden resultar soluciones numéricamente inestables. Por consiguiente, el método utilizado por la UCP NOROESTE para hacer pronósticos está basado en técnicas estadísticas convencionales básicas, con las que para obtener unos resultados aceptables se requiere posteriormente la actuación de un experto, cuyo papel es ajustar continuamente los múltiples parámetros del programa de pronóstico, en especial, los causados por cambios en la estructura del mercado. La información que envía el CND a la UCP NOROESTE para hacer pronósticos, en su estado original tiene el siguiente formato. Tabla 1. Información pronóstico demanda de energía eléctrica UCP NOROESTE. FORMATO PRONÓSTICO DEMANDA DE ENERGÍA ELÉCTRICA

Reg

FECHA

1

01/01/2005 687

P1

P2 607

P24 TOTAL PO19 PO20 PO21 493

14.955

924

2

02/01/2005 512

456

583

17.620

1.025 1.090 1.020

1127 31/01/2008 642

611

730

23.039

1.338 1.351 1.236

979

900

Revista Tecnológicas


Revista Tecnológicas

Los resultados de las predicciones se presentan en la Tabla 1. Se interpreta P1, como el periodo desde 0:00 p.m. hasta las 0:59 a.m. Por lo tanto el día se desagrega en 24 periodos horarios del 1 al 24. Se registra la potencia activa (MWh) en cada periodo, el total registrado durante el día y los máximos consumos de energía, registrados en la punta de la serie (periodos 19, 20 y 21). La UCP NOROESTE registra en otra tabla, pero con el mismo formato de la Tabla 1, los consumos reales de potencia activa registrados en los contadores en cada uno de los periodos del día, el total registrado durante el día y los máximos consumos de energía registrados en los periodos 19, 20 y 21 (punta de la serie). Seguidamente la UCP NOROESTE calcula la diferencia entre el pronóstico para el periodo y la demanda real para el mismo periodo. Se entiende que toda diferencia negativa corresponde a un exceso de oferta, lo que se traduce en una asignación ineficiente de los recursos. Así mismo, toda diferencia positiva significa que hubo un exceso de demanda, lo que pudo ocasionar un retraso en el suministro. Finalmente se evalúa el desempeño del pronóstico calculando los errores en las predicciones de cada periodo del día. La medida más común de exactitud de pronósticos durante los 24 periodos es el error cuadrático medio (ECM). Se pretende que los errores aceptables en las desviaciones no superen el 6% por exceso de demanda o el -6% por exceso de oferta. Estudiando la tabla 2, en el periodo comprendido entre los años 2005 a 2008, se observa que el universo de errores cometidos en los pronósticos, 23097 casos, se encuentran en el intervalo [-6, 6]. Optimizando los métodos de pronósticos se pretende disminuir la cantidad de errores que se encuentran por fuera del intervalo antes indicado, 3918 casos, sabiendo que la demanda tiene muchas posibilidades de ser aleatoria bajo muchas circunstancias y entre más alejado sea el pronóstico, menos exacta será la predicción.

[47]


[48]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

Tabla 2. Histograma PRON_OFI Unoroeste (01/01/2005 – 31/01/2008) HISTOGRAMA

Finalmente, se calcula el promedio de los errores cometidos en los pronósticos realizados durante cada mes del periodo analizado, cada día con 24 registros. Se calcula la desviación estándar del universo de registros del mes con respecto al promedio mensual, con el objeto de medir su grado de dispersión. Una desviación estándar grande indica que los errores en las predicciones alcanzados están lejos de la media, y una desviación pequeña indica que los errores están agrupados cerca de la media. Si la media de las medidas está demasiado alejada de la desviación estándar, entonces se considera que el método empleado para hacer los pronósticos no es bueno. Esto es coherente, ya que las mediciones caen fuera del rango de valores en el cual sería razonable esperar que ocurriera si el procedimiento empleado para hacer los pronósticos fuera correcto. Así mismo, la desviación estándar muestra la agrupación del universo de registros de errores en los pronósticos alrededor de un valor central (la media o promedio).

Revista Tecnológicas


Revista Tecnológicas

Figura 3. Tendencia consumo energía eléctrica 01/01/05 – 31/01/08. EPM.

La figura 3 presenta el registro de la TENDENCIA CONSUMO DIARIO de la UCP NOROESTE, desde el 01/01/2005 hasta el 01/31/2008, para un total de 1127 días. Se grafica el error total del pronóstico de cada día, el promedio del mes y su desviación estándar. Los registros totales positivos significan que el consumo real fue mayor que el pronosticado. Este último tipo de serie generada es de tipo caótico, por las siguientes razones: no posee ningún rasgo de estacionalidad, no demuestra tener ningún tipo de tendencia marcado, no tiene puntos fuera del rango y parece ser estable en la media. Su comportamiento caótico se explica porque el pronóstico es función de, al menos, 5 variables linealmente independientes como son: El calendario, las condiciones meteorológicas, factores no predecibles, factores económicos y la información ausente. Por lo tanto resulta interesante estudiar observaciones que se desprenden de su análisis caótico como seria su dimensión fractal, orbitas, atractores y su posible interpretación en el sector eléctrico.

4. Conclusiones La demanda eléctrica es muy variable a lo largo de los años, los meses, los días e incluso las horas. Estas características aportan una incertidumbre al sistema eléctrico que afecta de forma significativa el costo final del suministro. Para reducir este factor

[49]


[50]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

de coste, el gestor necesita conocer con precisión los mecanismos que hacen variar la demanda. Con la información aportada por la curva de carga se logran dos objetivos. En primera instancia, prever y adaptarse a la demanda en los distintos plazos (a corto, en la operación del sistema, y a largo en la creación de nuevas centrales y redes para el suministro). En segundo caso, gestionar la demanda, es decir, inducir a los consumidores a modificar sus pautas de consumo eléctrico para lograr una mayor eficiencia conjunta del proceso de suministro y uso. Por lo tanto, el objetivo fundamental que se pretende con este trabajo es ajustar y optimizar el proceso de pronóstico de la demanda, como según consta en la resolución CREG 095 de 2003 (CREG, 2003). Como lo indican los acuerdos 366 y 370 de 2006 de la CNO (CNO, 2006b; 2006c), todas las investigaciones efectuadas hasta el presente muestran que reducir la restricción en el tiempo de anticipación del pronóstico, mejora significativamente la calidad del mismo. Con esta propuesta de investigación no se pretende suplantar ninguna de las metodologías existentes, sino más bien abrir el campo de investigación respecto al estándar, en lo que a este tipo de series se refiere. Esto posibilita la elevación de nuevos planteamientos fundamentales para el desarrollo de la teoría de pronósticos en el sector eléctrico, tales como: • Disminuir las desviaciones horarias en el pronóstico mediante un modelo que contemple su carácter caótico. • Modelación e implementación de sistemas Neurodifusos para mapear las series históricas de consumo de energía y ajustar de forma optima los múltiples parámetros del programa de pronósticos, en especial, los causados por cambios en la estructura del mercado. • Clusterización o agrupamiento de pronósticos. La tecnología Neuro-Difusa provee un método poderoso para convertir datos experimentales de pronósticos en reglas difusas. Sin embargo en muchos casos, los datos de entrenamiento deben ser agrupados

Revista Tecnológicas


Revista Tecnológicas

previamente para eliminar redundancias y conflictos en el caso en que el conjunto de datos sean inconsistente. Para terminar, es necesario comentar que el principal impacto de esta propuesta de investigación es de tipo social, por cuanto en la medida en que no se optimicen los procedimientos de pronósticos de demanda, conduce a sobrecostos que incrementan el precio de la energía para el usuario final y disminuye la capacidad de competir con precios más bajos en el mercado de la energía. Agradecimientos: Esta sección reconoce la ayuda de los Ingenieros Giovanny Marín Avalos y Nelson Valencia Zapata, Profesionales Centro Regional de Control (CRC), EPM, por su asistencia, sugerencias e ideas para explicar los pronósticos de demanda de energía y potencia. Se agradece a los revisores del artículo las constructivas sugerencias realizadas.

5. Referencias bibliográficas alireza, K. Maratukulam, D. Abaye, A. (1995). An adaptive modular artificial neural network hourly load forecasrter and its implementation at electric utilities. IEEE. Vol 10, No 3, Aug. Alireza, K. Enwang, Z. Elragal, H. (2002) A Neuro Fuzzy approach to short term load forecasting in a price sensitive environment. IEEE, Vol. 17, No 4, Nov. Bakirtzis, G. Petridis, V. Kiartzis, SJ. (1996) A neural network short term load forecasting model for the Greek, power system. IEEE, Vol 11, No 2, May. Caciotta, M. Lamedica, R. Orsolini, V. (1997) Application of Artificial Neural Networks to Historical Data Analysis for short term electric load forecasting. ETEP, Vol 7, No 1. Jan. CNO. (1999) Consejo Nacional de Operación, Acuerdo 020 de 1999, Mayo 27, Por el cual se aprueba el procedimiento para la implementación de la demanda en áreas operativas. Bogotá. CNO (2004) Consejo Nacional de Operación, Acuerdo 312 de 2004, Diciembre 17, Reglamentación sobre los procedimientos de creación, modificación y operación de las Unidades de Control de Pronostico de demanda. Bogotá.

[51]


[52]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

CNO (2006a) Consejo Nacional de Operación, Acuerdo 349 de 2006, Enero 30, Por el cual se aprueban los procedimientos de creación, operación y modificación de las Unidades de Control de pronósticos de demanda y la oportunidad de reporte de información al CND. Bogotá. CNO (2006b) Consejo Nacional de Operación, Acuerdo 366 de 2006, Julio 27, Por el cual se acuerda un procedimiento para el suministro de la información de demanda para la elaboración del Despacho económico. Bogotá. CNO (2006c) Consejo Nacional de Operación, Acuerdo 370 de 2006, Septiembre 28, Por el cual se modifica el artículo 4 del acuerdo 366 sobre el procedimiento para el suministro de la información de demanda diaria para la elaboración del Despacho económico. Bogotá. CREG (1994a), Comisión de Regulación de Energía y Gas, Resolución 053 de 1994, Artículo 11, Diciembre 28, Por la cual se dictan disposiciones para el funcionamiento del mercado mayorista de energía durante el período de transición hacia un mercado libre y se modifica parcialmente el Acuerdo Reglamentario para el Planeamiento de la Operación del Sistema Interconectado Nacional. Bogotá. CREG (1994b), Comisión de Regulación de Energía y Gas, Resolución 055 de 1994, Artículos 12-15, Diciembre 28, Por la cual se regula la actividad de generación de energía eléctrica en el sistema interconectado nacional. Bogotá. CREG (1995c), Comisión de Regulación de Energía y Gas, Resolución 070 de 1995, Artículo 1, Diciembre 21, Por la cual se establecen medidas transitorias para reglamentar el manejo y control de la demanda en situaciones de racionamiento de emergencia, que regirán hasta la expedición oficial del Estatuto de Racionamiento. Bogotá. CREG (1995a), Comisión de Regulación de Energía y Gas, Resolución 024 de 1995, Julio 10, Por la cual se reglamentan los aspectos comerciales del mercado mayorista de energía en el sistema interconectado nacional, que hacen parte del Reglamento de Operación. Bogotá. CREG (1995b), Comisión de Regulación de Energía y Gas, Resolución 025 de 1995, Julio 13, Por la cual se establece el Código de Redes, como parte del Reglamento de Operación del Sistema Interconectado Nacional. Bogotá. CREG (1998), Comisión de Regulación de Energía y Gas, Resolución 112 de 1998, Art. 17, Septiembre 29, Por la cual se reglamentan los aspectos comerciales aplicables a las transacciones internacionales de energía,

Revista Tecnológicas


Revista Tecnológicas que se realizan en el mercado mayorista de electricidad, como parte integrante del Reglamento de Operación. Bogotá. CREG (1999), Comisión de Regulación de Energía y Gas, Resolución 080 de 1999, Diciembre 22, Por la cual se reglamentan las funciones de planeación, coordinación supervisión y control entre el Centro Nacional de Despacho (CND) y los agentes del SIN. Bogotá. CREG (2001), Comisión de Regulación de Energía y Gas, Acuerdo 126 de 2001, Marzo 29, Por el cual se aprueba el documento “Propuesta de evaluación de factores de distribución de energía activa y factores de potencia”. Bogotá. CREG (2003), Comisión de Regulación de Energía y Gas, Resolución 095 de 2003, Septiembre 25, Por la cual se solicita al Consejo Nacional de Operación y al Centro Nacional de Despacho un estudio técnico sobre el servicio de Regulación Secundaria de Frecuencia –AGC-. Bogotá. Khotanzad, A. Davis, A. Abaye, MH. Maratukulam A, (1995) An artificial neural network hourly temperature forecaster with applications in load forecasting. IEEE, Vol 11, No 2, May. Kim, K. (1995) Implementation of Irbid short term load forecasting system using artificial neural network and fuzzy expert systems. IEEE. Vol 10 No 3, Aug. Kim, K. Youn, HS. Kang, YC. (2000). Short term load forecasting for special days in anomalous load conditions using Neural Networks and Fuzzy Inference Method. IEEE, Vol 15, No 2, May. Lee, K. Cha, YT. Park, JH. (1992) Short term load forecasting using an artificial neural network. IEEE, Vol 7, No 1, Feb. Liao, G. Tsao, TP. (2006) Applications of a Fuzzy Neural Network combined with a Chaos genetic algorithm and simulated annealing to short term load forecasting. IEEE Vol 10, N0. 3, June 2006. Ling, SH. Leung, FHF. Lam, KH. Tam, PKS. (2003) Short Term Electric Load Forecasting Base on Neural Fuzzy. IEEE. Vol. 50, No 6, December. Lotfalian, M. (1998) Neural network with fuzzy set based classification for short term load forecasting. IEEE, Vol 13, No 4, Nov. Lozano, C. Valencia, A. Moreno, C. (2007) Modelo de promedios móviles para el pronóstico horario de potencia y energía eléctrica. Revista EL HOMBRE Y LA MAQUINA. UAO. ISSN 0121-0777, No 029, pp. 96-105, Julio.

[53]


[54]

Pronósticos demanda de energía y potencia a corto plazo. Caso de estudio...

Matos, M. Gouveia, E. (2008) The fuzzy power flow revisited. IEEE. Vol 23, No 1, Feb. Miranda, V. Saraiva, JP. (1992) Fuzzy modeling of power system optimal load flow. IEEE, Vol 7,No 2, May. Murto, P. (1998) Neural Networks Models for Short-term load forecasting. Department of Engineering, Physics and Mathematics. Helsinki University of Technology. Nahmias S. (2007) “Análisis de la producción y las operaciones”, McGrawHill INTERAMERICANA EDITORES, p.p, 57. Piras, A. Germond, A. Buchenel, B. Imhof K, Jaccard Y, (1996) Heterogeneous Artificial Neural Network for short term electrical load f o r e casting. IEEE, Vol 11, No 1. Feb. Shoults, RR. Subbarayan Liu, Manry, MT (1996) Comparison of very short term load forecasting techniques. IEEE, Vol. 11, No 2, May. Sforma, M. Lamedica, R. Prudenzi, A, Caciotta M. (1996) A neural network based technique for short term forecasting of anomalous load periods. IEEE, Vol 11, No 4.

Revista Tecnológicas


Diseño y construcción de una red de fibra óptica para análisis de topologías y transmisión de señales en dispositivos para redes wdm-pon Claudia Milena Serpa Imbett1 Nelson Darío Gómez Cardona2 Armando Borrero3 Neil Guerrero González 4

Resumen: En este trabajo se presenta el diseño e implementación de una red de fibra óptica en el laboratorio de fibras ópticas del Instituto Tecnológico Metropolitano que se configura en diferentes topologías y constituye un escenario con condiciones similares a las reales para realizar pruebas de dispositivos en enlaces de hasta 45 km. Se presentan los resultados experimentales del análisis de pérdidas en diferentes tramos de la red, y de la transmisión de las señales provenientes de un multiplexor de fibra óptica de cuatro canales sobre 12

1 Ingeniera Física y Magíster en Ciencias Físicas, Universidad Nacional de Colombia - sede Medellín. Académica investigadora del Instituto Tecnológico Metropolitano. claudiaserpa@itm.edu.co. 2 Ingeniero Físico y Magíster en Ciencias Físicas, Universidad Nacional de Colombia - sede Medellín. Docente investigador del Instituto Tecnológico Metropolitano. nelsongomez@itm.edu.co 3 Docteur en Informatique, Université de Versalles Francia, Profesor Asociado de la Universidad de los Andes, Mérida Venezuela. Facultad de Ingeniería. e-mail: borrero@ula.ve. 4 Ingeniero Electrónico y Magíster en Automatización, Universidad Nacional de Colombia - sede Manizales. Profesor de la Universidad de Antioquia, estudiante de Doctorado de la Universidad Tecnológica de Dinamarca., Metro-Access and Short Range Systems Group, DTU Fotonik, Dinamarca. nggo@fotonik.dtu.dk Fecha de recepción: 25 de septiembre de 2009 Fecha de aceptación: 13 de noviembre de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[56]

Diseño y construcción de una red de fibra óptica para análisis de topologías...

km y 32 km en un escenario de una red óptica pasiva multiplexada por longitud de onda. Finalmente se implementa una topología en estrella y se analizan los resultados de potencia, pérdidas, y transmisión de pulsos de luz provenientes de un Reflectómetro Óptico en el dominio del tiempo. Este es el primer reporte en Colombia del desarrollo tecnológico de un ambiente en laboratorio con condiciones similares a las reales, con potenciales aplicaciones en las comunicaciones ópticas como desarrollos de sensores y enrutamiento óptico.

Palabras claves: Red de fibra óptica, multiplexor óptico, topología, pérdidas

Abstract: In this work, we designed and built a fiber optic-network in the optical laboratory of the Instituto Tecnológico Metropolitano. This network was used to emulate different topologies almost real conditions with the possibility to make connections up to 45 km. We present experimental results of analysis in different network scenarios. Furthermore, we present experimental results for signal transmission and the transmission of four simultaneous channels by using an optics-multiplexor. Successful detection after 12 and 32 km through and passive optical network by wavelength division multiplexing is demonstrated. Finally, we present power and loss measures in terminals with a star topology and results for pulse transmission from Optical Reflectometer in the time domine. As far as we know, this is the first report and application in Colombia of a technological development of a laboratory network for topology analysis. This laboratory network will allow future applications like sensors testing and optical routing.

Keywords: optical fiber network, optical multiplexor, topology, loss

Revista Tecnológicas


Revista Tecnológicas

1. Introducción La incorporación de nuevos esquemas de transmisión en las redes de comunicaciones por fibra óptica está basado en el desarrollo de dispositivos recientes, topologías y nuevas arquitecturas, dando como resultado el incremento del ancho de banda y el uso eficiente del espectro para dar respuesta oportuna a los usuarios finales que cada día requieren de aplicaciones y servicios de alta velocidad (Al-Azzawi, 2007). En la actualidad, las nuevas tecnologías de transmisión basadas en multiplexación por longitud de onda (WDM, Wavelenght Division Multiplexing) en redes de fibra al hogar (FTTx, Fiber to the x), son una alternativa fuerte para responder a la necesidad inmediata de desarrollo e implementación de redes de alta capacidad que resistan la demanda y el volumen creciente de tráfico de internet (Sivalingan, 2000). Asimismo juegan un papel importante los esquemas de enrutamiento de las señales ópticas en los diferentes nodos de la red, y el diseño de arquitecturas y topologías adecuadas, en el incremento de la eficiencia de la transmisión, evitando retardos y enrutamientos no óptimos de la información (Dutta, 2004; Puerto, et al., 2008). En este sentido, debido a las condiciones particulares de adaptación de estas nuevas tecnologías en redes de transmisión, es deseable la evaluación del desempeño de los dispositivos, topologías y arquitecturas en un ambiente similar al real, donde se evite la suspensión de servicios de las redes en funcionamiento, lo que constituye la propuesta de uso del diseño reportado en este trabajo. Se presentan los resultados experimentales del análisis de pérdidas de una red de fibra óptica que se configura en distintas topologías, y que fue implementada en el laboratorio de fibras ópticas del Instituto Tecnológico Metropolitano (ITM), para prueba de dispositivos y en un enlace de hasta 45 km en un escenario con condiciones similares a las reales. Se analizan los resultados de la transmisión de las señales provenientes de un multiplexor (MUX) de fibra óptica de cuatro canales en 12 km y 32 km usando esta red en un escenario de una red óptica pasiva

[57]


[58]

Diseño y construcción de una red de fibra óptica para análisis de topologías...

(PON, Passive Optical Network) multiplexada por longitud de onda WDM-PON. Finalmente se presentan la medición de potencia y pérdidas en las terminales de una topología tipo estrella, y los resultados de la transmisión de pulsos de luz provenientes de un Reflectometro Óptico en el Dominio del Tiempo (OTDR, Optical Time Reflectometer) en las distintas terminales usados en la caracterización de las fallas en la estrella. Se propone esta construcción para la prestación de servicios de medición a los cableoperadores de Colombia en el laboratorio de fibras ópticas del ITM para verificación de dispositivos, análisis de topologías y transmisión de señales, con la ventaja de tiempo y espacio que ofrece un ambiente de laboratorio donde no es necesaria la suspensión de servicios de las redes en uso. Se propone en trabajos futuros el análisis de demultiplexores ópticos, otras topologías como bus y anillo, además de otros usos en transmisión de señales ópticas provenientes de sensores basados en sistemas distribuidos y multiplexados usando redes de Bragg en fibra óptica (FBG) y detección de fallas térmicas y deformaciones por reflectometría en enlaces largos (Kashyap, 1999; Grattan & Sun, 2000).

2. Montaje experimental La Figura 1 muestra el montaje experimental el cual consiste de red modular NOYES construida con bobinas de 20 km de fibra óptica estándar monomodo (SMF) y 3 km de fibra óptica estándar multimodo (MMF). En UNO se extendió una bobina de 6 km de MMF constituida por cuatro hilos de 1,5 km de fibra unidos mediante empalmes por fusión realizados con una empalmadora Fujikura FS60; en DOS se extendió una bobina de 16 km de SMF de cuatro hilos de 4 km, unidos de manera similar como en el caso anterior; en TRES se ubicó un divisor de potencia de 50/50 para obtener una terminal adicional. CUATRO es una posibilidad de interconexión interna con DOS o cualquier terminal. Esta construcción se usó para analizar la transmisión de señales provenientes de un multiplexor óptico (MUX) de fibra óptica construido con redes de Bragg (FBG) para las redes pasivas multiplexadas por longitud

Revista Tecnológicas


[59]

Revista Tecnológicas

de onda (WDM-PON) bajo el esquema de la sección B de la Figura 1, que consiste en una fuente de luz LED Exalos EXS1560211 con un ancho espectral de 67 nm conectada a un aislador Newport ISC1550. La respuesta del MUX fue registrada usando un Analizador de Espectros Ópticos (OSA) de alta resolución Yokogawa AQ6370B, cuando sus señales fueron insertadas en 12 km de SMF (usando tres hilos de 4 km en la bobina de 16 km) desde T2 hasta DOS, y 32 km de SMF desde T2 hasta TRES. El esquema de la sección C se hizo extensiones en T1 y T2 usando divisores de potencia de 5/95 y 67/33 para obtener una estrella de cuatro terminales rotuladas como A, B, C y D. En DOS se ubicó una fuente de luz EXFO FLS60 y en A, B, C, D se registraron los niveles de potencia usando un detector EXFO PM60. Posteriormente, Con el OTDR EXFO 7500 se realizaron registros desde A, B, C y D hasta DOS.

Figura 1. Montaje experimental de la Red, MUX óptico, y topología estrella

3. Resultados

experimentales

Se usó el OTDR EXFO 7500, para verificar la continuidad entre las Terminales y la red modular bajo diferentes esquemas de conexión, mediante la evaluación de las pérdidas y la reflectividad. Se realizaron pruebas en la Terminal 1(T1) y la Terminal 2 (T2). La Figura 2 muestra el registro de la T1 hasta DOS y de T2 hasta TRES usando el OTDR con longitudes de onda de 1310 nm y 1550 nm, y un ancho de pulso de 1 µs. La Figura 2a muestra el registro de T1 hasta DOS a 1550 nm, donde la atenuación promedio es de


Diseño y construcción de una red de fibra óptica para análisis de topologías...

0.582 dB/km y la pérdida máxima por empalme de 0.425 dB. La pérdida total en este segmento de ~9,2 km es de 5.409 dB. Los eventos reflexivos representados por “picos” están ubicados a ~ 6.2, 7.6, y 8.7 km y registran una reflectividad de -59,3, -48,1, -43,8 dB respectivamente donde -43,8 dB corresponde al “pico” más alto en el enlace. Para el registro a 1310 nm la atenuación promedio es de 0.904 dB/km y la pérdida de 8,403 dB. La variación de estos valores con respecto a los registrados a 1550 nm es debido a la dependencia de la atenuación y las pérdidas con la longitud de onda del pulso de prueba (Al-Azzawi, 2007). A diferencia de los valores de pérdida y atenuación, la reflectividad es similar a ambas longitudes de onda debido a que no hay una dependencia de este parámetro con la misma. Similarmente, la Figura 2b muestra el registro desde la Terminal 2 hasta TRES. Para el registro a 1550 nm, la atenuación promedio y la pérdida total en este segmento de 36 km es de 0.369 dB/km y 13,33 dB. Los eventos reflexivos están ubicados a ~ 16, 17, 23, 31 y 32 km y registran una reflectividad que va desde 23, 5 dB para los hasta 60,1 dB. A 1310 nm la atenuación promedio es de 0.541 dB/km y la pérdida de 19,478 dB. La Terminal 4 presenta pérdida por inserción de ~ 1,5 dB según los datos del fabricante. 1310 nm 1550nm

1310 nm 1550nm

40

40

Perdidas (dB)

Pérdidas (dB)

[60]

20

20

0 0

0

2

4

6

Distancia (km)

8

10

0

10

20

30

40

Distancia (km)

Figura 2. a) Registro desde T1 hasta DOS, b) Registro desde la T2 hasta TRES

La Figura 3a muestra la respuesta de un MUX de fibra óptica de cuatro canales cuando las señales fueron transmitidas a través de 12 km de fibra SMF. Las potencias máximas medidas fueron aproximadamente ~ -42 dBm para cada canal. Las pérdidas por

Revista Tecnológicas


[61]

Revista Tecnológicas

canal son aproxiadamente ~ 2 dB, con respecto a la potencia inicial en el MUX. En la Figura 3b se observa el desempeño para una transmisión sobre 32 km de fibra SMF donde la potencia máxima para cada canal es de ~ -72 dBm, dando como resultado una pérdida por cada longitud de onda de aproximadamente ~30 dB. Potencia MUX Potencia MUX Potencia LTO 12 Km Potencia LTO 12 Km

Potencia (dBm) Potencia (dBm)

-50-50 -60-60 -70-70

Potencia MUX Potencia MUX Potencia LTO Potencia LTO 32 32 KmKm

-40 -40

Potencia (dBm) (dBm)

-40-40

-60 -60

-80 -80

-100 -100

-80-80 1525 1530 1530 1535 1535 1525

1540 1540

1545 1545

1525 1525

1550 1550

Longitudde deonda onda (nm) (nm) Longitud

1530 1530

1535 1535

1540 1540

1545 1545 1550 1550

Longitud Longitudde deonda onda(nm) (nm)

Figura 3. Respuesta de un multiplexor óptico cuando las señales son insertadas en a) 12 y b) 32 km de fibra respectivamente

Los resultados de la configuración en estrella muestran que la potencia inicial de la fuente de luz FLS60 fue de +2,08 y -2,25 dBm. En la Figura 4 se muestra la potencia y las pérdidas registrada en las terminales con respecto a la relación de división de cada acoplador (Snyder & Love, 2000).

B

B D D

-50

-50

C C

A A EyF

-40

EyF

-40 0

0

60 60

1310 nm 1550 nm 1310 nm 1550 nm

25

50

75

100

Terminales Acoplador 50 75 100 Terminales Acoplador 25

Pérdidas (dB) Pérdidas (dB)

Potencia (dBm) Potencia (dBm)

-60 -60

1310 nm 1550 nm 1310 nm 1550 nm

B B 50

C C

50

40

40

0

0

25

D D 50

75

Terminales de 25 50 Acoplador 75

A

A

100

Terminales de Acoplador

100

Figura 4. a) Potencia óptica en las terminales del los acopladores a 1310 y 1550 nm, b) Pérdidas en las terminales de los acopladores a 1310 y 1550 nm


Diseño y construcción de una red de fibra óptica para análisis de topologías...

En la Figura 5 se muestran los resultados experimentales en cada terminal obtenidos con el OTDR con un ancho de pulso de 275 ns a 1310 nm y 1550 nm respectivamente, con el registro en A se reporta la detección de 5 fallas a ~ 0,2, 10, 13, 18, 19 km, con el registro en B se reporta la detección de 2 fallas a ~ 0,01 y 0,05 km, se observa que el alcance máximo del pulso es de 160 m, con el registro en C se reporta la detección de 5 fallas a las mismas distancias de la parte a) y con el registro en D se reporta la detección de 4 fallas a ~ 5, 10, 13, 19 km. En general, se muestra que las topologías en A y C son las que configuran caminos óptimos para la detección de fallas. 40

40

Pérdidas (dB)

Pérdidas (dB)

Pérdidas 1310 nm Perdidas 1550 nm

20

0

0

5

10

Distancia (km)

15

Pérdidas 1310 nm Perdidas 1550 nm

20

0

20

0,0

0,5

1,0

Distancia (km)

Pérdidas 1550nm Pérdidas 1310 nm

20

0

0

5

10

15

Distancia (km)

20

1,5

Perdidas 1310 nm Perdidas 1550 nm

40

Pérdidas (dB)

Pérdidas (dB)

[62]

40

20

0

0

5

10

15

Distancia (km)

20

Figura 5. a) Registro en A, b) Registro en B, c) Registro en C y d) Registro en D

4. Discusión Se verificó el funcionamiento de los diferentes segmentos de la configuración reportada en este trabajo, a través del análisis

Revista Tecnológicas


Revista Tecnológicas

de la atenuación promedio en el enlace, la pérdida promedio, y la reflectividad. Se comprobó que la atenuación promedio y pérdidas registran valores diferentes a 1550 nm y 1310 nm, y que los valores de reflectividad son similares para las dos longitudes de onda. Esta configuración posibilita la simulación de diferentes topologías y distancias, así como la ampliación de la misma por adición de terminales con el uso de divisores, multiplexores y demultiplexores (Sivalingam, 2005). La transmisión de las señales provenientes de un MUX después de 32 km registra una pérdida de aproximadamente 30 dB medida con el OTDR. Se concluye que existe un error de 23% entre las pérdidas del MUX obtenidas a través de registros espectrales usando el OSA y las obtenidas con el OTDR. Las longitudes de onda de las señales del MUX están alrededor de 1532, 1536, 1543 y 1548 nm y en este caso las pérdidas a estas longitudes de onda son mayores que las registradas a 1550 nm. Esto se debe a la relación inversa entre las pérdidas y longitudes de onda. (Agrawal, 2007). Se construyó una terminal tipo estrella usando acopladores con diferentes razones de acoplamiento: (50/50, 5/95, 33/67). En la Figura 4 se observa una dependencia exponencial de las pérdidas y la potencia, y los resultados experimentales obtenidos se ajustan a funciones exponenciales decrecientes (Snyder & Love, 2000). Los resultados muestran que en la terminal A y C la detección de fallos fue de cinco, en el punto D de cuatro y en el punto B de dos, mostrando que los caminos más adecuados para detección de fallas son desde las terminales A y C hasta el enlace. En la terminal B se detectan dos eventos debido a la poca potencia que viaja hacia el enlace (solo del 5% de la inicial)

5. Conclusiones La red construida se propone para la prueba de dispositivos en diferentes configuraciones y topologías. En este trabajo se reportó el desempeño de un MUX en una de las posibles configuraciones de esta red, y la posibilidad de analizar configuraciones en estrella

[63]


[64]

Diseño y construcción de una red de fibra óptica para análisis de topologías...

para determinar los caminos óptimos para caracterización de enlaces desde las terminales de la estrella hasta la red. En la red construida es posible realizar análisis de transmisión de dispositivos como demultiplexores ópticos, otras topologías como anillo y bus, además de análisis de sistemas de sensado por fibra óptica.

Agradecimientos Este trabajo hizo con fondos del Centro de Investigación del Instituto Tecnológico Metropolitano de Medellín-Colombia, en el proyecto Código: P07203. A la empresa Exalos S.A de Zurich Suiza por la donación de la fuente de luz SLED Exalos EXS1560211 usada en la construcción del MUX de fibra óptica.

Referencias Agrawal, G. (2007). Fiber-optic communication systems. Michigan: WileyInterscience. Al-Azzawi, A. (2007). Fiber optics: principles and practices: Optical Science And Engineering Series. Boca Raton: Optical Science And Engineering Series. Dutta, N. K. (2004). WDM technologies: Optical Network. New York: Academic Press. Grattan, K., & Sun, T. (2000). Fiber Optic Sensor Technology: an Overview. Sensor and Actuators , 40-61. Kashyap, R. (1999). Fiber Bragg gratings Optics and photonics. Puerto, G., Ortega, B., Capmany, J., Cardona, K. & Suarez, C. (2008). Evolución de las redes de datos: Hacia una plataforma de comunicaciones completamente óptica. Revista Facultad de Ingeniería Universidad de Antioquia, 148-158. Sivalingan, K. (2000). Optical WDM networks: principles and practice. New York: Springer. Sivalingam, K. (2005). Emerging optical network technologies: architectures, protocols, and performance. Washington: Springer. Snyder, A. & Love, J. (2000). Optical Waveguide Theory. Norwell: Kluwer Academic Publisher.

Revista Tecnológicas


Cooperación

internacional y financiamiento

de actividades de desarrollo tecnológico en

Colombia

Fredy Alexander Gómez Jiménez1 Jorge Robledo Velásquez2

Resumen Este trabajo presenta los resultados de un estudio de caracterización sobre las relaciones que firmas establecidas en Colombia tienen con instituciones internacionales alrededor del mundo, y al mismo tiempo analiza sus consecuencias en la política pública y en la gestión de las empresas. Particular atención se presta a la Actividades de Desarrollo Tecnológico (ADT), la cual incluye Tecnologías Incorporadas al Capital, Tecnologías de Gestión, Tecnologías Transversales, Aprendizaje Tecnológica e I+D. Adicionalmente, se realiza un estudio comparativo entre aquellas firmas tienen vínculos internacional para la financiación de ADT y aquellas que carecen de ello. Este estudio incluye metodologías de Análisis Multivariantes de datos como Análisis de Factor y Análisis de Clúster. Los datos se obtuvieron de la Segunda Encuesta de Innovación en Colombia, la cual se aplicó en el 2005 a una muestra de 6222 firmas. Entre los diferentes resultados encontrados, se obtuvo una escasa participación que suele tener las

1 Ingeniero Industrial (Universidad Nacional de Colombia Sede Medellín), Máster en Ingeniería Administrativa (C) (Universidad Nacional de Colombia), Docente Ocasional de Tiempo Completo. Instituto Tecnológico Metropolitano. fredygomez@itm.edu.co 2 Ingeniero Mecánico (Universidad Nacional de Colombia Sede Medellín), Magíster en Sistemas de Generación de Energía Eléctrica (Universidad del Valle, Colombia), Ph.D en Estudios de Política y Gestión de Ciencia y Tecnología (Universidad de Sussex, Inglaterra), Profesor Asociado, Facultad de Minas, Universidad Nacional de Colombia Sede Medellín. jrobledo@unal.edu.co Fecha de recepción: 24 de septiembre de 2009 Fecha de aceptación: 23 de noviembre de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[66]

Cooperación internacional y financiamiento de actividades de desarrollo...

firmas establecidas en Colombia para el financiamiento de ADT, con un porcentaje que no supera el 1% del total de la muestra.

Palabras Claves: Cooperación Internacional, Actividades de Desarrollo Tecnológico, Análisis Multivariante.

Abstract This work presents the outcomes of a characterization study about the relations that firms established in Colombia set up with international institutions from around the world (Europe, United States and Latin America), and at the same time, it analyses their implications for public policy and enterprise management. Particularly attention deserves the funding of Technological Development Activities (TDA), which include Capital Incorporated Technologies, Management Technologies, Transversal Technologies, R&D and Technological learning. This work also carries out a comparative study between firms that have international links for funding TDA and those that do not have this international links. This study includes data analyses using Multivariate Analysis such as Factor and Cluster Analysis. Data were obtained from the Second Colombian Innovation Survey, which was applied in 2005 to a sample of 6222 firms. Among other results, the study shows that financial resources for firms’ R&D activities come mainly from national sources, with an important participation of international financial resources for Technological Learning Activities. Regard to the firms that have participated in international funding of TDA, the study found that only 1% of the total firms have employed at least one funding source, showing a clear evidence of the lack of international participation of the studied firms.

Key words: International Cooperation, Technology Developments Activities, Multivariate Analysis.

Revista Tecnológicas


Revista Tecnológicas

1. Introducción La cooperación internacional de tipo empresarial en actividades de Ciencia y Tecnología (CyT) ha sido una actividad que tradicionalmente se ha llevado a cabo principalmente entre organizaciones de países desarrollados, e inclusive hoy en día, esta actividad continúa siendo muy fuerte. Sin embargo, un importante crecimiento de este tipo de relacionamiento ha tomado forma en aquellos países llamados en desarrollo. De acuerdo a la OCDE (2008) y particularizando a las actividades de Investigación y Desarrollo Experimental (I+D), las empresas extranjeras ubicadas en países en desarrollo incrementaron sus gastos de I+D entre la mitad y tres veces la cantidad invertida en el país de origen, y aunque los gastos aún son modestos, su crecimiento es muy relevante. En otro estudio presentado por la Comisión Europea (European Commission, 2007), se encontró que los flujos de gastos de I+D, los cuales solían estar dirigidos hacia países desarrollados, parecen estar virando a favor de las economías emergentes. Varias de las razones que explican este fenómeno de desplazamiento de capitales están asociadas a la intensificación de la competencia global, los rápidos cambios tecnológicos, el acceso al personal de I+D en países en desarrollo y el aprovechamiento de la diferencia de costos entre los países en desarrollo y desarrollados (Reddy, 1997). Richards & Yang (2007) establecen que las Corporaciones Multinacionales (CMN), las cuales solían enfocar sus actividades de I+D solo en países desarrollados (Katz et al., 1996, Vonortas, 1997), están ahora comenzando a invertir en países en desarrollo dado que la infraestructura para realizar actividades de investigación ha mejorado, los mercados locales están creciendo y los costos de I+D son considerablemente bajos. De todas maneras, los efectos generales actuales de la globalización, como la estandarización de los productos de forma global y las facilidades de comunicación alrededor del mundo, han facilitado enormemente la globalización de actividades de I+D y de Capacitación Tecnológica. Adicionalmente, los cambios del mercado

[67]


[68]

Cooperación internacional y financiamiento de actividades de desarrollo...

laboral en países en desarrollo ha incrementado considerablemente el atractivo de establecer filiales en estos países. En Colombia, la internacionalización de las actividades de CyT ha sido un componente tradicional de la política pública. En la actualidad, la política vigente tiene como objetivo fundamental el de consolidar la proyección internacional del país en esta dimensión, facilitando a los centros de I+D y grupos relacionados el acceso a los recursos financieros e intelectuales internacionales, buscando favorecer la inserción de la ciencia, la tecnología y la innovación colombianas en el contexto internacional (Colombia COLCIENCIAS, 2008). Para poder alcanzar este objetivo, se contemplan, como líneas de acción: la búsqueda y utilización de fuentes internacionales de cooperación; el soporte a la movilidad de investigadores e innovadores; el aprovechamiento de la diáspora en CyT; y el desarrollo de la cooperación horizontal con otros países Caribeños y de Latinoamérica. El interés del presente estudio se centra en el acceso a recursos financieros internacionales por parte de las empresas establecidas en el país, como una medida del grado de internacionalización de las actividades empresariales de innovación y desarrollo tecnológico, y como un aporte al diagnóstico de la realidad colombiana en esta materia de interés político público. En este sentido, el estudio busca hacer una contribución al conocimiento de un fenómeno que ha sido muy poco estudiado en Latinoamérica (Grosse, in press). En particular, el trabajo estudia las características de la financiación internacional de las Actividades de Desarrollo Tecnológico (ADT) realizadas por las empresas establecidas en el país, según se desprende de los resultados de la Segunda Encuesta de Innovación colombiana. La estructura del trabajo es como sigue: en la próxima sección se introducen las definiciones y clasificaciones que utiliza la Segunda Encuesta de Innovación para el tratamiento del fenómeno bajo estudio; en la sección 3 se presenta la metodología utilizada, basada en técnicas descriptivas para realizar un primer examen exploratorio de los datos y en Técnicas de Análisis Multivariante (TAM), para la reducción de variables y la identificación y

Revista Tecnológicas


[69]

Revista Tecnológicas

caracterización de grupos de empresas similares; en la sección 4 se presentan y analizan los resultados; y, finalmente, se presentan las conclusiones del estudio.

2. Definiciones, clasificaciones y variables

de análisis

Para la Segunda Encuesta de Innovación, las ADT son “todas aquellas acciones llevadas a cabo por la empresa, tendientes a poner en práctica conceptos, ideas y métodos necesarios para la adquisición, asimilación e incorporación de nuevos conocimientos” (Colombia. DANE, DNP & Colciencias, 2005, p. 23). Según esta misma fuente, estas actividades cubren las siguientes tecnologías: “Tecnologías incorporadas al capital: Incorporación a la empresa de conceptos, ideas y métodos, a través de la compra de maquinaria y equipo con desempeño tecnológico mejorado (incluso software integrado) vinculado con las innovaciones implementadas por la empresa. Conforma lo que se conoce como cambio técnico “incorporado”. Esto constituye nuevos conocimientos adquiridos a través del análisis y uso de nuevos procesos mecánicos, materiales de partes y piezas y en general de nuevos conceptos e ideas incorporadas en la maquinaria (p. 24). Tecnologías de gestión: La inversión en tecnologías de gestión comprende la adquisición de conocimientos y el procesamiento de información orientados a ordenar, disponer, organizar, graduar o dosificar el uso de los recursos productivos para obtener mayor productividad o competitividad (p. 25). Tecnologías transversales: Estas inversiones corresponden a la incorporación de conceptos, ideas y métodos como resultado de una actividad de investigación llevada a cabo, ya sea en una forma rutinaria o no, por fuera de la empresa o a pedido de ésta. Estas tecnologías incluyen inversión en actividades de transferencia o adquisición de tecnología, inversión en Tecnologías de la información y la comunicación (TICs), inversión en actividades de Biotecnología y programas de diseño industrial (p. 33). Proyectos de I+D: Comprenden el trabajo creativo emprendido sistemáticamente para incrementar el acervo de conocimientos,


[70]

Cooperación internacional y financiamiento de actividades de desarrollo...

y el uso de este conocimiento para concebir nuevas aplicaciones. Pueden incluir el desarrollo de prototipos y plantas piloto. Un proyecto de I+D puede ser de investigación básica, aplicada o de desarrollo experimental (p. 35). Capacitación Tecnológica: Comprende la capacitación en temas estrechamente relacionados con las tecnologías centrales en el proceso productivo de la empresa. Estas tecnologías pueden ser “blandas” (gestión y administración) o “duras” (tecnología de procesos productivos), que involucran un grado de complejidad significativo (no evidente) que requiere de un personal capacitador altamente especializado (p. 36)”.

En relación con las entidades internacionales de financiación de ADT, las cuales serán objeto de análisis en el apartado 4.1 ”Reconocimiento de Instituciones Financieras para el financiamiento de ADT”, la Segunda Encuesta de Innovación a través del Manuel de Diligenciamiento (Colombia. DANE, DNP & Colciencias, 2005) las clasifica y define como se muestra a continuación: “Banca de inversión: Se consideran establecimientos de crédito las instituciones financieras internacionales cuya función principal consista en captar en moneda legal recursos del público en depósitos, a la vista o a término, para colocarlos nuevamente a través de préstamos, descuentos, anticipos u otras operaciones activas de crédito (p. 78). Banca comercial internacional: Son instituciones financieras con el objeto de realizar operaciones activas de crédito, entre países (p. 78). Aportes casa matriz: Se refiere a los recursos propios de la empresa provenientes del país de origen de la misma (p. 78). Organismos internacionales -OEA, ONU, UE-: Se refiere a los recursos provenientes de organismos de cooperación técnica internacional como la Organización de Estados Americanos, Organización de las Naciones Unidas, Unión Europea, etc. (p. 78). Cooperación internacional: Se refiere a los recursos provenientes de países que tienen programas de cooperación técnica, los cua-

Revista Tecnológicas


Revista Tecnológicas

les se brindan en su mayoría a través de proyectos en diferentes áreas (p. 78). Programa CARANA: La Agencia Internacional para el Desarrollo del gobierno de los Estados Unidos (USAID) ha asignado a la empresa CARANA la dirección de un proyecto de desarrollo empresarial, que busca incrementar rápidamente los niveles de ventas, empleo y rentabilidad de las pymes colombianas (p. 78)”.

Finalmente, las variables tamaño de empresa y tipo de empresa (según el origen extranjero o nacional del capital), que se utilizan para caracteriza los clúster o agrupaciones encontradas en el estudio, se definen como sigue: el tamaño de la empresa depende del número de empleados, siendo microempresas si tienen menos de 10 empleados; pequeñas entre 10 y 50 empleados; medianas entre 51 y 200; y grandes para más de 200 empleados. En cuanto al tipo de empresa, una empresa es considerada extranjera si su capital accionario extranjero es mayor al 50%; en caso contrario, se considera nacional.

3. Metodología 3.1. Origen de los datos El principal insumo para realizar el trabajo se encuentra conformado por los datos producidos por la Segunda Encuesta de Innovación y Desarrollo Tecnológico (EDIT II) en el Establecimiento Industrial Colombiano, aplicada en 2005 para los años 2003 y 2004. Los datos se obtuvieron por entrevista directa a 6.172 Establecimientos Industriales y tuvo cobertura nacional representativa de agrupaciones industriales según código CIIU. La unidad de selección y observación es el establecimiento industrial definido como la unidad económica que, bajo una forma jurídica única o un solo propietario y en una sola ubicación física, se dedica a la producción del grupo más homogéneo posible de bienes manufacturados.

[71]


[72]

Cooperación internacional y financiamiento de actividades de desarrollo...

La recolección de la información se realizó a través de las Direcciones Territoriales y Subsedes DANE, en un período promedio de cuatro meses (marzo-junio de 2005). Esta encuesta incluyó los establecimientos industriales que ocupan 10 o más personas o que obtengan una producción anual igual o superior a $65 millones en el año de referencia.

3.2. Herramientas para el análisis de datos El estudio tiene un primer enfoque descriptivo para analizar las entidades internacionales de financiamiento de ADT, y un enfoque no supervisado de técnicas estadísticas exploratorias de análisis multivariante para la analizar la cooperación internacional en actividades de I+D y Capacitación Tecnológica (CT). Previamente se realizó un preprocesamiento de los datos que consistió en la identificación y tratamiento de outliers o datos atípicos para las variables seleccionadas, así como la construcción de histogramas y BoxPlot. Las Técnicas de Análisis Multivariante (TAM) se emplearon para la reducción y/o de clasificación de variables (Análisis de Factor y Análisis de Clúster). Estas técnicas fueron útiles en el hallazgo de perfiles y características de grupos de empresas similares.

4. Resultados Los resultados se presentarán a través de dos apartados. El primero es en esencia un estudio descriptivo acerca de las entidades internacionales de financiamiento de ADT. En el segundo apartado se mostrará un estudio de reducción y clasificación de variables mediante TAM.

4.1. Reconocimiento de Instituciones Financieras para el Financiamiento de Actividades de Desarrollo Tecnológico (ADT)

Revista Tecnológicas


[73]

Revista Tecnológicas

Con base en la pregunta de la Encuesta “¿Reconoce o ha escuchado la siguiente entidad internacional de financiamiento?” y la clasificación de las fuentes de financiación presentada en la sección 2 se construye la Tabla 1. Esta Tabla muestra que la visibilidad de las entidades de financiamiento oscila entre el 22.3% y el 7.2%, valores muy por debajo de lo esperado, lo que revela un alto desconocimiento de las posibilidades de financiamiento internacional de las ADT que ofrecen oportunidades para las empresas. Una posible causa de este desconocimiento podría ser la falta de difusión o publicidad comercial de parte de las entidades financieras para dar a conocer sus productos. Tabla 1. Reconocimiento (visibilidad) de las entidades de financiamiento ¿Reconoce la entidad Banca de Banca Casa de finan- inversión internaci Matrix ciamiento?

OEA, NU, UE

Coopera CARANA internac

22.2%

22.3%

7.5%

17.7%

8.9%

7.2%

No

77.8%

77.7%

92.5%

82.3%

91.1%

92.8%

Total

100

100

100

100

100

100

Fuente: A partir de datos de la EDIT II

Habiendo señalado lo anterior, de la Tabla 1 cabe también destacar la visibilidad que posee el sistema bancario (Banca de Inversión y Banca Internacional) entre las entidades financiadoras de las ADT, con porcentajes de respuestas positivas cercanas al 22% cada uno. De hecho, del total de respuestas afirmativas, el sistema bancario posee el 52% de las respuestas. En contraste, la Cooperación Internacional es prácticamente invisible como fuente de financiación de las ADT, siendo un programa específico, CARANA, casi tan visible como toda la Cooperación Internacional junta. Más allá de la visibilidad de las entidades de financiamiento, el interés podría recaer en la efectiva utilización de la entidad como


[74]

Cooperación internacional y financiamiento de actividades de desarrollo...

fuente de recursos para financiar las ADT de la empresa. A este respecto y según los datos de la Encuesta, solo 14 de las 6.212 firmas efectivamente usaron una fuente de financiamiento internacional. En otras palabras, solo el 1% de las firmas estudiadas utilizaron en algún momento una o varias de las fuentes de financiación mencionadas para las ADT. Como se muestra en la Figura 1, la Banca Internacional se convierte en la vía más utilizada por las empresas para la consecución de recursos (0,47% del total de las firmas estudiadas). 0,500% 0,450% 0,400% 0,350% 0,300% 0,250% 0,200% 0,150% 0,100% 0,050% 0,000% Banca de  Banca  Casa Matriz OEA UN UE Coop  Inversión Internacional Internacional

CARANA

Figura 1. Porcentaje de firmas que utilizaron recursos para las ADT provenientes de las fuentes financieras internacionales. Fuente: A partir de datos de la EDIT II

4.2. Financiación Internacional de actividades de I+D y de Capacitación Tecnológica (CT). Este apartado se enfoca en la financiación de las actividades de I+D y de CT, y al mismo tiempo encuentra el nivel de participación del capital extranjero. La Tabla 2 muestra el porcentaje de dinero que las firmas establecidas en Colombia invierten en actividades de I+D y en actividades de CT. Esta última es, sin lugar a dudas, el enfoque tomado por la gran mayoría de las compañías, puesto que casi la mitad de los recursos reportados se destinan a esta actividad. Como era de esperarse, la investigación básica posee la menor participación con un porcentaje del 3%.

Revista Tecnológicas


[75]

Revista Tecnológicas

Tabla 2. Distribución de las gastos en I+D y capacitación tecnológica Actividad Investigación básica

Total invertido (US$)*

Porcentaje

2,948

3%

Investigación aplicada

20,675

21%

Desarrollo experimental

30,195

30%

Capacitación tecnológica

46,692

46%

100,510

100%

Total

* Valores en miles de dólares. La conversión se hizo de acuerdo al promedio de la tasa de cambio en los años 2003 y 2004 sin ajuste inflacionario. Fuente: A partir de datos de la EDIT II

Como se presentó en la metodología del trabajo, para el análisis se optó por aplicar un enfoque pasivo o no supervisado, realizando pruebas de reducción de variables y asociación sobre las variables seleccionadas, de modo que se pueda observar qué información y patrones de interés emergen. Se seleccionaron las variables de relacionadas con la cantidad de dinero invertido en actividades de investigación aplicada en el año 2003-2004, cantidad de dinero invertido en desarrollo experimental en el 2003-2004, y la cantidad de dinero invertido en actividades de capacitación tecnológica en el 2003-2004. La variable relacionada con el valor invertido en investigación básica no fue tenida en cuenta por ser un valor nulo en la casi totalidad de establecimientos colombianos (Tabla 3). Tabla 3. Variables seleccionadas para el estudio Variable

Código

Inversión en Actividades de Investigación Aplicada INVAPLIC en el 2003-2004 Inversión en Actividades de Desarrollo Experimental DESEXP en el 2003-2004 Inversión en Actividades de Capacitación Tecnológica CAPTECN en el 2003-2004


[76]

Cooperación internacional y financiamiento de actividades de desarrollo...

El propósito es identificar agrupaciones de empresas o clústeres que posean una característica o perfil similar que permita analizarlos y caracterizarlos posteriormente. Primero se realizó un Análisis de Factor para reducir las variables y, posteriormente, un análisis de clúster para identificar las agrupaciones. Para verificar la adecuación entre datos y técnica, se realizó una prueba KMO (medida de adecuación de Kaiser-Meyer-Olkin) y un test de esfericidad de Barlett con su significancia sobre las tres variables presentadas en la Tabla 3. Los valores de 0,582 y 0,000 se obtuvieron para la prubea KMO y para la significancia del test de esfericidad respectivamente, lo que permite concluir que los datos son adecuados para realizar un Análisis de Factor (KMO > 0,5 y Valor P < 0,05). Al realizar la extracción de los factores por medio del software SPSS, se obtienen dos factores que explican el 76% de la varianza, por medio de la metodología de los componentes principales. La Tabla 4 presenta la relación encontrada entre los dos factores en relación con las tres variables seleccionadas y relacionadas con las actividades de I+D y de CT. Tabla 4. Método de extracción: Análisis de componentes principales Código

Factor 1

Factor 2

INVAPLIC

0,615

0,433

DESEXP

0,903

-0,03

CAPTECN

0,05

0,946

Método de Rotación: Varimax con Normalización Kaiser (converge en 3 iteraciones)

Como lo muestra la Figura 2, el Factor 1 tiene afinidad con las variables relacionadas con los esfuerzos en I+D (Investigación Aplicada y Desarrollo Experimental) a través de los recursos invertidos, mientras que el Factor 2 representa la variable relacionada con la CT. El Factor 1 se etiqueta como esfuerzos en I+D el factor 2 como esfuerzos en CT.

Revista Tecnológicas


[77]

Revista Tecnológicas

1

CAPTECN

0,8 0,6 Factor 2: Esfuerzo en CT

INVAPLI

0,4 0,2 DESEXP

0 ‐1

‐0,8

‐0,6

‐0,4

‐0,2

‐0,2

0

0,2

0,4

0,6

0,8

1

‐0,4 ‐0,6 ‐0,8 ‐1 Factor 1: Esfuerzo en I+D

Figura 2: Componentes del Análisis de Factor

Posteriormente se realiza un Análisis de clúster sobre las puntuaciones obtenidas de los dos factores encontrados anteriormente. Al aplicar el análisis por medio de la metodología de las K-medias, el software SPSS muestra dos clústeres presentados en la Tabla 5 y etiquetados como los Establecimientos Investigadores y los Establecimientos Capacitadores. Tabla 5. Nombre y número de establecimientos en cada clúster Nombre del Clúster

Numero de Establecimientos

Investigadores

20

Capacitadores

6196

Total

6216


[78]

Cooperación internacional y financiamiento de actividades de desarrollo...

Clúster 1: Los Establecimientos Investigadores Estas firmas se caracterizan porque realizan las mayores inversiones en actividades de I+D y de CT respecto al total de la muestra. Solo corresponden al 0,32 % del total, lo que evidencia la poca iniciativa que tiene la empresa promedio para realizar actividades investigativas. Estas empresas poseen en promedio 1.275 empleados, por lo que es un clúster conformado principalmente por grandes empresas. El 40% son empresas cuyo capital extranjero es mayor o igual al 50% de la composición accionaria, y el 60% son empresas de capital mayoritariamente nacional, lo que muestra un amplio predominio relativo de las empresas con capital extranjero frente a las de capital nacional, teniendo en cuenta que el número absoluto de éstas es muy superior. Los recursos obtenidos para financiar actividades I+D provienen principalmente de fuentes nacionales, a excepción de dos empresas de las 20, de las cuales una utilizó recursos provenientes de Alemania para realizar Investigación Aplicada y la otra recursos provenientes de los Estados Unidos para Investigación Aplicada y Desarrollo Experimental. En otras palabras, los Establecimientos Investigadores se caracterizan por no utilizar recursos provenientes del exterior, sino de fuentes nacionales, para financiar sus actividades investigativas. Clúster 2. Los Establecimientos Capacitadores Casi todas las empresas de la muestra pertenecen a este clúster (99.7%), por lo que sus características son representativas del establecimiento industrial colombiano. Este clúster, a diferencia de los Establecimientos Investigadores, no gasta cantidades importantes de dinero en actividades de I+D ni en CT. Sin embargo, la mayoría de las firmas que pertenecen a este clúster tienen alguna inversión en actividades de CT, obviamente sin llegar alcanzar los niveles encontradas en los Establecimientos Investigadores. Es decir, este clúster muestra que la firma promedio en Colombia no invierte significativamente en I+D y solamente de forma tímida en actividades de CT, de donde proviene el nombre de Establecimientos Capacitadores.

Revista Tecnológicas


Revista Tecnológicas

En promedio, las empresas de este clúster están conformadas por 81 empleados, evidenciando que es un clúster representativo de la PYME colombiana. Solo el 5% de las firmas poseen un capital accionario extranjero mayor o igual al 50%, mientras que el 95% son consideradas empresas nacionales. A semejanza de los Establecimientos Investigadores, los cuales mostraron una participación muy pobre en el financiamiento extranjero de sus actividades, el clúster de los Establecimientos Capacitadores financia sus actividades con recursos de fuentes nacionales (alrededor del 93% de las empresas). Cerca del 97% de los recursos invertidos provienen de tales fuentes y solamente el 7% de las empresas del clúster utilizaron recursos de fuentes extranjeras para financiar sus actividades. La Figura 3 presenta un desglose del 3% de los recursos financieros provenientes de fuentes extranjeras, según su país de procedencia y el número de empresas financiadas. Se observa el predominio estadounidense (24 empresas financiadas), seguido de Cabo Verde y, más atrás, de Alemania y Brasil. Las fuentes financieras para las demás empresas están dispersas en un número alto de países, cada uno financiando menos de cinco empresas. 25 20 15 10 5 Afganistán Alemania Argentina Australia Austria Brasil Cabo Verde Islas Caimén Islas Coco Islas Comoro Costa Rica El Salvador España Francia Holanda Italia Japón México Namibia Reino Unido Rep Dominic Islas Salomon Suiza Estados Unidos Venezuela

0

Figura 3. Número de establecimientos financiados por país

Estados Unidos no solo es el país que más número empresas financia del clúster de Establecimientos Capacitadores, sino que

[79]


Cooperación internacional y financiamiento de actividades de desarrollo...

también es el que más recursos aporta respecto a los demás países. La Figura 4 ilustra esta situación, en la que se aprecia que los Estados unidos aportan alrededor del 30% del total de los recursos del clúster provenientes del exterior. 35,00% 30,00% 25,00% 20,00% 15,00% 10,00% 5,00% 0,00% Afganistán Alemania Argentina Australia Austria Brasil Cabo Verde Islas Caimén Islas Coco Islas Comoro Costa Rica El Salvador España Francia Holanda Italia Japón México Namibia Reino Unido Rep Dominic Islas Salomon Suiza Estados Unidos Venezuela

[80]

Figura 4. Porcentaje de la financiación total extranjera por país

Aquí, de nuevo, se observa la amplia dispersión de los recursos según se fuente, descontando el aporte estadounidense. Sin embargo, si se consideran los países europeos en conjunto (Alemania, Austria, España, Francia, Holanda, Italia, Suiza e Inglaterra), la participación sería muy relevante y sobrepasaría incluso a los Estados Unidos en el aporte extranjero para la financiación de actividades de I+D y Capacitación Tecnológica.

5. Conclusiones Respecto a la financiación internacional de las ADT de las empresas estudiadas y considerando las fuentes previamente identificadas, el trabajo evidencia un acceso muy limitado a los recursos provenientes de tales fuentes, con sólo el 1% del total de las empresas reportando uso de por lo menos una de las fuentes. Este resultado descriptivo muestra un escaso flujo de recursos financieros del exterior hacia Colombia para este tipo de actividades.

Revista Tecnológicas


Revista Tecnológicas

Esta situación se corresponde con la baja visibilidad de las entidades financieras internacionales como fuentes de recursos para ADT. De esta visibilidad, la mayor parte se dirige al sistema bancario (Banca de Inversión y Banca Internacional), siendo también notable la Cooperación Internacional, pero por el hecho de que es prácticamente invisible como fuente de recursos empresariales para ADT. En resumen, las ADT de las empresas colombianas están escasamente internacionalizadas en lo que respecta al flujo de recursos financieros externos. Este hecho, junto con la pobre visibilidad de las fuentes internacionales de recursos y la baja intensidad de las actividades empresariales de I+D y CT, configuran un escenario que debe ser motivo de examen y tratamiento en la doble perspectiva de la política pública y la gestión empresarial. Por otra parte, el estudio muestra que los recursos de financiación de actividades de I+D y de CT provienen principalmente de fuentes nacionales, tanto para el clúster de los Establecimientos Investigadores como para el de los Capacitadores. Sin embargo, las actividades de CT en este último clúster generan una financiación internacional mucho más fuerte y diversa en sus fuentes que la encontrada para el clúster de los Investigadores. Las fuentes de financiamiento internacional de actividades de CT para el clúster de los Establecimientos Capacitadores se sitúan principalmente en los Estados Unidos y Europa (como suma total de los países que la componen). Sin embargo, como país individual, los Estados Unidos poseen un liderazgo en número de firmas financiadas y en porcentaje sobre el total financiado frente a los demás países, los cuales muestran una amplia dispersión en número y una escasa participación en empresas financiadas y recursos aportados. De los dos clústers encontrados, los Establecimientos Investigadores se caracterizan por su esfuerzo en I+D, el tamaño grande de sus empresas y la alta proporción de capital accionario extranjero. Estas, sin embargo, no son características representativas de la muestra de empresas del estudio. Esta representatividad recae en

[81]


[82]

Cooperación internacional y financiamiento de actividades de desarrollo...

el clúster de Establecimientos Capacitadores, que invierten muy poco en I+D y tímidamente en CT. El tamaño de sus empresas es predominantemente pequeño y mediano, y su composición accionaria está dominada por capital nacional.

6. Reconocimientos El presente trabajo fue financiado por el Instituto Colombiano para el Desarrollo de la Ciencia y la Tecnología (COLCIENCIAS) a través del Proyecto DESCUBRIMIENTO.

7. Referencias Beers, Cees van, Berghäll, Elina & Poot, Tom (2008) R&D internationalization, R&D collaboration and public knowledge institutions in small economies: Evidence from Finland and the Netherlands. Research Policy, 37, 294–308 Behrman, .I. N. and Fischer, W. A. (1980) Overseas R&D R. Nelson, G. Silverherg and L. Soete, pp. 496527. Activities of Transnational Companies. Oelgeschlager, Pinter Publishers, London and New York. Gunn & Hain, Cambridge, MA. Colombia. DANE, DNP and Colciencias (2005). Manual de diligenciamiento de la segunda encuesta. Colombia. COLCIENCIAS (2008). Colombia construye y siembra futuro. Política nacional de fomento a la investigación y la innovación. Dunning, J. H. (1992) Multinational enterprises and the globalization of innovatory capacity. In Technology Management and International Business: Internationalization of R&D and Technology, ed. 0. Granstrand, L. Hakanson and S. Sjölander, pp. 19-51. John Wiley & Sons Ltd., Sussex, England. Europe Commission (2007). Europe in the global research landscape. P. 113. Website http://publications.europa.eu Freeman, C (1993). The Economics of Industrial Innovation. 3rd edition. Londres. Grosse, Robert. R&D by TNCs in Latin America. Article in press

Revista Tecnológicas


Revista Tecnológicas Hidalgo, Antonio; Fernández, Celia; López, Juan (2002). Evaluación de los 10 de años de IBEROEKA. Fundación General de la Universidad Politécnica de Madrid Katz, R., Rebentisch, E.S., Allen, T.J., (1996). A study of technology transfer in multinational cooperative joint venture. IEEE Transactions on Engineering Management 43 (1), 97–105. OCDE (2005) Oslo Manual – Guidelines for collecting and interpreting innovation data. 3rd Edition. European Commission, Organization for Economic Co-operation and Development, Statistical Office of the European Communities, Paris. OCDE (2008). Recent trends in the internationalization of R&D in the enterprise sector. Special session on globalization. Organization for Economic Cooperation and Development, Paris. Reddy, Prasada (1997). New Trends in Globalization of Corporate R&D and Implications for Innovation Capability in Host Countries: A Survey from India. World Development, Vol. 25, No. 11, pp. 1821-I 837. Richards, Malika and Yang, Yi (2007). Determinants of foreign ownership in international R&D joint ventures: Transaction costs and national culture. Journal of International Management, 13, 110–130. Schumpeter, J (1939). Business cycle: a theoretical and statistical analysis of the capitalist process. Mac Graw Hill. Vonortas, N.S., 1997. Research joint ventures in the US. Research Policy 26, 577–595.

[83]


Modelos

para el diagnóstico y cuantificación

del poder de mercado en sectores industriales: un enfoque de estructura-conducta-resultados José Benjamín Gallego Alzate1

Resumen Este artículo tiene como propósito presentar dos modelos para diagnosticar y cuantificar el poder de mercado en sectores industriales, inscriptos en el paradigma clásico “Estructura-Conducta-Resultados”. En general, se muestra como el poder de mercado está estructuralmente relacionado con los índices de concentración o cuota de mercado, la elasticidad precio de la demanda, la variación conjetural y los rendimientos a escala.

Palabras Claves: Oligopolio, poder de mercado, índice de Lerner, Concentración.

Abstract In this paper, two models about diagnosis and quantification the power monopoly in industrial sector is presented. These models are part of the classic paradigm “Structure- Conduct- Performance”. In general, the power market is structurally related with concentration

1 Economista Agrícola y Magister en Ciencias Económicas de la Universidad Nacional de Colombia. Especialista en Política Económica de la Universidad de Antioquia, y en Docencia Universitaria de la Universidad Industrial de Santander. Director del Grupo de Investigación en Gestión Tecnológica. Profesor Asociado del Instituto Tecnológico Metropolitano. E-mail: josegallego@itm.edu.co Fecha de recepción: 3 de mayo de 2009 Fecha de aceptación: 27 de mayo de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[86]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

indexes or market share, the price elasticity of demand, the conjectural variation and returns to scale.

Key Words: Oligopoly, Market power, Lerner index, Concentration.

Revista Tecnológicas


Revista Tecnológicas

Introducción El propósito de este texto es presentar la revisión de algunos modelos teóricos que permitan diagnosticar y cuantificar, con su aplicación empírica, la existencia de poder de mercado en los diferentes sectores industriales. La revisión cubre modelos en el marco del paradigma clásico “Estructura- Conducta- Resultados” y su desarrollo es básicamente matemático. El artículo surge del avance investigativo del proyecto “El poder de mercado en las industrias basadas en la ciencia: los casos de las industrias Química y Farmacéutica”, en el que se asume la clasificación de los sectores industriales realizada por Keith Pavitt (1984). Para Pavitt, las industrias basadas en la ciencia son: Química, Biotecnología, Farmacéutica y Electrónica. En estas industrias, la tecnología empleada en los procesos productivos es propias, el origen de las innovaciones es desde la investigación y el desarrollo (I+D) y la aplicación de conocimientos de centros públicos, y son protegidas por medio de patentes y secretos industriales; el tamaño de las empresas es grande, y la innovación de productos y procesos procura la reducción de costos y el aumento de la prestaciones de servicios. Se entiende por poder de mercado, la habilidad de una firma o grupo de firmas para establecer el precio de los bienes sobre el nivel de la competencia, durante un periodo de tiempo2. Este poder permite obtener beneficios sobre los niveles de competencia perfecta, denominados rentas monopolísticas3. Desde un punto de vista microeconómico, el poder de mercado significa reducción de la competencia, pérdida irrecuperable de eficiencia y transferencia de excedente del consumidor al productor.

2 AMERICAN BAR ASSOCIATION (2005). Market Power Handbook. Competition Law and Economic Foundations. Chicago: ABA Publishing. pp1-2 3 STIGLITZ, Joseph E. (1998). Microeconomía. España: Ariel. p 353

[87]


[88]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

1. Modelo de oligopolio. Índice de lerner y concentración de mercado

El oligopolio es una estructura de mercado compuesto por más de una empresa, pero pocas, de manera que el comportamiento de cualquiera de ellas tiene efecto sobre el precio; por ello, en el modelo de oligopolio se enfatiza en la interdependencia del comportamiento del rival. Las empresas actúan independientemente o bajo algún grado de colusión; y basan sus decisiones de precios y producción fundamentadas en la acción esperada del rival a tales decisiones. Las respuestas se mide por medio de la variación conjetural de precios (modelos Edgeworth y de la demanda quebrada) y de producción (modelo Cournot de empresa seguidora y modelo Stackelberg de empresa seguidora o líder).

1.1 El margen precio – costo marginal o índice de Lerner para una empresa En oligopolio y siguiendo un escenario de Cournot, el problema de la empresa i es maximizar el beneficio �i , que se define como �i = P(X )xi – C(xi) (1) y en el que: P(X ) = Es la función inversa de demanda X

= Es la producción total de la industria, e igual a ∑ xi n

i =1

xi

= Producción de la empresa i

X –i = Es la producción conjunta de las n empresas del mercado menos la producción de la empresa i. Es decir X –i = X – xi Tomando la derivada a la ecuación del beneficio tenemos:

Revista Tecnológicas


[89]

Revista Tecnológicas

∂π i ∂P ( X ) ∂c( xi ) . Pero como la derivada de ∂P ( X ) = P ( X ) + xi − ∂xi ∂xi ∂xi ∂xi

a

∂P( X ) ∂ ( X ) , ∂X ∂xi

esto es

∂c( xi ) = c ' (costo ∂xi

∂X −i ∂P ( X )  ∂xi  + ∂X  ∂xi  ∂xi

y si adicionalmente hacemos

marginal), tenemos que la derivada es entonces:

∂π i ∂X −i ∂P ( X )  ∂xi  = P ( X ) + xi + ∂xi ∂X  ∂xi ∂xi P ( X ) + xi

,   

es igual

∂X −i ∂P ( X )  1 + ∂xi ∂X 

  − c ' . Igualando a cero la derivada, tenemos 

 ∂X −i  = c' , siendo ∂xi 

la variación conjetural λi , esto es, el cambio en la producción conjunta de las n empresas como respuesta a un cambio en la producción de la empresa i (conjetura en cantidades, no en precios). Bajo un modelo de oligopolio de Cournot, cuyo supuesto central consiste en que cada empresa actúa considerando que la producción de la empresa rival es fija (lo que hace que el término de la variación conjetural de la producción sea cero para las empresas, esto es λi= 0), la condición de máximo beneficio, definida como ingreso marginal igual al costo marginal, es: P( X ) + xi ∂P( X ) = c' . ∂X

derivada ∂P( X ) = P' , ∂X

entonces la condición Y si denotamos la de equilibrio queda expresada como: P(X) + xi P ' = c', o también P + xi P ' = c'. Ahora, si asumimos que la variación conjetural es, en vez de cero, una constante (o sea λi = λ), entones la condición de máximo beneficio para la empresa i es ahora P + xi P ' (1 + λi ) = c' Para obtener una medida del grado de poder de mercado, como es el índice de Lerner o margen precio – costo marginal, procedemos de la siguiente manera: Si a la expresión P – c' = – xi P '(1+λ ) la dividimos por P tenemos

el margen del precio sobre el costo marginal o índice de Lerner de la empresa i como: P − c' = − xi P' (1 + λi ) ; es decir B = − xi P' (1 + λi ) . Si P

P

i

P

multiplicamos y dividimos el numerador de esta última expresión


[90]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

por X, y si definimos a

Si =

xi X

, siendo Si la cuota o participación en

el mercado de la empresa i (o índice de concentración), y a px como

la elasticidad precio de la demanda = −

P , entonces: P' X

, es decir Por lo tanto, el índice de Lerner o de poder de mercado para la empresa i es. Esta última ecuación permite concluir, bajo el escenario descripto, que el poder de mercado de la empresa i depende de su cuota de mercado, de la elasticidad precio de la demanda del bien X y de la expectativa (conjetura constante) de la empresa i sobre la conducta de las empresas rivales.

1.2 El Índice de Lerner para la industria El índice de Lerner para la industria, representado por B, se obtiene como la suma de los índices individuales Bi , con i= 1 ... n, ponderado cada Bi por la participación relativa de la empresa i en n el mercado. Es decir, B = ∑ Bi * Si ; i =1

esto es

.

Si desarrollando esta última ecuación, tenemos: , o sea Pero como

, luego

.

es el índice de concentración de Herfindahl,

la expresión anterior es equivalente a

o sea

Revista Tecnológicas

.


[91]

Revista Tecnológicas

Si las empresas en el mercado del bien X son tomadoras de precio, el índice de Lerner de la industria es cero (B = 0); en cambio si B = 1, el mercado de dicho bien es un monopolio. Un B > 0 indica presencia de poder de mercado en la industria, es decir, capacidad de las empresas para determinar el precio de mercado sobre el nivel de competencia. Sea ahora i la elasticidad conjetural de la empresa i, es decir: , esto es

y si suponemos que es constante, el , se convierte en

índice de Lerner para la empresa i, . La deducción es la siguiente: , es decir

Como realmente que

, debemos demostrar

.

Recordando que

, tenemos entonces que

, si

multiplicamos y dividimos lo anterior por Xi obtenemos

,

pero como X-i = X - xi por ello

;

o sea

, así

. Adicionalmente, si

entonces que

tenemos

, que cancelando X en la primera

parte y reordenando obtenemos:

(2). Ahora

bien, como por definición la elasticidad conjetural de la empresa i es

y además

, al reemplazar estas definiciones en

la expresión (2), obtenemos i - i Si , esto es (1 - Si)i . Así entonces, concluimos que Si λi = (1-Si)i .


[92]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

1.3 Mercado dominado por un grupo de empresas: El índice de Lerner para la empresa y la industria Supongamos ahora que la industria del bien X es dominada por un grupo d de empresa y el resto de empresas que conforman la industria, n- d, son tomadoras de precio, es decir su Bi = 0. El grupo dominante determina el nivel de producción que maximiza el beneficio. d

Sea X d = ∑ xi , la producción del grupo de empresas dominantes i =1 en la industria. Definimos además a Xt = X - Xd , como la producción de las restantes empresas de la industria, el producto del grupo de empresas tomadoras de precio. Así tenemos que ahora X = Xd + Xt. La función de beneficio a maximizar ahora es tomando derivada igualada a cero . O lo que es

tenemos: .

los mismo: Ahora bien, como:

;

,y

,

es decir la variación conjetural de las empresas dominantes respecto al resto de empresas de la industria, la expresión anterior es igual a: = c'i (xi ). Si suponemos además que el grupo de empresas líderes tienen un mismo costo marginal, esto es c'i (xi ) = c'd , entonces la condición de máximo beneficio es P(X) + Xd P' (1+λdt ) = c'd. Bajo este modelo, el índice de Lerner se expresa como: . Si de nuevo multiplicamos y dividimos el numerador del lado derecho de la igualdad por X, entonces

, ahora

es la participación

Revista Tecnológicas


[93]

Revista Tecnológicas

en el mercado del grupo de empresas dominantes4, tenemos: , y como

es la elasticidad precio de la demanda del

mercado, el índice de Lerner para el grupo de empresas dominantes es

.

Ahora, el índice de poder de mercado promedio de la industria, ponderando por la participación relativa en el mercado Sd es: B = Sd Bd . , recordando que el grupo (n-d) empresas restantes son tomadoras de precio y su Bt = 05.

1.4 Mercado dominado por un grupo de empresas y variación conjetural constante En el caso de la industria, sea dt la elasticidad conjetural del . Supongamos que el

grupo dominante determinada como

grupo de empresas dominantes considera la elasticidad conjetural constantes, entonces el índice Lerner promedio de la industria es .

ahora

El procedimiento es el siguiente: debemos demostrar que los numeradores son equivalentes; recordando que

Xd

d

y que

.

S i , y representa el índice de concentración del grupo de empresas 4 Pero X = ∑ i =1 dominantes. 5 Bd es el índice de Lerner para el grupo de empresas dominantes, por tener una participación S d de mercado. La participación de las restantes empresas tomadoras de precio es (1 − S d ) . Ahora, el índice de la industria, al definir Bt como el índice de poder de mercado de las empresas tomadoras de precios, es: B = S d * Bd + (1 − S d )Bt , pero como el Bt = 0 , entonces B = S d Bd .


[94]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

Tenemos entonces que S2d(1+λdt) es igual a

y si a los

términos entre paréntesis restamos y sumamos

, tenemos

entonces

, lo anterior tampoco

cambia si multiplicamos y dividimos el último término por Xt, así

Factorizando los dos últimos

términos, entonces:

. Pero, como

Xd + Xt = X, por ello la anterior expresión es

.

Multiplicamos ahora el corchete, tenemos

.

Pero como

, el último sumando es igual a , o de igual manera

es decir Así entonces:

Por lo tanto, queda demostrado que

;

. es: S2d(1- dt) + Sd dt ; con

, como índice de concentración de mercado de las empresas dominantes. Los modelos desarrollados en este primer punto muestran que el índice de Lerner, o margen precio-costos marginal, está estructuralmente relacionados con los índices de concentración (H y CRd ). En la aplicación de estos modelos a sectores industriales de México, economía emergente como la colombiana, y en la que se utilizó datos contables, se encontró una correlación positiva

Revista Tecnológicas


[95]

Revista Tecnológicas

y significativa entre los índices de concentración C4 y H, y el desempeño industrial6. La validación empírica de los modelos en la economía colombiana utilizaría datos de corte transversal obtenidos de los estados financieros publicados según sectores industriales por la Superintendencia de Sociedades, sección estados financieros (SIREM)

2. Determinación del índice de lerner en un modelo

de

7

oligopolio con financiación externa

Partimos de los siguientes supuestos y definiciones. Sea i una empresa que opera en un mercado bajo oligopolio de un producto homogéneo y financia su inversión acudiendo al mercado (imperfecto) de capital (financia la inversión con la venta de bonos), por lo que existe la posibilidad de quiebra o bancarrota. Para ello definimos las siguientes variables: KE = Es el capital inicial aportado por los socios y heredado del período anterior I = La inversión corriente financiada con la venta de bonos, cada uno de ellos a una unidad monetaria. B = Bonos Ki = Capital de la empresa i

P0K = Precio inicial de los activos de capital

El capital de la empresa i al inicio del período es Ki = KE + I; y su valor es P0K Ki = P0K KE + P0 I. Pero como el valor de la inversión corriente se financia con bonos, entonces P0K Ii = B, por lo tanto: P0K Ki = P0K KE + B, lo que equivale a tener que P0K KE = P0K Ki - B (1)

6 FERNÁNDEZ TORRES, Alfredo (2006). El Desempeño Industrial como Medida Indirecta del Poder de Mercado. En: Revista Comercio Exterior, BANCOMEX, Vol. 56 No. 1, p.47 7 Este desarrollo se basa en Gracia (1996)


[96]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

Si no hay bancarrota la empresa redime todos los bonos al final del período pagando (1+r) unidades monetarias por cada bono, siendo r la tasa de interés de los bonos. Si definimos además: δ = Tasa de depreciación de los activos de capital (1- δ ) = Disposición de capital para el período siguiente = Tasa de interés sobre activos seguros El valor presente descontado (valor de la empresa neto de capital inicial) de la empresa i es: r*

(2), En la que: P1 = Precio de los activos de capital al final del período K

PQi

=

θ

=

Valor de la producción de la empresa i

Wi Li =

Costo del trabajo

(1 + ri) B =

Pago por rendimiento de bonos (pago de capital más intereses)

Variable aleatoria que refleja la incertidumbre inicial sobre la situación de la empresa al final del período

(1- δi)P1K Ki= Valor de los activos de la empresa al final del período (se descuenta depreciación) Si sustituimos la ecuación (1) en (2) obtenemos: , es decir

, o también

Revista Tecnológicas


[97]

Revista Tecnológicas

Reordenando la expresión anterior, tenemos:

En esta última ecuación, la expresión -(1+ri)Bi + (1+r*)Bi se reduce a: -Bi - riBi + Bi + r*Bi , es decir - riBi + r*Bi , que al tomar factor común Bi obtenemos -(r-r*)Bi. Igualmente, la expresión se reduce Tomando factor común K i tenemos Multiplicar y dividir por

, entonces

. ,

Y lo anterior es igual a o sea

.

;

Si a esta última expresión le sumamos y restamos δi , tenemos , y es igual a . Tomando factor común (1-δi ), obtenemos , o lo que es lo mismo , o también igual a .


[98]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

Si hacemos que

, entonces el valor

presente descontado, o valor de la empresa neto de capital, es: y en la que:

Es el beneficio económico bruto

θi = La incertidumbre inicial sobre la situación final de la empresa (ri-r*)Bi = Es el costo de oportunidad de financiarse con emisión de bonos Si la empresa al final del período no es capaz de redimir los bonos, entrará en bancarrota.

2.1 El valor presente descontado de venta de la empresa (VPDVi) Se define como la suma del valor presente descontado de la empresa y el valor del capital inicial aportado por los socios, esto , y es igual a es , o lo que es lo mismo:

Sea ahora θ* el valor de θ que hace exactamente al valor presente descontado de venta igual a cero (o sea VPDVi = 0); y sea además f (θ) la función de densidad asignada por los propietarios a θ, pues recordemos que es una variable aleatoria que refleja la incertidumbre inicial. Si tenemos θ* tal que VPDVi = 0, entonces: , o también

Revista Tecnológicas


[99]

Revista Tecnológicas

, por lo que , y que tiene las siguientes funciones de densidad de probabilidad asignadas por los propietarios: Pr(b) = Probabilidad de bancarrota Pr(b) = Probabilidad de no bancarrota

E (θb) = Valor esperado de θ condicionado a no bancarrota

8

2.2 Maximización del valor presente esperado de la empresa Los empresarios maximizan el valor presente esperado de la empresa sujeto a la financiación de la inversión mediante la emisión de bonos. El problema es:

Sujeto a: Utilizando el método del multiplicador de Lagrange, tenemos que maximizar la siguiente función:

8

Ver GRACIAS (1996) y (1999)


[100]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

Las derivadas parciales, igualadas a cero, respecto a Li, Ki, Bi son: •

, es por

a

. Si multiplicamos y dividimos , obtenemos

o sea

; con •

.

, es

. Si como en el

caso anterior multiplicamos y dividimos por

a los mismos

términos y además tomamos factor común P0K, tenemos que

es decir, .

, es

, o también

es decir

. Si multiplicamos y dividimos a

por ri, tenemos

o sea

y si

.

, entonces tenemos que

Con: rQi: Elasticidad de tasa de interés de los bonos respecto al volumen de producción.

Revista Tecnológicas


[101]

Revista Tecnológicas

rBr:

Elasticidad de la tasa de interés de los bonos respecto a la cantidad de bonos.

IMgi: Ingreso marginal de la empresa i. , con

Ahora, como y

, entonces:

. Si cancelamos r* y tomamos factor común ri entonces:

. Si

, entonces .

2.2.1 Productividad Marginal del trabajo

Si del trabajo

, al despejar el producto marginal , tenemos:

, o sea


[102]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

Es decir:

2.2.2. Producto Marginal del Capital Como

, tenemos que: , por ello el producto marginal de

capital es:

2.3 La expresión para el margen del precio sobre el costo medio de producción a largo plazo Supongamos que la empresa tiene una función de producción Qi = Q(Li,Ki), localmente homogénea, en un entorno Qi, la relación entre costo medio y marginal (índice de rendimientos a escala) es , pero como

y

son las produc-

tividades marginales del trabajo y el capital, respectivamente, tenemos que la relación FCi es:

; lo que es igual a:

Revista Tecnológicas


[103]

Revista Tecnológicas

Ahora, si P(Q) es la función inversa de demanda y el ingreso es p(Q)Qi, entonces el ingreso marginal es Si multiplicamos y dividimos por

.

el lado derecho de la expresión

anterior con excepción de P tenemos: ; y reordenando, tenemos:

.

Ahora,

es la inversa de la elasticidad de la demanda . Además,

cuyo valor es negativo; por ello

es la

participación en el mercado de la empresa i, o sea Si. De esta o también

manera,

, siendo

la variación conjetural. Si Q = Qi + Qj, haciendo a Qj como la producción del resto de las empresas de la industria en el mercado en oligopolio (no incluye la empresa i), también es cierto que Qj = Q - Qi . Ahora,

es entonces

, es decir

.

Si multiplicamos y dividimos a la variación conjetural por

y definimos a la elasticidad de la variación conjetural , tenemos que

como

. Ahora, Qj = Q-Qi , entonces decir, y siendo

, es también ; es

el inverso de Si (la participación en el mercado


[104]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

de la empresa i), que

. Si reemplazamos lo an-

terior en la fórmula para el ingreso marginal tenemos entonces: ; y simplificado tenemos

, es decir:

, tomando

factor común Si, entonces , es la ecuación para el ingreso marginal Si reemplazamos esta ecuación del ingreso marginal en la ecuación FCi(Qi), se deduce la ecuación para el margen precio sobre los costos medio de producción a largo plazos como se sigue:

. Lo anterior equivale a:

, tomando factor común PQi en el lado izquierdo de la expresión y multiplicando por FCi tenemos: , restemos ahora a PQi en cada lado de la igualdad, entonces: . Tomando factor común en lado izquierdo y pasándolo a dividir:

Revista Tecnológicas


[105]

Revista Tecnológicas

, por lo tanto: , y es la ecuación de comportamiento para el margen precio/costo medio de largo plazo. En esta ecuación: P = Precio del producto Q=

Producción

WL = Costo del trabajo λB = Costo de uso de servicios de capital

PtK = Precio del capital por unidad en el periodo t

K=

Stock de capital físico

FC = Índice de rendimiento a escala α=

Elasticidad conjetural

εPX = Elasticidad precio de la demanda S =

Cuota de mercado

r =

Tasa de interés de los bonos

B =

Número de bonos a un valor de una unidad monetaria

εrQ = Elasticidad tasa de interés al nivel de producción.

En la ecuación anterior aparecen los determinantes clásicos del margen para mercados en oligopolio: rendimientos a escala, elasticidad de la demanda, cuota de mercado, comportamiento empresarial (variación conjetural). Este modelo ha sido estimado para la economía española durante el período 1983-1990 por Esperanza Gracia9, utilizando información tomada de la Central de Balances del Banco de España.

9

GRACIA EXPÓSITO, Esperanza (1996). Márgenes y Cuota de Mercado: Un Análisis Econométrico con Datos Individuales. Madrid: Universidad Complutense de Madrid (Tesis Doctoral)


[106]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

La estimación es para un panel de 979 empresas manufactureras españolas; y encuentra, como uno de sus resultados, que la variable con mayor impacto sobre los márgenes es la participación o cuota de mercado de la empresa.

Conclusión En este artículo se presenta el desarrollo matemático de algunos modelos teóricos para estimar y diagnosticar la existencia de poder de mercado en diferentes estructuras industriales, e inscritos en el paradigma clásico “Estructura – Conducta – Resultados”. En el modelo de oligopolio tipo Cournot, se concluye que el poder de mercado de la empresa i depende de su cuota de mercado (o participación de la empresa en el mercado de la industria), de la elasticidad precio de la demanda del bien X y de la expectativa (conjetura constante) de la empresa i sobre la conducta de las empresas rivales. La ecuación de la relación es

, siendo

Bi en margen precio-costo marginal o índice de Lerner. Para el caso de la industria, el poder de mercado se relaciona con el índice de Herfindahl, la elasticidad precios de la demanda y la variación conjetura. La ecuación para el índice de Lerner es

.

Adicionalmente, en mercados dominados por un grupo de empresas, el índice de Lerner para el grupo de empresas dominantes es

; y el índice de poder de mercado promedio de la

industria, ponderando por la participación relativa en el mercado Sd es:

. Por último, si el grupo dominante considera

la variación conjetural constante, entonces En estos casos, el desarrollo del modelo muestra que los índices de concentración están estructuralmente relacionados con el índice de Lerner de poder de mercado. En el modelo de oligopolio de un producto homogéneo con financiación externa, bajo los supuestos de maximización del valor

Revista Tecnológicas


Revista Tecnológicas

esperado de la empresas por parte del empresario y en un contexto de mercados imperfectos de capitales, se obtuvo una ecuación de comportamiento para el margen precios- costo medio de producción de largo plazo. En esta ecuación aparecen los determinantes clásicos del margen en mercado oligopolístico: rendimientos a escala, elasticidad de la demanda, cuota del mercado y variaciones conjeturales (comportamiento).

Bibliografía Clarke, R. & Davies, S.W. (1982). Market structure and Price – cost margins. In: Economica, New series, vol. 49, No 195 (aug.), pp. 277-287. Cowling, K. & Waterson, M. (1976). Price-Cost Margins and Market Structure. In: Economica, núm. 43, pp. 267-274. Feinberg, R.M. (1980). The Lerner Index, Concentration, and Measurement of Market Power. In: Southern Journal, vol. 46, No. 4, pp. 1180-1186. Fernández, A. (2006). El Desempeño Industrial como Medida Indirecta del Poder de Mercado. En: Revista Comercio Exterior, BANCOMEX, Vol. 56 No. 1, pp. 41-47. Gracia, E. (1996). Márgenes y Cuota de Mercado: Un Análisis Econométrico con Datos Individuales. Madrid: Universidad Complutense de Madrid (Tesis Doctoral). Gracia, E. (1999). Márgenes y Cuota de Mercado: Un Análisis con un micro panel. Investigaciones económicas. Vol. XXIII. No 3 1999, pp. 393-428. Universidad Complutense de Madrid – Fundación Empresas Públicas. Huergo, E. (2001). El Diagnóstico del Poder de Mercado En Economía Industrial: Un Revisión de la Literatura Empírica Española. Madrid: Universidad Complutense de Madrid (Disponible en www.ucm.es/BUCH/cee/ doc/01-12/0112.pdf). Mazón, C. (2002). El Margen Precio – Costo Marginal en la Encuesta Industrial: 1978-1988. BANCO DE ESPAÑA. Documento de trabajo No. 9205. Mazón, C. (2002). Márgenes de beneficio, eficiencia y poder de mercado en las empresas españolas. BANCO DE ESPAÑA. Documento de trabajo No. 9204. Morrison, C.J. (1990). Market Power, Economic Profitability and Productivity Growth Measurement: An Integrated Structural Approach. National Bureau of Economic Research. Working Paper No. 3355.

[107]


[108]

Modelo matemático para un vehículo aéreo no tripulado de ala fija...

Pavitt, K. (1984). Sectoral Patterns of Technical Change: Towards a taxonomy and theory. In: Science Policy Research 13 pp. 343-373. Sawhney, P.K. & Sawhney, B.L. (1973) Capacity-Utilization, Concentration, and Price-Cost Margins: results on indian industries. In: The Journal of Industrial Economics, vol. XX1, No. 2 (April). Shapiro, M.D. (1987) Measuring Market Power in U.S. industry. National Bureau of Economic Research. Working Paper No. 2212. Shepherd, W.G. (1972). The Elements of Market Structure. In: The Review of Eonomics, vol.54, No1 (Feb.) pp25-37.

Revista Tecnológicas


Hacia la mejora en Colombia

del secado mecánico del café

Jhony Mauricio Gutiérrez Flórez1 Henry Copete López2

Resumen En este trabajo se presenta una revisión y análisis del estado del arte de las tecnologías de secado mecánico de café y potenciales acciones para incrementar la eficiencia. Además, se plantea la importancia de utilizar el alcohol carburante obtenido a partir de los subproductos del proceso del beneficio húmedo del grano, pulpa y mucílago, como una opción para la mejora en la emisión de partículas y dióxido de carbono a la atmosfera con respecto a los sistemas de secado mecánico convencionales en Colombia.

Palabras Clave Café, Secado mecánico, Alcohol carburante.

Abstract This work is a review and analysis of the state of art of mechanical technologies for the coffee drying and potential actions to increase the efficiency. Also, it describes the importance to use alcohol as fuel, which could be obtained from subproducts of the humid benefit

1 Ingeniero Mecánico y estudiante de Maestría en Gestión Energética Industrial. Grupo GITER. Instituto Tecnológico Metropolitano. Investigador. jhonygutierrez@ itm.edu.co. 2 M.Sc. Ingeniero Mecánico. Grupo GITER. Instituto Tecnológico Metropolitano. Docente Investigador. henrycopete@itm.edu.co. Fecha de recepción: 25 de septiembre de 2009 Fecha de aceptación: 19 de noviembre de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[110]

Hacia la Mejora del Secado Mecánico del Café en Colombia

process of the grain, pulp and mucilage; this could be an option to improve carbon dioxide and particles emissions in comparison with conventional mechanics drying systems in Colombia.

Key Words Coffee, Mechanical drying, Alcohol fuel.

Revista Tecnológicas


Revista Tecnológicas

1. Introducción El beneficio del café es un proceso mediante el cual se obtiene café pergamino seco a partir de café cereza, en una relación en masa de 1 a 5 aproximadamente (Montilla, 2006) y resultando como subproductos de este proceso la pulpa y el mucílago (Montilla et al, 2008a; 2008b). El proceso comprende una serie de operaciones como clasificación, lavado, despulpado, remoción de mucílago y secado (Oliveros et al, 2007). De todas sus etapas la de mayor relevancia es el secado, que tiene como finalidad disminuir el contenido de humedad del café de 53% en base húmeda a un rango que oscile entre el 10% y 12% de humedad, apto para su comercialización (Roa et al, 1999). El secado asegura un mayor beneficio económico al productor debido a que el producto seco sufre poco o ningún deterioro si es bien almacenado, permite la conservación de la semilla por largos períodos de tiempo conservando su poder de germinación y adquiere un mayor valor agregado si se empaca al consumidor (Alvarado, 2004). La comercialización del café pergamino húmedo trae consigo daños irreparables para la calidad final del producto, afectando finalmente sus características en tasa y modificando sus propiedades organolépticas como sabor suave y amargor moderado (Puerta, 2008a; 2008b). En Colombia el secado del café se ha realizado tradicionalmente mediante dos métodos: el secado solar y el secado mecánico, existiendo la necesidad de realizar investigaciones buscando que estos procesos cada día sean más eficientes y menos contaminantes desde el instante en que se diseñan los equipos hasta la operación y mantenimiento de los mismos (Gutiérrez, 2008). El secado mecánico históricamente se ha realizado con diferentes combustibles como el carbón mineral, combustibles derivados del petróleo y subproductos del proceso como el cisco o cascarilla del café, este último es considerado el combustible más económico (Oliveros et al, 2009), pero presenta fuertes impactos ambientales

[111]


[112]

Hacia la Mejora del Secado Mecánico del Café en Colombia

principalmente por la emisión de partículas y CO2 que son mayores cuando se utilizan combustibles sólidos. La Federación Nacional de Cafeteros de Colombia ha venido realizando investigaciones en el proceso de beneficio de café con las cuales se han logrado desarrollos importantes como el módulo de beneficio ecológico de café y manejo de subproductos, el cual logra disminuir en más del 90% la contaminación producida por este proceso y se pueden aprovechar los subproductos provenientes de él (Fajardo & Sanz, 2004). Los resultados de investigaciones realizadas en el Centro Nacional de Investigaciones de Café, por (Calle, 1951) y recientemente por (Rodríguez, 2007), han demostrado que los residuos del beneficio del café como la pulpa y el mucílago se pueden utilizar como fuentes para la obtención económica de etanol anhidro. Tal afirmación se basa en el alto contenido que presentan dichos subproductos en azúcar, base para la producción de etanol. De hecho, los niveles de azúcar apreciados en éstos son incluso mayores que en otros vegetales utilizados para producir etanol combustible, como es el caso del maíz, pues de una tonelada de café cereza se podrían obtener hasta 19,24 litros de etanol. Este alcohol se podría utilizar para otros procesos en la producción del mismo grano, además, es una solución factible en la búsqueda de fuentes de energías renovables y sostenibles con menor impacto ambiental que las utilizadas actualmente en el secado de los granos, con esto el sector cafetero estaría adicionando mayor valor agregado al proceso. En este contexto, los autores consideran pertinentes las oportunidades de investigación y desarrollo de nuevas tecnologías eficientes para el sacado del café. Esta revisión hace parte del trabajo de investigación titulado “Secado de café con empleo de alcohol carburante obtenido de los subproductos del proceso de beneficio húmedo” de la Maestría en Gestión Energética Industrial del Instituto Tecnológico Metropolitano.

Revista Tecnológicas


Revista Tecnológicas

2. Secado

mecánico del café

En Colombia el secado del café se ha realizado tradicionalmente mediante dos métodos, el secado solar y el secado mecánico. En el primero se aprovecha la entalpía del aire y la radiación solar para sustraer la humedad del grano (Buitrago, 2008; Jurado, 2008), es recomendado para fincas con producciones anuales inferiores a 2.500 kg con una duración entre 7 Y 15 días dependiendo de las condiciones atmosféricas, lo que lo hace un método totalmente dependiente del clima, con la ventaja de ser económico, pero con dos grandes desventajas debido a que la época de cosecha coincide con la época de lluvias incrementando el tiempo de secado y que sólo puede utilizarse en fincas de pequeña producción, en bajo flujo de cosecha para fincas medianas y muy pocas veces en fincas de alta producción, porque de utilizarse se necesitaría de extensas áreas de secado, ya que la altura máxima de capa recomendada es de 3 cm (Oliveros et al, 2006). En el secado mecánico se utiliza una fuente externa de calentamiento para aumentar la temperatura del aire hasta 50°C e impulsarlo por un ventilador, generalmente centrífugo, a través de la capa o las posibles capas de grano provistas en las cámaras de secado y presecado, con una altura máxima por capa de 35 cm (Oliveros et al, 2009), hasta que se seque por extracción de humedad libre y difusión de humedad. Cuando la presión de vapor del agua en el grano es mayor que la presión de vapor del aire, ocurre la difusión de humedad o transferencia de masa desde el grano hacia el aire y viceversa, este proceso puede suceder hasta que el aire se sature y aumente su contenido de humedad relativa al 100%, (González, 2008). Entre los años 60 y 70’s el secador mecánico más popular en Colombia era el tipo Guardiola, este secador como el presentado en la Figura 1, posee un gran cilindro como cuerpo que gira continuamente con los granos de café en su interior, levantándolos hasta dejarlos caer por gravedad desde la parte superior, utilizando palas metálicas empotradas en la parte interna del cilindro. La

[113]


[114]

Hacia la Mejora del Secado Mecánico del Café en Colombia

transferencia de calor hacia los granos de café, se produce cuando éstos chocan con el aire caliente que entra al secador a través de un tubo perforado, coaxial al eje del cilindro y para facilitar la evacuación del aire húmedo también eran perforadas las paredes externas del cilindro.

Figura 1. Secador Tipo Rotativo “Guardiola”. Adaptado de (Pinhalense, 2009)

Este secador es recordado por la uniformidad en la humedad final que presentaba el café obtenido de él, lo que se traducía en una muy buena calidad, ya que todos los granos recibían casi el mismo tratamiento térmico por el hecho de que ellos se movían continuamente durante todo el proceso de secado. No obstante, estos secadores fueron sustituidos por los secadores de capa estática o silo secador, como resultado de varias investigaciones desarrolladas en este campo. La razón fundamental por la cual se cambiaron los secadores tipo Guardiola por los secadores de capa fija, fue estrictamente por consideraciones prácticas y económicas. De hecho, la inversión económica inicial para adquirir estos últimos secadores es muy inferior comparada con la inversión para los secadores del primer tipo, y aún mejor, los materiales para construirlos son propios de las regiones cafeteras reduciendo los costos de construcción y mantenimiento. El secado mecánico en Colombia utilizando silos secadores de capa estática, se realiza desde el año 1968, como resultado de

Revista Tecnológicas


Revista Tecnológicas

varias investigaciones desarrolladas por la disciplina de Ingeniería Agrícola de Cenicafé, para ello, se cumple el mismo principio de calentar el aire, el cual debe vencer la resistencia al paso de aire o presión estática que producen la masa de café a secar depositada en una cámara o silo y los equipos que conforman el sistema. El tiempo de secado está comprendido entre 18 a 30 horas, sin que las condiciones climatológicas lo afecten enormemente, comparado con el secado solar. Para conservar los estándares de calidad del café (Puerta, 2003; 2006a; 2006b), se deben utilizar equipos de combustión indirecta los cuales no permiten que los gases de combustión se mezclen con el aire de secado para evitar la contaminación del producto, es recomendado para producciones anuales superiores a 2,5 toneladas (Oliveros et al, 2009), situación que no ocurre en el secador mostrado en la Figura 2.

Figura 2. Componentes de un secador mecánico. Adaptado de (Estrada, 2009)

En general los secadores mecánicos constan de cuatro componentes principales: la cámara de secado y presecado, ventilador, intercambiador de calor y el sistema de combustión. A continuación se describe cada uno de ellos con sus principales parámetros de funcionamiento.

[115]


[116]

Hacia la Mejora del Secado Mecánico del Café en Colombia

2.1 Cámaras de secado operando adecuadamente y teniendo un buen sistema de ventilación que cumpla con los caudales de aire necesarios, se puede obtener un secado de buena calidad que cumpla con las normas para la comercialización del café (Orozco & Bedoya, 2007). Esto no siempre se cumple por varias razones técnicas y de operación, las cuales no siempre conducen el proceso en forma satisfactoria, ya que continuamente se presentan problemas que concluyen en la no uniformidad final de la humedad del café. En los primeros secadores de capa estática, desarrollados en los años 60’s se presentaban altos gradientes de humedad, con diferencias hasta de 13% para una misma capa de granos. Por eso, con el fin de uniformizar la humedad final del producto en los secadores de café de capa estática, se invirtió la dirección del flujo del aire de secado en el silo secador de capa estática, atravesando la capa de granos en dos direcciones, de arriba hacia abajo y viceversa como se muestra en la Figura 3 a). Posteriormente, se pensó en la disminución de los costos de adquisición de estos equipos y se obtuvo un nuevo tipo de secador llamado secador vertical de 2 pisos, generando un secador más sencillo que el anterior como se muestra en la Figura 3 b). Este secador es más económico porque ocupa menos área y porque se disminuyó el número de compuertas para invertir la dirección del flujo del aire, sólo de abajo hacia arriba para las cámaras de presecado y en las dos direcciones en la cámara de secado. La otra solución para tratar de mejorar los problemas de desuniformidad en la humedad final del café, fue adicionarle una nueva capa, un nuevo piso al secador vertical de 2 pisos, dando paso al secador de 3 pisos o tres capas con inversión del flujo del aire de secado sólo en el piso inferior como puede observarse en la Figura 3 c). Este último diseño de cámaras de secado facilita, en parte, la dificultad de obtener café uniforme y es hoy el secador con más ventajas porque es económico y tiene óptimos resultados si se opera con capas de café suficientemente delgadas de 25 cm por cámara de secado y un caudal de aire recomendado de 100 m3/min por

Revista Tecnológicas


Revista Tecnológicas

tonelada de café pergamino seco (Roa, 2004). Además, bajando las capas de grano ordenadamente y finalmente realizando las inversiones del aire en la cámara de secado, se puede obtener café con una humedad dentro del rango deseado para su comercialización.

Figura 3. Cámaras de secado de capa fija. Adaptado de (Gutiérrez, 2008)

Otra solución para disminuir los gradientes de humedad, es tener cámaras de secado cilíndricas en las cuales se adapta un sistema que permite revolver el café en su interior por medio palas agitadoras acopladas a un eje central que atraviesa las cámaras de secado queriendo volver al principio del secador Guardiola. Con este tipo de cámaras de secado con rotación manual o mecánica, se disminuye la posible aparición de frentes de secado en la capa de granos de café, pero se dificulta en parte el proceso productivo, porque se presentan granos mordidos o trillados dentro de las cámaras de secado, los cuales son catalogados como uno de los catorce defectos del café.

2.2 Ventiladores Los ventiladores más apropiados para el acondicionamiento de productos agrícolas son los ventiladores centrífugos porque son de alto rendimiento y trabajan a altas presiones.

[117]


[118]

Hacia la Mejora del Secado Mecánico del Café en Colombia

Estos dispositivos son considerados el corazón del secador mecánico porque de él depende que el sistema tenga el caudal de aire necesario a la presión requerida para satisfacer las pérdidas de presión estática de cada componente del sistema: intercambiador de calor, capa de granos de café, ductos y compuertas para eventuales cambios en la dirección del flujo de aire. El secado mecánico aprovecha las propiedades físicas del café, para evitar exceder los requerimientos de potencia mecánica en el motor que acciona el ventilador ya que su espacio intergranular es amplio 45% del volumen total (espacio libre entre granos de café para el paso del aire de secado) y posee una gran área de la superficie de los granos, 780 m2 por cada m3 de café pergamino seso, facilitando el paso del aire de secado a través de los granos y permitiendo el intercambio de energía térmica y de humedad. De todos los factores que inciden en el secado mecánico el de mayor peso es la correcta selección e instalación del ventilador; de esta manera, es necesario determinar con exactitud el paso del caudal específico de aire de secado a través de la masa de café que se desea secar. El valor recomendado es de 100 m3/min por tonelada de café pergamino seco (Roa, 2004), ya que este flujo de aire caliente es el encargado de suministrarle la energía térmica a las capas de café para que el proceso de evaporación se inicie y se pueda evacuar el vapor de agua que resulta. Económicamente es rentable controlar el caudal de aire de secado entregado por el ventilador, pues un flujo de aire deficiente en el sistema de secado, haría que los granos resultaran finalmente con altas discrepancias en el contenido final de humedad, trayendo consigo granos flojos con humedad superior al 14% o granos sobresecos con humedad menor al 10%, incurriendo en 2 de los 14 defectos del café e incrementando el tiempo de secado. En el caso contrario, si el caudal de aire es mayor al recomendado, habría exceso de energía térmica mal aprovechada, lo cual incrementaría la demanda de potencia del ventilador, aumentando los costos de producción por secado y haciendo el proceso no tan atractivo para el productor.

Revista Tecnológicas


[119]

Revista Tecnológicas

La otra variable de importancia es la pérdida de presión estática que se da con el paso del aire a través de la masa de granos de café depositada en las cámaras del secador. Por medio de trabajos experimentales desarrollados (Roa et al, 1999), se pudo plantear una ecuación en función de la humedad del grano, con la cual se puede determinar el caudal específico de secado como función de la pérdida de presión específica para café pergamino seco.

Q ∆P = (9,523 − 0,0476 M ) A ∆L

0 , 676

(1)

Donde: Q : Caudal de aire, (m3/min) A : Área transversal al flujo de café, (m2) M : Contenido de humedad del café, (%) ΔP: Caída de presión en secciones distantes en L, (cm c.a.) ΔL: Distancia entre mediciones de la pérdida de presión, (m) Despejando la pérdida de presión específica de la ecuación 1, se puede determinar la presión estática que debe generar el ventilador en el sistema sólo para que el aire de secado atraviese la capa de granos de café que se desea secar, sin tener en cuenta las pérdidas de presión que generan los demás componentes del sistema.

Q ∆P A = ∆L 9,523 − 0,0476 M

1, 4793

(2) Para el diseño de ventiladores centrífugos existen varias metodologías y algoritmos de diseño como el aplicado por (Díaz, 1994) y recientemente por (Gutiérrez, 2008), como una herramienta de diseño por (Bedoya, 2007) el cual sigue la metodología propuesta por (Orozco, 1995). Este algoritmo utiliza un método iterativo que combina los criterios de varios autores como (Masana, 1966;


[120]

Hacia la Mejora del Secado Mecánico del Café en Colombia

Church, 1975; Osborne, 1982). También explica cuidadosamente los cálculos necesarios para establecer las dimensiones del rotor, la voluta, la transmisión de potencia (Romero, 1998), entre otras a partir de las especificaciones de diseño. Las curvas características de los ventiladores centrífugos se pueden determinar utilizando procedimientos reportados por (Orozco, 1996) o para el caso específico del café siguiendo la metodología descrita por (Gutiérrez, 2008). Gran parte de los ventiladores centrífugos utilizados para el secado del café en el país están siendo construidos en talleres rurales, empleando plantillas existentes de modelos elaborados con anterioridad, los cuales no garantizan las condiciones de presión estática y caudal de aire requeridas en los sistemas y reportados en la Figura 4, trayendo consigo no tan buenos resultados, además, éstos no satisfacen las características geométricas de un diseño apropiado, por lo que de allí se desprenden todos los problemas de funcionamiento los cuales van en detrimento de la eficiencia total del proceso.

Figura 4. Curva característica de un ventilador en un sistema de secado. Fuente (Gutiérrez 2008)

Revista Tecnológicas


Revista Tecnológicas

Con la metodología de diseño y construcción para ventiladores centrífugos utilizados en el secado mecánico del café desarrollada por (Gutiérrez, 2008) en Cenicafé, se logró una reducción en el costo de adquisición de éstos dispositivos mayor al 40%, cabe resaltar que los ventiladores construidos tienen una eficiencia mayor al 63%, valor que logran muy pocos ventiladores utilizados en esta labor. Para mejorar la eficiencia neumática de los ventiladores construidos, esta metodología utiliza un algoritmo de diseño mediante un aplicativo en Excel, con 18 variables de entrada, entre ellas, las más importantes: caudal y presión estática, el cual mediante iteraciones entrega 64 variables de salida, entre las que se destacan, la velocidad de giro y la potencia del motor, como todas las dimensiones de las piezas del ventilador; con estas dimensiones es parametrizado un prototipo digital en el software CAD Inventor, donde se obtienen los planos, para luego realizar un análisis de elementos finitos y determinar el material y los espesores respectivos.

2.3 Intercambiadores de calor los Intercambiadores de calor utilizados actualmente para secado mecánico del café tienen un bajo nivel de eficiencia, con valores desde 30% para los equipos construidos artesanalmente en mampostería por talleres rurales hasta 60% para los dispositivos fabricados por la industria nacional. Ambos tipos de intercambiadores de calor están construidos con materiales diversos, presentan diferentes geometrías y utilizan varios combustibles entre los que se destacan: el cisco, el carbón mineral, el coque, el ACPM, el gas natural o el gas propano (González, 2008). Estos dispositivos también presentan una baja eficiencia neumática, debido a los diferentes diseños que producen grandes pérdidas de presión para el sistema de secado, en ocasiones demandan entre 35 a 55% de la presión que entrega el ventilador a un caudal de aire determinado, es decir, en ocasiones requieren mayor presión que la capa de granos de café. (Gutiérrez, 2008). En la Figura 5 se presenta el comportamiento de la presión estática

[121]


Hacia la Mejora del Secado Mecánico del Café en Colombia

contra el caudal para nueve intercambiadores de calor empleados en el secado de café en Colombia. INTERCAMBIADORES DE CALOR 14

PRESIÓN ESTÁTICA [cm.c.a.]

[122]

12 10 8 6 4 2 0 0

50

100

150

200

250

300

350

400

450

500

CAUDAL [m3/min] A

B

C

D

E

F

G

H

I

Figura 5. Curvas características de algunos intercambiadores de calor. Fuente (Gutiérrez, 2008)

De los intercambiadores de calor analizados, los que presentan menores pérdidas de presión poseen baja eficiencia térmica (entre 30% a 40%), la cual se refleja en el alto consumo de combustible incrementando los costos de secado, caso contrario de los equipos que poseen eficiencia térmica aceptable, influyendo también negativamente en el costo de secado por generar altas pérdidas de presión, que se traducen en un requerimiento de potencia mayor para el motor del ventilador, por lo que se requiere del estudio de nuevas tecnologías de intercambiadores de calor aplicables al secado de café en Colombia.

2.4 Sistemas de combustión normalmente son construidos en láminas de acero para la quema de combustibles sólidos como leña, carbón o el cisco de café

Revista Tecnológicas


Revista Tecnológicas

en sistemas de secado con fuego directo o indirecto. Los sistemas de fuego indirecto se componen principalmente por una cámara de combustión, puerta de abastecimiento, parrillas y ceniceros con este sistema se calienta el aire en un intercambiador de calor a las condiciones necesarias en la cámara de secado y en algunos casos se cuenta con ciclones antes de evacuar los gases de combustión por la chimenea a la atmósfera. En los secadores de fuego directo disminuye el tiempo de secado pero no utiliza intercambiador de calor ni chimenea y se calienta directamente la cámara de secado sin garantizar el no contacto de la carga a secar con los humos, obteniéndose un café de baja calidad y condiciones no aptas en el lugar del proceso como lo evidencia la Figura 6. Estos combustibles sólidos son utilizados debido a la diferencia en precios con los combustibles derivados del petróleo bien sean líquidos o gaseosos sin importar las consecuencias sobre el medio ambiente. El “Intergovermental Panel on Climate Chance – IPCC” reporta los factores de emisión de diferentes gases de efecto invernadero para diferentes combustibles empleados en los procesos industriales de la economía mundial. En la Tabla 1 se presentan los factores de emisión de dióxido de carbono para diferentes combustibles, donde se puede evidenciar el impacto positivo al poder emplear el alcohol carburante como combustible en el proceso de beneficio en Colombia. Es conveniente y totalmente pertinente para la región y el país la apropiación y desarrollo tecnológico de sistemas de combustión de alta eficiencia, amigable con el medio ambiente que disminuya la brecha tecnológica existente en los sistemas de generación de calor en secadores de café.

[123]


[124]

Hacia la Mejora del Secado Mecánico del Café en Colombia

Figura 6. Secador de combustible sólido con fuego directo. Fuente (Moulin, 2008) Tabla 1. Factor de emisión de CO2 para diferentes combustibles Combustible Carbones bituminosos

Factor de emisión tCO2 /TJ 96.1

Carbón coque

94.6

Fuel Oíl

77.4

Gasolina

69.3

GLP

63.1

Gas natural

56.1

Alcohol carburante

2.0

3. Oportunidades de mejora en el secado

mecánico de

café

el secado es la etapa con mayor participación en los costos del beneficio del café, por ello se han adelantado investigaciones con el fin de disminuir el costo de este proceso, utilizando tecnologías

Revista Tecnológicas


Revista Tecnológicas

como el secador intermitente de flujos concurrentes (aire y granos), con mayor eficiencia térmica que los secadores de capa fija y con inversión de capa, utilizados actualmente en la fincas colombianas (Estévez & Reyes, 1990; Rivera & Vélez, 1997). Se ha evaluado el empleo de combustibles como el cisco del café, de relativo bajo costo. También se ha desarrollado tecnología para aprovechar más eficientemente la energía térmica (Buitrago, 1991; Álvarez & Martínez, 2007) y eléctrica durante el secado y metodologías para el diseño de ventiladores con mejores especificaciones técnicas que los utilizados actualmente, generalmente fabricados en talleres veredales. Con los esfuerzos anteriores se ha avanzado en el aprovechamiento de la energía utilizada en el secado, sin embargo, con los combustibles empleados (cisco, leña del café y carbón mineral, los más utilizados) no se ha logrado disminuir notoriamente el impacto ambiental generado por la emisión de CO2 y de partículas. Con el propósito de contribuir a la disminución del costo del secado del café y al impacto ambiental generado durante el calentamiento del aire, es factible diseñar un dispositivo que utilice alcohol carburante, obtenido a partir de los subproductos del café, pulpa y mucílago. Esta nueva tecnología, además de ser innovadora, podría aprovechar el mucílago que con frecuencia en las fincas es vertido a las fuentes de agua generando graves problemas ambientales. Adicionalmente podría contribuir también a disminuir el calentamiento global. Según (Rodríguez, 2007), el 64,31% de la materia seca del mucílago y el 17,3% de materia seca de la pulpa son azúcares reductores y los estudios han demostrado que de 100 kg de café cereza, si se aprovecha la pulpa y el mucílago resultante se pueden generar 1,924 litros de etanol. Es conveniente señalar que la producción de alcohol carburante a partir del café no implicaría en ningún caso aumentar las zonas de cultivo, por lo que la rentabilidad y sostenibilidad ambiental de este proceso no presentan riesgo adicional para la

[125]


[126]

Hacia la Mejora del Secado Mecánico del Café en Colombia

industria cafetera. Se calcula en 24 millones de galones por año la producción de etanol si se utilizara la totalidad del mucílago y la pulpa resultantes de exportar once o doce millones de sacos anuales de café. Actualmente la Federación Nacional de Cafeteros de Colombia ha destinado recursos para la construcción de plantas piloto de producción de etanol, que serán ubicadas en aquellas zonas que presentan mayores índices de producción, con el objetivo de aprovechar al máximo las posibilidades del proyecto. Cuatro décadas atrás, cuando empezó la utilización masiva de los computadores, se han usado modelos matemáticos para describir el proceso de secado y enfriamiento de los granos y desde entonces se consideran estos procesos como buenos ejemplos de la gran utilidad práctica de la simulación matemática. (Parra et al, 2008a) implementó en lenguaje de programación Microsoft Visual Basic, dos programas de simulación matemática para el secado de café, y tomó como base los modelos de Thompson (Thompson et al, 1968) y de la Universidad del Estado de Michigan (MSU) (Bakker, 1974); para ello utilizó los parámetros determinados por (Domínguez et al, 1983; Trejos, 1986; Jaramillo, 1989; Montoya, 1989; López & Ospina, 1990; Ospina, 1990; Alzate, 1992; Montenegro, 1992; Roa et al, 1999), para la simulación matemática del secado de café pergamino. Ambos programas estiman el funcionamiento de los secadores mecánicos de café existentes en Colombia y al comparar los resultados obtenidos de la simulación, con los resultados experimentales obtenidos en Cenicafé, Figura 7, se notó que los modelos predicen adecuadamente el secado del café pergamino.

Revista Tecnológicas


Revista Tecnológicas

Figura 7. Comparación de los resultados obtenidos experimentalmente (Monte1992) con los obtenidos por los programas de simulación desarrollados con base en los modelos de Thompson y MSU por (Parra et al, 2008a)

negro,

Con base en los resultados de la evaluación de los programas, (Parra et al, 2008b) implementó un único programa de simulación para el secado de café pergamino, llamado SECAFE, el cual fue utilizado para determinar las condiciones óptimas de operación para cada uno de los secadores mecánicos existentes y poder proporcionar recomendaciones para su manejo eficiente, con el fin de obtener café pergamino seco con un contenido de humedad final aceptado para la comercialización y predecir el tiempo de secado, la eficiencia térmica del proceso y el comportamiento del grano durante el secado. Estos estudios previos pueden ser optimizados mediante la simulación numérica que brinda la mecánica de fluidos computacional por medio de diferentes programas entre ellos el FLUENT, que permitirá predecir el comportamiento fluido-dinámico de los diferentes sistemas del secador mecánico usando alcohol carburante como parte del proyecto “Secado de café con empleo de alcohol carburante obtenido de los subproductos del proceso de beneficio húmedo”.

[127]


[128]

Hacia la Mejora del Secado Mecánico del Café en Colombia

4. Conclusiones •

El principio del secado mecánico de café consiste en calentar una corriente de aire a una temperatura promedio de 50°C para facilitar la transferencia de calor y masa entre los granos de café y el aire caliente, de esta forma se reduce el contenido de humedad de un 53% a un 10% en promedio. Para esto, a través de la historia se han utilizado diferentes sistemas térmicos compuestos básicamente por una cámara de secado, un ventilador, un intercambiador de calor y un sistema de combustión. En cada uno de estos subsistemas se han realizado estudios, muchos de ellos semi – empíricos y otros con mayor adelanto tecnológico, pero en cada uno de ellos es necesario seguir investigando y desarrollando tecnologías eficientes y amigables con el medio ambiente.

• Dada la necesidad mundial de utilizar fuentes de energía renovable con menores impactos ambientales, la utilización de etanol obtenido de los subproductos del proceso de beneficio húmedo del café se presenta como una buena alternativa, sin que esto implique aumentar las zonas de producción, por lo que la rentabilidad y sostenibilidad ambiental de este proceso no presentan riesgo para la industria cafetera. Estas tecnologías de aprovechamiento energético renovable aún no han sido desarrollados e implementados en Colombia por lo que se estudiando numérica y experimentalmente por parte de los autores.

5. Bibliografía Alzate, J. G., 1992. Optimización operacional del silo-secador CENICAFE. Medellín: Departamento de Ingeniería Agrícola/ Universidad Nacional de Colombia. 240p. Tesis Ingeniero. Alvarado A., G., 2004. Atributos de calidad de la semilla de café de las variedades Colombia y Tabi, Avance Técnico No.324, Cenicafé, Chinchiná-Caldas.

Revista Tecnológicas


Revista Tecnológicas Álvarez H., J.R; Martínez T., D.J., 2007. Aprovechamiento de la energía calórica de estufas campesinas para el secado del café, Avance Técnico No.366, Cenicafé, Chinchiná-Caldas. Bakker A., F. W.; Lerew, L. E.; De Boer, S. F.; Roth, M. C., 1974. Grain drying simulation. Michigan: Research report from de Michigan State University East Lansing-MI. 80p. Bedoya L., F., 2007. Metodología de diseño de un ventilador centrífugo utilizando programas computacionales (Excel, Inventor 7 y Visual Nastran). Pereira, Colombia: Proyecto de grado, F.I.M – U.T.P. Buitrago, O., 1991. Implementación del secado mecánico de café en carros secadores. Bogotá: Departamento de Ingeniería Agrícola. Universidad Nacional de Colombia. 184p. Tesis Ingeniero. Buitrago B., C.M., 2008. Medición de humedad en línea en secado mecánico de café, OK Café. Informe Anual de Actividades, Octubre de 2.007 a Septiembre de 2.008, Cenicafé, Chinchiná-Caldas. Calle V., H., 1951. Producción de alcohol con los desperdicios del café. Cenicafé, Chinchiná-Caldas. 2(22): 33-44. Church, A.M. 1975.Bombas y maquinas soplantes centrifugas: su teoría, cálculo, construcción y funcionamiento. La Habana, Cuba. Instituto cubano del libro. Díaz A., A., 1994 Diseño, Construcción y Pruebas de un Ventilador Centrífugo. Pereira, Colombia: Proyecto de grado, F.I.M – U.T.P. Domínguez, J. Parra, A.; Villa, L. G., 1983. Simulación matemática y optimización del secado de productos agropecuarios con aire natural y energía solar. Revista Ingeniería e Investigación, v.2, n.3, p.57-62. Estévez, J. P.; Reyes, V. R., 1990. Secador por deshumidificación de aire e inversión de flujo, diseño y evaluación. Bucaramanga: Facultad de Ingeniería Mecánica. Universidad Industrial de Santander. 255p. Proyecto Grado. Fajardo P., I.F.; Sanz U., J.R. 2004. La calidad física y el rendimiento del café en los procesos de beneficio tradicional y beneficio ecológico (Becolsub), Avance Técnico No.323, Cenicafé, ChinchináCaldas. González, C.A., 2008. Control de temperatura y caudal de aire para optimización del secado mecánico de café. Cali, Colombia: Proyecto de grado, Universidad del Valle, Facultad de Ingeniería, 86 P.

[129]


[130]

Hacia la Mejora del Secado Mecánico del Café en Colombia

Gutierrez, J.M., 2008. Metodología para la construcción de ventiladores centrífugos para secado mecánico de café en talleres rurales. Pereira, Colombia: Proyecto de grado, Universidad Tecnológica de Pereira, Facultad de Ingeniería Mecánica, 122 P. Jaramillo, B. G., 1989. Propiedades físicas del café pergamino. Bogotá: Departamento de Física. Universidad Nacional de Colombia. 190p. Tesis M.Sc. Jurado CH., J.M., 2008. Medición de humedad en línea para secado solar Gravimet. Informe Anual de Actividades, Octubre de 2.007 a Septiembre de 2.008, Cenicafé, Chinchiná-Caldas. López, J.; Ospina, J., 1990. Ecuación de capa delgada para el café pergamino. Cenicafé: Chinchiná. 183p. Informe de año Sabático. Masana T., J., 1966. Ventiladores y Turbocompresores. Barcelona: Marcombo. Montenegro, J. Y., 1992. Secador eléctrico estático para café de baja capacidad, inversión de flujo y recirculación de aire. Bogotá: Departamento de Ingeniería Agrícola. Universidad Nacional de Colombia. 161p. Tesis Ingeniero. Montilla P., J. 2006. Caracterización de algunas propiedades físicas y factores de conversión del café. Manizales, Colombia, Universidad de Caldas. Facultad de Ciencias Agropecuarias, 107 P. Montilla P., J.; Arcila P., J.; Aritizabal L., M.; Montoya R., E.C.; Puerta Q., G.I.; Oliveros T., C.E.; Cadena G., G. 2008a. Propiedades físicas y factores de conversión del café en el proceso de beneficio, Avance Técnico No.370, Cenicafé, Chinchiná-Caldas. Montilla P., J.; Arcila P., J.; Aritizabal L., M.; Montoya R., E.C.; Puerta Q., G.I.; Oliveros T., C.E.; Cadena G., G. 2008b. Caracterización de algunas propiedades físicas y factores de conversión del café durante el proceso de beneficio húmedo tradicional, Artículo revista Cenicafé, 59(2):120-142, Cenicafé, Chinchiná-Caldas. Montoya, E. C., 1989. Optimización operacional del secador intermitente de flujos concurrentes para café pergamino. Pereira: Facultad de Ingeniería Industrial. Universidad Tecnológica de Pereira, 116p. Tesis M.Sc. Moulin, T., 2008. Estruturas e maquinários para o beneficiamento do café. Oliveros, C.E.; Ramirez, C.A.; Sanz, J.R.; Peñuela, A.E., 2006. Secador solar de túnel para café pergamino, Avance Técnico No.353, Cenicafé, Chinchiná-Caldas.

Revista Tecnológicas


Revista Tecnológicas Oliveros, C.E.; Ramirez, C.A.; Sanz, J.R.; Peñuela, A.E., 2007. Separador hidráulico de tolva y tornillo sin fin. Avance Técnico No.360, Cenicafé, Chinchiná-Caldas. Oliveros, C.E.; Sanz, J.R.; Ramirez, C.A.; Peñuela, A.E., 2009. Aprovechamiento eficiente de la energía en el secado mecánico del café, Avance Técnico No.380, Cenicafé, Chinchiná-Caldas. Orozco H., C.A., 1995. Conceptos acerca del diseño de ventiladores centrífugos, Revista Scientia Et Technica No. 1. Pereira, Colombia: UTP. Orozco H., C. A., 1996. Determinación de las curvas de comportamiento de un ventilador centrífugo a partir de datos de catálogo y de laboratorio, Revista Scientia et Technica No. 16, Pereira, Colombia: UTP. Orozco, C.A.; Bedoya L., F., 2007. Cálculo del flujo másico y caudal de aire para un ventilador utilizado en silos para secado para del café. , Revista Scientia Et Technica No.35. Pereira, Colombia: UTP. Osborne, W.C., 1982. Fans. England: Pergamons Press Ltd, Headington Hill Hall, Oxford OXE OBW. Ospina, J.E., 1990. Silo Secador CENICAFE. Informe de año sabático. Federación Nacional de Cafeteros de Colombia. Chinchiná: Centro Nacional de Investigaciones de Café “Pedro Uribe Mejía”. 57p. Parra A.; Roa G.; Oliveros C.E., 2008a. SECAFÉ Parte I: Modelamiento y simulación matemática en el secado mecánico de café pergamino. Revista Brasileira de Engenharia Agrícola e Ambiental. v.12, n.4, p.415–427. Parra A., Roa G., Oliveros, C.E., 2008b. SECAFÉ Parte II: Recomendaciones para el manejo eficiente de los secadores mecánicos de café pergamino. Revista Brasileira de Engenharia Agrícola e Ambiental. v.12, n.4, p.428–434. Puerta G.I., 2003. Especificaciones de origen y buena calidad del café de Colombia, Avance Técnico No.316, Cenicafé, Chinchiná-Caldas. Puerta G.I., 2006a. Buenas prácticas agrícolas para el café, Avance Técnico No.349, Cenicafé, Chinchiná-Caldas. Puerta, G.I., 2006b. La humedad controlada del grano preserva la calidad del café, Avance Técnico No.352, Cenicafé, Chinchiná-Caldas. Puerta, G.I., 2008a. Riesgos para la calidad y la inocuidad del café en el secado, Avance Técnico No.371, Cenicafé, Chinchiná-Caldas. Puerta, G.I., 2008b. Riesgos para la calidad por la comercialización de café pergamino húmedo, Avance Técnico No.373, Cenicafé, Chinchiná-Caldas.

[131]


[132]

Hacia la Mejora del Secado Mecánico del Café en Colombia

Rivera, O.L.; Vélez P.A., 1997. Evaluación de una secadora de café de 12 arrobas (para pequeños cafeteros). Medellín: Corporación Universitaria Lasallista, Ingeniería de alimentos, 166p. Trabajo Grado. Roa, G., Oliveros, C.E.; Álvarez, J.; Ramírez, C.A.; Sanz, J.R.; Dávila, M.T.; Álvarez, J.R.; Zambrano, D.A.; Puerta, G.I.; Rodríguez, N, 1999. Beneficio Ecológico del Café, Primera edición, Cenicafé, Chinchiná-Caldas. 160-179 P. Roa, G., 2004. “El secado solar y mecánico del café pergamino en Colombia” Reunión Nacional de Especialistas en Beneficio de Café para Unificación de Criterios sobre el Beneficio Ecológico, Cenicafé, Chinchiná, Noviembre 23-26. Rodríguez, N., 2007. Producción de alcohol carburante a partir de los subproductos de café. Informe Anual de Actividades, Octubre de 2.006 a Septiembre de 2.007, Cenicafé, Chinchiná-Caldas. 37-50 P. Romero, C.A., 1998. Diseño de árboles para ventiladores, Revista Scientia Et Technica No. 4. Pereira, Colombia: UTP. Thompson, T. L.; Peart, R. M.; Foster, G. H., 1968. Mathematical simulation of corn drying – A new model. Transaction of the ASAE, v.11, n.4, p.582-586. Trejos, R. R., 1986. Determinación de las curvas de humedad relativa de equilibrio y del calor latente de vaporización del café pergamino y trillado. Cali: Universidad del Valle, Departamento de Procesos Químicos y Biológicos, 171p. Tesis Ingeniería.

Páginas de Internet J.M. Estrada S.A. Ferrería Amagá. Disponible en: http://www.jmestradasa.com.co/e_cafe.html. Consultada en: 17/09/2009. Máquinas Agrícolas Pinhalense. PINHALENSE. Disponible en: http://www.pinhalense.com.br/site/espanhol/index.htm. 17/09/2009.

Consultada

en:

Revista Tecnológicas


Localización

y orientación de equipos móviles

usando color Juan Sebastián Botero Valencia1 Edilson Delgado Trejos2

Resumen Uno de los mayores problemas en el desarrollo de interfaces móviles autónomas está ligado al desarrollo del sistema de localización. Es fundamental que se conozca la posición del móvil para cerrar el lazo de control sobre la estrategia que se use en la planeación de trayectorias. En este trabajo se presenta un algoritmo que individualiza dos conjuntos de Robots Móviles además de orientar y localizar cada móvil en el plano. Con este fin, se propone el uso de técnicas de segmentación por umbralización binaria en conjunto con operaciones lógicas. El sistema está compuesto por una cámara digital periférica que observa la totalidad del plano y un conjunto de Móviles que son controlados por un sistema maestro. Los móviles en su construcción física sólo cuentan con dos posibles direcciones de desplazamiento y rotación sobre su eje. A partir del estudio, se obtiene un algoritmo que identifica por equipos dos conjuntos de móviles y obtiene la posición y orientación individual. El sistema es complementado con una estrategia de predicción que detecta una posible colisión. Finalmente, se obtiene un sistema que identifica de forma cartesiana dos conjuntos de Robots Móviles y coordina su desplazamiento.

1 Ingeniero Electrónico. Estudiante de Maestría en Automatización y Control Industrial. Auxiliar de investigación. Instituto Tecnológico Metropolitano. Email: juanbotero@itm.edu.co 2 Ingeniero Electrónico. M. Sc. en Automatización Industrial. Ph. D. en Ingeniería LI Automática. Académico Investigador del Centro de Investigación, Instituto Tecnológico Metropolitano. Email: edilsondelgado@itm.edu.co Fecha de recepción: 25 de septiembre de 2009 Fecha de aceptación: 17 de noviembre de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[134]

Localización y orientación de equipos móviles usando color

Palabras clave Color, umbralización, robot móvil, segmentación, trayectoria.

Abstract One of the biggest problems in the development of autonomous mobile interfaces is linked to the development of tracking system. It is essential to know the position of the mobile to close the control loop on the strategy used in path planning. This paper presents an algorithm that identifies two sets of mobile robots as well as guiding and locating each mobile in the plane. To this end, we propose the use of segmentation by thresholding techniques in conjunction with binary logic operations. The system consists of a peripheral digital camera that observes the entire plane and a set of mobility, which are controlled by a master system. Mobile Robots in its physical construction are two possible directions of movement and rotation on its axis. From the study, was obtained an algorithm that identifies two sets of mobile equipment and obtains the position and orientation. The system is supplemented by a prediction strategy that detects a possible collision. Finally, we get a system that identifies two sets of Mobile Robots on a cartesian plane and manages their movement.

Keywords Color, thresholding, mobile robot, segmentation, trajectory.

Revista Tecnológicas


Revista Tecnológicas

Introducción La robótica móvil a despertado un interés relativamente reciente respecto al desarrollo de problemas de inteligencia colectiva, muchos problemas comunes se resuelven de manera más eficiente si se enfrentan de forma paralela como lo hacen los sistemas construidos con inteligencia de enjambre (Shoham & Leyton-Brown, 2009). En general se puede decir que los elementos individuales de la inteligencia colectiva pueden ser más simples, lo que facilita su construcción. Inspirados en los sistemas biológicos, se observa como un gran conjunto de unidades simples organizadas resuelven un problema complejo a partir de el desarrollo de un sistema de reglas (Minati & Pessa, 2007), también es posible que estos sistemas desarrollen las reglas que mejor se adapten a su entorno y que mejoren el sistema de control que inicialmente se planeó para ellos. Sin embargo, la dirección de elementos inteligentes que actúan en paralelo trae problemas de administración a los sistemas comunes de procesamiento serial. Un móvil que se desplaza en un plano, implica varios problemas para el sistema de control; en primer lugar su ubicación, es decir, que basándose en algún tipo de sistema de coordenadas el sistema de control conozca su posición, aparte de esto, el sistema de control debe conocer su orientación, un indicador que ayude a correlacionar las órdenes de movimiento con el desplazamiento real. Por si esto fuera poco, el sistema de control también debe conocer el espacio que el robot necesita para maniobrar. Para planear trayectorias se deben tomar en cuenta variables adicionales (tiempo de respuesta del sistema), que como se muestra en (Arias & León, 2007) puede implicar un tiempo tan alto, que haría imposible predecir una colisión con los móviles desplazándose a 0.3 m/s. Algunos sistemas de localización usan información relativa de la posición (Ortíz et al., 2008), el problema de estos es que obtienen la posición absoluta partiendo del conocimiento de la posición inicial y ciertas perturbaciones podrían desorientarlo totalmente. Por otra parte la construcción física de los móviles afecta el control que idealmente tendríamos sobre ellos

[135]


[136]

Localización y orientación de equipos móviles usando color

(Han et al., 2005), por eso es necesario adicionar al modelo de control algunas variables que podrían no ser determinísticas. Es necesario entonces desarrollar un sistema de posición que sea absoluto, y por eso se propone el uso de un sistema simple (periférico), de visión artificial, que permita observar todo el campo de trabajo de los robots móviles. En principio debe segmentar e individualizar cada Robot Móvil incluyendo una identificación del equipo al que pertenece además de ubicarlo correctamente en el espacio de trabajo. El sistema debe ser rápido, para reducir los problemas de predicción, y debe estimar el camino para cada móvil, teniendo en cuenta sus características físicas.

Materiales y métodos Conjuntos de prueba Dada la importancia de tener un conjunto de pruebas suficientemente reproducible, se decidió diseñarlo artificialmente para comprobar el rendimiento del algoritmo de segmentación y ubicación. Para ello se implementaron usando Flash MX® 20 secuencias de video. Cada fotograma es de 768 x 1024 píxeles a una tasa de 24 fotogramas por segundo, igual al obtenido por la cámara digital. En todas las secuencias de video, intervienen los ocho móviles desplazándose a través de una trayectoria planeada usando interpolaciones polinómicas entre diferentes puntos del plano de trabajo.

Selección del servomotor Aunque en esta fase del proyecto no fue necesario tener los prototipos totalmente construidos, era necesario determinar las características físicas del Robot Móvil, incluyendo el tipo y la marca de motores y las dimensiones. El servomotor que se escogió fue el mostrado en la Tabla 1. En este caso la decisión es muy importante, porque al determinar la velocidad máxima que el Robot Móvil puede desarrollar, se puede determinar la restricción espacial debida al tiempo en que el sistema se encuentra procesando la imagen.

Revista Tecnológicas


[137]

Revista Tecnológicas

Tabla 1. Características del servomotor Marca Voltaje PWM Velocidad Torque Peso Dimensiones

E-Sky DC 5V±1V Ciclo 20±1ms, Pulso Positivo 1~2ms Velocidad: 0.1S/60° 1.0 Kg/cm (VCC=5V) 7.5 g 22.8 × 11.5 × 20.8 mm

Robot Móvil: Características Maniobrabilidad La maniobrabilidad es la facilidad con la que un vehículo es dirigido. En el caso de la Robótica Móvil está ligada a la arquitectura implementada en el diseño del prototipo, y a la consideración de algunas variables físicas como el rozamiento de las ruedas. Para los robots en configuración diferencial con ruedas libres omnidireccionales las ruedas deben tener diseños especiales que eviten que el eje de rotación se desplace. Por ejemplo se sugiere el uso de ruedas Suecas o ruedas libres esféricas (Siegwart & Nourbakhsh, 2004).

Controlabilidad El concepto de controlabilidad está asociado a la habilidad de usar un sistema en todo su espacio de funcionamiento, usando un nivel de acción acotado. En otras palabras es la posibilidad de llevar el Robot Móvil de un estado inicial a otro estado final con una acción de control admisible. La controlabilidad no implica que el estado final sea estable, solo que se puede alcanzar a partir de cualquier estado inicial (Ollero, 2001).

Estabilidad La estabilidad en un Robot Móvil está asociada a la cantidad de fuerza necesaria para que pierda el equilibrio, bien sea estando en reposo o en movimiento. Aunque se puede pensar en el diseño


[138]

Localización y orientación de equipos móviles usando color

de estructuras tipo monociclo, el sistema de control sería innecesariamente complicada para la mayoría de aplicaciones. Se tiene entonces que el mínimo de llantas necesarias para mantener con facilidad la estabilidad en reposo y en movimiento son 3 (Ollero, 2001).

Segmentación Tomando en cuenta que el diseño de la cara superior de los Robots Móviles debe ajustarse a las reglas, se decidió seleccionar uno de los más comunes, teniendo en cuenta el tipo de segmentación que se implementó como se ve en la Figura 1.

R A N Figura 1. Vista superior de los móviles

El móvil contiene una sección superior a 3,5 cm x 3,5 cm de color amarillo. El color rojo es un identificador de la posición de juego de cada móvil. En nuestro caso el color rojo es información usada para identificar individualmente cada robot. El color negro se usa para ser eliminado en la etapa de segmentación. El algoritmo de segmentación usado, se encarga de crear una capa por cada móvil en el plano, es decir en cada capa creada, solo se observa el identificador individual de el robot Móvil correspondiente. Después de descomponer la matriz RGB y realizar una umbralización binaria sobre el fotograma podemos construir una tabla (Tabla 2) de verdad donde las salidas son las capas que se crean.

Revista Tecnológicas


[139]

Revista Tecnológicas

En el fotograma resultante se presentan varios objetos a considerar. Para seleccionar el objeto correcto se escogió como característica el área a identificar que en este trabajo como en (Botero & Delgado, 2009) es el triangulo que facilita particularmente el proceso de orientación del Robot Móvil. Tabla 2. Tabla de verdad segmentación. R

G

B

Color

0

0

0

Negro

0

0

1

0

1

0

0

1

1

0

1

M1

M2

M3

M4

M5

M6

M7

M8

Azul

0

0

0

0

1

1

1

1

Verde

1

0

0

0

1

0

0

0

1

Cian

0

1

0

0

0

1

0

0

0

Rojo

0

0

1

0

0

0

1

0

0

1

Magenta

0

0

0

1

0

0

0

1

1

1

0

Amarillo

1

1

1

1

0

0

0

0

1

1

1

Blanco

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

Se simplifican las funciones lógicas correspondientes a cada capa, y se obtienen las funciones de salida como se muestra en (1): M1 = R´GB´ + RGB´ M2 = R´GB + RGB´

(1)

M3 = RG´B´ + RGB´ M4 = RG´B + RGB´

M5 = R´GB´ + R´G´B M6 = R´GB + R´G´B

M7 = RG´B´ + R´G´B M8 = RG´B + R´G´B

Las operaciones lógicas dan como resultado una matriz binaria de tamaño m × n, (M1, M2, M3, M4, M5, M6, M7, M8,) en cada matriz como se había mencionado, se identifican varios objetos (crecimiento de regiones), y se efectúa una selección teniendo en cuenta su área. En la Tabla 3 se muestra la comparación de los


[140]

Localización y orientación de equipos móviles usando color

posibles objetos identificados y sus áreas. Es necesario destacar que es posible implementar otro tipo de umbralizaciones que permitan identificar un número mayor de Robots Móviles. Tabla 3. Proporción de objetos identificados Tipo de objeto

Área en función del lado

Área en porcentaje

Triangulo

23.63 %

Franja central

52.73 %

Triangulo y franja central

76.37 %

Usando las proporciones descritas en la Tabla 3 el algoritmo selecciona el área que corresponde al móvil que se espera identificar. Las proporciones son amplias para dar al algoritmo robustez a los problemas de adquisición del sistema.

Ubicación y orientación Después de tener identificado el triángulo asociado a cada Robot Móvil, la siguiente tarea consiste en obtener su posición y orientación basándose en el sistema de referencia que provee el campo de trabajo de la cámara como se muestra en la Figura 2.

Figura 2. Posicionamiento del Robot Móvil

Revista Tecnológicas


[141]

Revista Tecnológicas

Al obtener el centro del triángulo que segmenta el algoritmo descrito, no se obtiene el centro de masa del Robot Móvil, por eso es necesario realizar una transformación. Partiendo del modelo de vista superior mostrado en la Figura 3, donde c1= (x1, y1) corresponde al centro calculado en la fase de segmentación y c2= (x2, y2) corresponde al centro real del móvil necesario para desarrollar el modelo cinemático. Por tanto se tiene que determinar una matriz de transformación que desplace y rote el punto c2 al punto c1. Como los móviles se desplazan sobre un plano (2D), las matrices de traslación y rotación están dadas por (2). (2)

Donde (tx,ty) indican la magnitud de la traslación y θ el ángulo de rotación.

Figura 3. Medidas de la vista superior

En función de c1= (x1, y1) y tomando las medidas de forma simbólica se pueden obtener las matrices de transformación para trasladar el vector director encontrado en la fase de segmentación, al vector director real del móvil, las matrices se muestran en (3).


[142]

Localización y orientación de equipos móviles usando color

(3)

Donde α representa la longitud del lado del cuadrado mostrado en la Figura 3 (8 cm), y b representa la longitud de los catetos del triángulo identificado. En (3), T1 es la matriz que expresa traslación al origen, R1 la rotación inicial y T2 la traslación al centro de masa del Robot Móvil. Después de encontrar las matrices se obtiene la matriz de transformación general como se expresa en (4). T = T 2 R 1 T1

(4)

Evasión Cuando se conoce la dirección y la posición de un Robot Móvil se puede determinar la ecuación de la recta que seguirá. Como en este caso se trata de un sistema físico de procesamiento con restricciones, no se puede determinar una colisión simplemente con la intersección de dos rectas. Se debe entonces considerar el tiempo de procesamiento y la velocidad que el Robot Móvil puede desarrollar como se expresa en (5).

(5)

Revista Tecnológicas


[143]

Revista Tecnológicas

Donde v es la velocidad máxima que el Robot Móvil puede desarrollar, y t el tiempo máximo de procesamiento medido en Matlab® para segmentar y ubicar los móviles usando una cámara digital de 640x480 píxeles en un Procesador Pentium D a 3 GHz con 1.00 GB de RAM. Adicionalmente es necesario determinar la restricción debida a las dimensiones del Robot Móvil, es decir respetar el circulo que lo inscribe. Como se muestra en (6), es necesario desarrollar los algoritmos de forma simbólica para poder escalarlos a futuras aplicaciones, y para poder calibrar fácilmente el sistema ante cambios en sus partes. (6) Con base en lo anterior se desarrollo el algoritmo de evasión determinando la posición que cada móvil tendrá en el tiempo en que no se realiza procesamiento, se muestra en la Figura 4.

Figura 4. Algoritmo de evasión


[144]

Localización y orientación de equipos móviles usando color

Resultados

y discusión

En la Figura 5, se presenta una escena estática para evaluar la efectividad del cálculo del área. Se observan dos equipos de cuatro móviles cada uno, el cuadro azul y amarillo en la parte inferior es usado para calibrar el área total de un móvil.

Figura 5. Equipos de prueba.

En la Figura 6 se muestra el fotograma resultante después de umbralizar y aplicar la operación lógica correspondiente a M1 mostrada en (1). En la Figura 7 se muestra el resultado de la capa M5.

Figura 6. Función M1 obtenida a partir de (1)

Figura 7. Función M5 obtenida a partir de (1)

Revista Tecnológicas


[145]

Revista Tecnológicas

Para probar la robustez del algoritmo ante condiciones de ruido añadimos Ruido Sal y Pimienta al 20 %, se muestra en la Figura 8. En la Figura 6 se muestra el fotograma resultante después de umbralizar y aplicar la operación lógica correspondiente a M1 .

Figura 8. Fotograma con ruido Sal y Pimienta

Figura 9. Móvil 5 con ruido Sal y Pimienta

En la Tabla 4 se muestra la comparación entre las áreas calculadas geométricamente (mostradas en la Tabla 3 con las áreas encontradas por el algoritmo de segmentación en el fotograma de prueba y el fotograma con ruido Sal y Pimienta. Es claro que el error es bajo y la diferencia de áreas entre los objetos identificados permite seleccionar el móvil con facilidad. Tabla 4. Comparación de las áreas calculadas Tipo de objeto

AFP

AFR

APC

EFP

EFR

Área total

8372

7862

100 %

-

-

Triángulo

2016

2350

23.63 %

1.88 %

6.26 %

Franja central

4403

4190

52.73 %

0.25 %

0.56 %

Triángulo y franja central

6448

6232

76.37 %

0.85 %

2.90 %

Donde AFP es el área en pixeles del fotograma de prueba, AFR es el área en pixeles del fotograma de con ruido, APC el área en porcentaje calculado geométricamente, EFP es el error del fotograma de prueba con respecto al APC y EFR es el error del fotograma ruido con respecto al APC.


[146]

Localización y orientación de equipos móviles usando color

Conclusiones 1. Mediante operaciones sobre imágenes binarias se logró la segmentación individual y la ubicación absoluta en el plano de un conjunto de Robots Móviles. El sistema de localización y orientación implementado es efectivo en entornos de trabajo controlados, la iluminación no difusa o el uso de equipos de adquisición de mala calidad haría necesaria la implementación de técnicas de filtrado. 2. El algoritmo de segmentación implementado permite ejecutar acciones sobre los Robos Móviles en tiempo real. Siendo así, la planeación de las trayectorias se pudo realizar dinámicamente, aunque las limitaciones en la velocidad de procesamiento pueden añadir tiempos muertos en los que el sistema no tendría información sobre el espacio de trabajo. 3. La forma escogida para la segmentación permitió conocer directamente la orientación y posición del Robot Móvil a través de operaciones matriciales simples. Sin embargo se podrían presentar confusiones si los robots móviles se encuentran demasiado cerca. 4. El sistema de ubicación absoluto desarrollado posiciona los Robots, aun cuando su estado sea forzado externamente, no obstante hace necesario procesar toda la imagen en cada secuencia de video.

Referencias Arias, L. D., & León, P. A. (2007). Identificación de Posición y Dirección de Objetos en en R2 Usando Color. XIII Simposio de Tratamiento de Señales, Imágenes y Visión Artificial, (pág. 5). Bucaramanga. Botero Valencia, J. S., & Delgado Trejos, E. (2009). Segmentación para la identificación y planeación de trayectorias de Robots en 2D sobre secuencias de video. XIV Simposio de Tratamiento de Señales, Imágenes y Visión Artificial. Pereira: Universidad Tecnológica de Pereira.

Revista Tecnológicas


Revista Tecnológicas Chen, S., Chng, E. S., & Alkadhimi, K. (1996). Regularized orthogonal least squares algorithm for constructing radial basis function networks. International Journal in Control , 829–837. Duda, R. O., Hart, P. E., & Stork, D. G. (2000). Pattern Classification. New York: Wiley. FIRA. (Julio de 2009). MiroSot rules. Obtenido de FIRA. Gonzalez, R. C., & Woods, R. E. (2008). Digital Image Processing (Tercera Edición ed.). New Jersey, United States: Prentice-Hall. Han, M., Kopacek, P., Putz, B., Sshierer, E., & M., W. (2005). Mobile Mini Robots for MAS. En M. A. Armada, P. de González Santos, & S. Berlín (Ed.), Climbing and Walking Robots. Berlín: Springer. Han, M.-W., & Kopacek, P. (2007). Mini Robots for Soccer . En R. Moreno Díaz, F. Pichler, A. (. Quesada Arencibia, & S. Berlin (Ed.), Computer Aided Systems Theory (págs. 1009-1016). Berlín: Springer. Haykin, S. (1999). Neural Networks: A Comprehensive Foundation . New York: Prentice-Hall. Hernandez L., J., & Salazar G., S. (2006). Implementación de una Maquina de Vectores de Soporte empleando FPGA. Scientia et Technica Año XII, No 31 , 47-52. Hush, D. R., & Horne, B. (1998). Efficient algorithms for function approximation with piecewise linear sigmoidal networks. IEEE Transaction on Neural Networks , 1129–1141. Kondo, N., Hatanaka, T., & Uosaki, K. (2006). Pattern Classification via Multi-objective Evolutionary RBF Networks. SICE-ICASE International Joint Conference , 137-142. (2007). En G. Minati, E. Pessa, & S. US (Ed.), Collective Beings (págs. 321352). US: Springer. Ollero Baturone, A. (2001). Robótica manipuladores y robots móviles (Primera edición ed.). Barcelona, España: Marcombo. Ortíz A., L. F., Muñoz C., N. D., & Londoño Ospina, N. (2008). Sistema de localización de bajo costo y alta prestación para una plataforma robótica móvil. Scientia et Technica , XIV (39), 6. Schilling, R. J., Carroll, J. J., & Al-Ajlouni, A. F. (2001). Approximation of nonlinear systems with radial basis function neural network. IEEE Transactions on Neural Networks , 1-15.

[147]


[148]

Localización y orientación de equipos móviles usando color

Schwenker, F., Kestler, H. A., & Palm, G. (2000). Radial-Basis-Function Networks: Learning and Applications. Fourth International Conference on knowledge-Based Intelligent Engineerings Systems & Allied Technologies , 33-43. Shoham, Y., & Leyton-Brown, K. (2009). Multiagent Systems: Algorithmic, Game-Theoretic, and Logical Foundations (Primera edición ed.). New York, United States: Cambridge University Press. Siegwart, R., & Nourbakhsh, I. R. (2004). Introduction to Autonomous Mobile Robots (First edition ed.). United States of America: MIT Press. Tinós, R., & Murta Júnior, L. O. (2008). Selection of Radial Basis Functions via Genetic Algorithms in Pattern. 10th Brazilian Symposium on Neural Networks , 171-176. Witten, I. H., & Frank, E. (2005). Data Mining: Practical Machine Learning Tools and Techniques. San Francisco: Morgan Kaufman. Zhang, W., He, M., & Mak, M. W. (2001). Application of MLP and RBF Networks to cloud detection. Proceedings of 2001 International Symposium on Intelligent Multimedia, Video and Speech Processing , 60-63.

Revista Tecnológicas


Estudio

comparativo de métodos de selección

de características de inferencia supervisada y no supervisada Diego Hernán Peluffo Ordóñez José Luis Rodríguez Sotelo Germán Castellanos Domínguez

Resumen En este trabajo se presenta un estudio comparativo de algunos métodos de selección de características de inferencia supervisada y no supervisada derivados del algoritmo PCA clásico. Se deduce una función objetivo de PCA a partir del error cuadrático medio de los datos y su proyección sobre una base ortonormal, y se extiende este concepto para derivar una expresión asociada al algoritmo fundamental de WPCA. Adicionalmente, se estudian los algoritmos Q - α supervisado y no supervisado y se explica su relación con PCA. Se presentan resultados empleando dos conjuntos de datos: Uno de baja dimensión para estudiar los efectos de la rotación ortogonal y la dirección de los componentes principales y otro de alta dimensión para evaluar los resultados de clasificación. Los métodos de selección de características fueron evaluados teniendo en cuenta la cantidad de características relevantes obtenidas, costo computacional y resultados

Fecha de recepción: 25 de septiembre de 2009 Fecha de aceptación: 13 de noviembre de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[150]

Estudio comparativo de métodos de selección de características...

de clasificación. La clasificación se realizó con un algoritmo particional de agrupamiento no supervisado.

Abstract In this work, a comparative study of feature selection methods for supervised and unsupervised inference obtained from classical PCA is presented. We deduce an expression for the cost function of PCA based on the mean square error of data and its orthonormal projection, and then this concept is extended to obtain an expression for general WPCA. Additionally, we study the supervised and unsupervised Q – α algorithm and its relation with PCA. At the end, we present results employing two data sets: A low-dimensional data set to analyze the effects of orthonormal rotation, and a highdimensional data set to assess the classification performance. The feature selection methods were assessed taking into account the number of relevant features, computational cost and classification performance. The classification was carried out using a partitional clustering algorithm.

Palabras Clave Proyección ortonormal, PCA, selección de características, WPCA.

Key words Feature selection, orthonormal projection, PCA, WPCA.

Revista Tecnológicas


Revista Tecnológicas

I. Introducción En el área de reconocimiento de patrones, es común encontrarse con problemas en los que al momento de extraer patrones descriptivos de observaciones o muestras, que posteriormente serán clasificadas, no se tiene información a priori sobre la cantidad necesaria de dichos patrones, ni de la relevancia en la clasificación de los mismos. Por esta razón, los procesos de caracterización generan matrices de datos de alta dimensión, lo que puede representar un problema para la subsecuente tarea de clasificación porque puede generar bajos resultados de clasificación debido a la información redundante y además, podría implicar un costo computacional elevado. La solución a este problema se denomina selección de características o atributos. Este problema es típico en el reconocimiento de patrones y aprendizaje de máquina y se presenta en diferentes ramas de la ciencia (procesamiento de texto, bio-informática, procesamiento de señales biomédicas, etc.). Existen diversas alternativas para resolver esta tarea y la escogencia de un método u otro depende de las condiciones del problema y de la naturaleza de los datos (Shlens, 2009). El análisis de componentes principales (PCA) y sus variantes, como WPCA, representan una buena opción, entre otras razones, por su naturaleza no paramétrica, facilidad de implementación y versatilidad. Diversos estudios han comprobado su aplicabilidad como técnica de mapeo, extracción de características y reducción de dimensionalidad en diferentes contextos como procesamiento de señales biomédicas (Jager, 2002, Rodríguez et al, 2009), detección de rostros (Wang & Wu, 2005), entre otros. En este trabajo se realiza un análisis comparativo de algunos métodos de selección de características de inferencia supervisada y no supervisada derivados del algoritmo PCA clásico desde el punto de vista de la proyección ortonormal y la descomposición en valores propios. Para esto se deduce una función objetivo de PCA a partir del error cuadrático medio de los datos y su proyección

[151]


[152]

Estudio comparativo de métodos de selección de características...

sobre una base ortonormal. Luego se generaliza este concepto para derivar una expresión asociada al algoritmo fundamental de WPCA. Adicionalmente, se estudia el algoritmo Q-α, propuesto en (Wolf & Shashua, 2005), para casos supervisados y no supervisados y se explica su relación con PCA. La efectividad de la selección de cada método se evalúa sobre dos conjuntos de datos, uno de baja dimensión que permite apreciar el efecto de la transformación ortonormal y la dirección de los componentes principales y otro de alta dimensión en donde la selección de características es significativa para los resultados de clasificación. Los parámetros evaluados son la cantidad de características relevantes resultantes, costo computacional y resultados de la clasificación. La etapa de clasificación se desarrolló empleando agrupamiento no supervisado de tipo particional (Rodríguez et al, 2009) con el fin de determinar si las características generan grupos homogéneos.

II. Materiales y métodos Sea xi la i-ésima observación de q atributos o características y X = (xi,...,xn)T la matriz de datos. Un vector x de dimensión q puede escribirse como la combinación lineal de los elementos de una base ortonormal, así: (1) donde U = (u i ,..., u q) representa la base ortonormal y c = (cl ,..., cq) son los pesos de la combinación lineal. En general, cualquier proyección ortonormal x% se realiza en un espacio p dimensional (p < q), que mejor represente a x: (2)

Revista Tecnológicas


[153]

Revista Tecnológicas

El error cuadrático medio de la proyección ortonormal de la señal original y la reconstruida, puede estimarse de la forma: (3) Reemplazando las expresiones (1) y (2) en (3), el error se puede re-escribir como: (4)

A. Análisis de componentes principales En estadística, la aplicación más común de PCA es la reducción de la dimensionalidad de un conjunto de datos. La idea general de este método es determinar el número de elementos descriptivos subyacentes tras un conjunto de datos que contengan información de la variabilidad de dichos datos (Shlens, 2009). En otras palabras, en PCA se busca la proyección en la que los datos queden mejor representados en términos de mínimos cuadrados, dicha proyección corresponde a la varianza acumulada de cada observación. Una de las ventajas de PCA es que reduce la dimensionalidad de un conjunto de datos, reteniendo aquellos atributos o características del conjunto de datos que contribuyen más a su varianza, por tanto las características escogidas son las que presentan mayor separabilidad con respecto a la media de los datos. PCA construye una transformación lineal de los datos originales de manera que se genere un nuevo sistema de coordenadas en donde la mayor varianza del conjunto de datos es capturada en el primer eje (denominado primer componente principal), la segunda varianza más grande en el segundo eje, y así sucesivamente; donde la medida de varianza la define una estimación de la matriz de covarianza de los datos (Shlens, 2009). Por tanto, el objetivo de PCA


[154]

Estudio comparativo de métodos de selección de características...

es minimizar el error cuadrático medio de la proyección de los datos sobre los vectores propios de la matriz de covarianza, sujeto a una condición de ortonormalidad. Minimizar dicho error (ecuación (4)), es equivalente a maximizar el complemento del mismo, es decir:

(5) donde cp es un vector compuesto por los p primeros elementos de c y tr(∑) denota la traza de su matriz argumento. Se puede apreciar que cp es una matriz simétrica y semipositiva definida. En el caso de PCA, para realizar la proyección de todos los vectores xi, la matriz C es de q x q y corresponde a la matriz de covarianza que puede ser estimada como: (6) La anterior ecuación se aplica después de centrar los datos en la media de cada observación, es decir: (7) donde μ(∑) representa la media. Con lo anterior y considerando el criterio de invariancia ortonormal (Yu & Shi, 2003), puede plantearse el siguiente problema de optimización: (8) donde Id es una matriz identidad de dimensión d y λj on los valores propios de CPCA. (9)

Revista Tecnológicas


[155]

Revista Tecnológicas

Debido a la simetría del matriz CPCA, existe una base completa de vectores propios de la misma y por tanto la transformación lineal que mapea los datos a esta base es, justamente, la representación de los datos que se utiliza para la reducción de la dimensionalidad. Los elementos de la base ortogonal se denominan componentes principales y la proyección de los datos se obtiene con: (10) En la ecuación (8) se aprecia que el valor de la función objetivo se asocia directamente a la suma de los valores propios de la matriz de covarianza, por tanto la solución de de este problema de optimización conduce al absurdo de tomar todas las características, por esta razón es necesario aplicar un criterio de adicional sobre los componentes principales para llevar a cabo la selección de características. En el algoritmo general de PCA, se considera U como la matriz de vectores propios de CPCAordenados de forma descendente, esto es (11) donde eig (λ) representa la descomposición en valores y vectores propios, y Diag (λ) denota la matriz una matriz diagonal formada por el vector de su argumento. Por último se escogen los p primeros componentes principales como los elementos relevantes, es decir, los que mejor representan a X en términos del error cuadrático medio. El valor de p, puede definirse a través de algún criterio de varianza acumulada, o evaluando iterativamente los resultados de un clasificador, escogiéndose al final los elementos que presenten un error de clasificación admisible. El criterio de varianza acumulada se aplica sobre el valor de la función objetivo normalizado, así: (12)


[156]

Estudio comparativo de métodos de selección de características...

z* es un indicador de la variabilidad de cada componente, entonces, para un criterio del N% se consideran los p elementos de ZPCAque correspondan a un valor de varianza acumulada del N%, p es decir, ∑ i =1 zi* ≈ N /100 .

B. PCA ponderado La diferencia de este método y el algoritmo básico de PCA radica en la estimación de la matriz de covarianza. En PCA ponderado (WPCA, de sus siglas en inglés), se emplea una matriz de covarianza denominada ponderada, para la cual existen dos maneras fundamentales de estimación (Yue & Tomoyasu, 2003). La primera corresponde al caso de la ponderación por características, es decir: (13)

CWPCA = W T XT XW

donde W=Diag (w) es una matriz diagonal de pesos. De este modo se puede cambiar la importancia relativa de las características en la representación de X. Por tanto, el problema de optimización para WPCA con ponderación de características podría plantearse como: p

max tr ( U T W T XT XWU ) = ∑ λ j j =1

(14)

donde λj son los valores propios de X T X . En este caso, la proyección sobre los componentes principales se obtiene con: ZWPCA = XWU . La segunda forma básica de WPCA consiste en la ponderación de las observaciones o muestras, donde la matriz de covarianza se puede escribir como: s CWPCA = XT W T WX

(15)

Nótese, que estimar la covarianza ponderada empleando (16), es equivalente a ponderar las observaciones y luego calcular la

Revista Tecnológicas


[157]

Revista Tecnológicas

matriz de covarianza usando (6). En efecto, si Xw=WX representa los datos ponderados, entonces la proyección se realiza sobres los s valores propios de Xw T Xw que corresponde a CWPCA . El problema de optimización de WPCA empleando ponderación de observaciones es: p

max tr ( U T XT W T WXU ) = ∑ λ j j =1

s. t. U T U = I p , W T W = I p

(17) (18)

Con esto, la proyección sobre los componentes principales se s = XUW . Existen diversas formas de estimar los determina con ZWPCA pesos. En la Tabla 1 se muestran algunos métodos no supervisados de ponderación. Método Pre-normalización de PCA Ponderación empleando los valores propios (Wang & Wu, 2005)

Expresión

wi = 1/

1 q 2 ∑ X ij q j =1

wi = λi−1/ 2

Tabla 1. Algunos métodos de ponderación no supervisada de WPCA

También existen métodos supervisados en los que se consideran las etiquetas para la definición de los pesos. En general, la ponderación wi se aplica partiendo de la idea de que no siempre los elementos que generan una buena representación, generan también una buena separabilidad (Wang & Wu, 2005). Además, un elemento relevante en la representación, deberá seguir siendo relevante pese a la ponderación; mientras que un elemento que no sea relevante en la representación pero que si lo sea en la clasificación, podría llegar a ser considerado dentro del conjunto de los componentes principales después de dicha ponderación.


[158]

Estudio comparativo de métodos de selección de características...

C. Algoritmo Q-α En (Wolf & Shashua, 2005) se presenta una definición de relevancia en términos de la matriz de “afinidad” que captura los productos internos de las observaciones y un vector de ponderación. Este concepto se basa en la coherencia de los subconjuntos o clústeres resultantes de un proceso de agrupamiento, empleando propiedades espectrales y análisis topológico derivado de la teoría de grafos, donde la matriz de datos representa los vértices de los grafos no dirigidos y la matriz de afinidad indica los pesos de cada arista del grafo (Yu & Jiambo, 2003). A este método, los autores lo denominaron Q-α debido a que α es el vector de ponderación y Q es la matriz ortonormal de rotación. En este estudio, la matriz ortonormal se denota con U. Sea M una matriz de q x n, definida como M = XT = (m1 ,..., m q )T y pre-procesada de forma que los vectores mi tengan media cero y norma unitaria, entonces la matriz de afinidad se puede obtener con: (19) Desde el punto de vista estadístico, la idea general del algoritmo Q-α es la misma de PCA, parte de un principio de variabilidad acumulada basada en mínimos cuadrados, con la diferencia que, en este caso, la variabilidad se mide con la matriz Cá y no con la covarianza. El factor de escalamiento αi permite ajustar la importancia relativa de cada característica. Intuitivamente, a partir de estas premisas se podría plantear una función objetivo como la mostrada en (8), sin embargo, dado que en este algoritmo se parte de una transformación ortonormal arbitraria, U no representa los componentes principales y por tanto la selección de características se relaciona directamente con el valor de αi. Entonces, considerando que la solución del problema consiste en encontrar el vector á , resulta conveniente re-formular el problema de optimización planteado en (8) a la siguiente forma cuadrática:

Revista Tecnológicas


[159]

Revista Tecnológicas

(20) (20) donde λj son los valores propios de Cá y U es una matriz ortonormal. Duplicar Cáno cambia la naturaleza de la función objetivo porque este término es una matriz simétrica y semipositiva definida, además, en términos matemáticos, esto resulta ventajoso porque permite plantear una forma cuadrática con respecto a la variable de interés, así:

max á T Gá

(20)

s. t. á T á = 1

(20)

á

donde G es una matriz auxiliar cuyas componentes son Gij = ( m iT m j ) m iT UU T m j .

Estas últimas ecuaciones corresponden al problema de optimización de la versión no supervisada de Q-α. Dado que, en principio, la matriz G es obtenida a partir de una transformación ortonormal arbitraria, es necesario plantear un método iterativo en el que se sintonicen la matriz U y el vector á. Del problema de optimización planteado en (20), se aprecia que mientras el vector á apunta a la dirección de las características relevantes, U indica su rotación; por tanto la sintonización de estos parámetros es mutuamente dependiente y debe realizarse de forma alternante como se muestra en el siguiente algoritmo: 1. Inicialización: M=X T , U (0) de k x n (U (0)T U (0) = I n ), mi ← (mi - μ(mi )) / || mi || 2. Formar G: Gij = (miT mj) mjT UUTmj


[160]

Estudio comparativo de métodos de selección de características...

3. Calcular á como el vector propio asociado al máximo valor propio de G 4. Calcular Cá: Cá MT Diag (α)M

5. Obtener la transformación ortonormal de Cá: Z(r) = Cá(r) U(r-1)

6. Descomposición QR de Z(r): [U(r) , R]= qr(Z (r))

7. Incrementar r: r ← r + 1 y retornar al paso 2 En (Wolf & Shashua, 2005), también se estudian dos alternativas del Q-α no supervisado: La primera, empleando una normalización a través del laplaciano de la matriz de afinidad, y la segunda, basada en el criterio de la aceleración de Ritz y descomposición en valores singulares cuando se asume un vector á inicial. Adicionalmente, se demuestra que la convergencia del algoritmo ocurre en las primeras 4 iteraciones. No obstante, un indicador de la convergencia del algoritmo puede establecerse con el cambio del vector á, es decir, la diferencia del vector obtenido en la iteración actual y el obtenido en la iteración inmediatamente anterior: ||á(r) - á (r-1) || < δ, donde δ define la precisión. En el paso 1 del algoritmo de Q-α no supervisado, se establece una matriz ortonormal inicial de n x k, donde k: k < n puede ser arbitrario, dado que no tiene implicación en la función objetivo a razón de que esta matriz se convierte en una matriz cuadrada de n x n a partir de la segunda iteración. Es fácil comprobar que la solución del problema de optimización planteado en (22) corresponde al vector propio asociado al mayor valor propio de G. De la definición de valores y vectores propios se tiene que: (24) Por tanto, para que áTGá sea máximo, á debe estar asociado al mayor valor propio de G. En los pasos 5 y 6, se realiza una proyección ortonormal de Ca y se aplica descomposición QR, respectivamente, para obtener la matriz U refinada para la siguiente iteración. Por último, las p características relevantes se seleccionan como los

Revista Tecnológicas


[161]

Revista Tecnológicas

elementos de M (ponderada por el vector á resultante) que cumplan

p i =1

α i2 ≈ N /100 para un criterio del N %.

Q-α supervisado: En la versión supervisada del algoritmo Q-α, la matriz C puede indicar la afinidad intra y entre clases empleando etiquetas, es decir: q

Cágh = ∑ α i m ig m ih T

(25)

i =1

donde g y h son indicadores de las clases. De acuerdo a esta definición puede plantearse el siguiente problema de optimización: k

max tr ( U ll T Cllá Cllá U ll ) − γ ∑ tr ( U gh T CághCágh U gh ) gh ∑ á ,U

l =1

(26)

g ≠h

(27) La anterior formulación captura los dos objetivos que generan un buen agrupamiento, desde el punto de vista de topológico: Maximiza la afinidad intra-clase (parte izquierda de la función) y minimiza la afinidad entre clases (parte derecha de la función), todo sujeto a una condición de ortonormalidad. El parámetro de regularización γ define la prioridad de lo que se desea maximizar en la función objetivo (parte derecha o izquierda) y su valor debe encontrarse en el rango 0< γ <1. Este problema también puede interpretarse como: k

max ∑ á T G ll á − γ ∑ á T G ghá = max á Tgá á

l =1

g ≠h

(28)

á

s. t. á T á = 1 k

donde Gijgh = ( mig T m gj ) mih T U gh U gh T m hj y g = ∑ G ll − γ ∑ G gh . l =1

g ≠h


[162]

Estudio comparativo de métodos de selección de características...

De este modo, se puede aplicar directamente el algoritmo Q-α no supervisado, usando G como matriz auxiliar.

III. Resultados

y discusión

para la evaluación de los métodos de selección de características se emplearon dos conjuntos de datos. El primer conjunto de datos (DS1) es de 3 clases, 150 observaciones y 3 características y fue utilizado para estudiar los efectos de la transformación ortonormal y la dirección de los componentes principales. Este conjunto de datos fue generado artificialmente con funciones de densidad de probabilidad normal multivariada N(μ,∑), donde las clases se definen con el valor de la media y una matriz de covarianza aleatoria. La distancia entre medias, que corresponde a la distancia entre clases, se fijó en 10. El conjunto de datos fue diseñado de tal forma que existan 50 elementos por cada clase. El segundo conjunto de datos (DS2) es de 3 clases, 2200 observaciones y 26 características, y corresponde al registro 207 de la base de datos MIT/BIH (Moody & Mark, 1999), el cual contiene 4 clases desbalanceadas y de alta variabilidad. El registro fue caracterizado como se explica en (Rodríguez et al, 2009). El conjunto de datos DS2 se utilizó para evaluar la cantidad de características relevantes y los resultados de la clasificación considerando clases desequilibradas. La clasificación se realizó con un algoritmo de clustering particional basado en densidades, descrito en (Rodríguez et al, 2009), y fue evaluada en términos de especificidad (Sp) y sensibilidad (Se) por cada clase, además, se tuvieron en cuenta otros factores como el tiempo y la cantidad de características relevantes obtenidas (p). También se aplicó una medida semi-supervisada f1

f2

que

representa la relación del valor óptimo de la función objetivo (f1) y el calculado con el agrupamiento resultante (f2), esta medida indica que un agrupamiento se hizo correctamente cuando su valor es cercano a 1. En (Rodríguez et al, 2009) se encuentra la

Revista Tecnológicas


[163]

Revista Tecnológicas

descripción detallada de esta medida. Para llevar a cabo la etapa de clasificación, se estableció como número de clústeres 8, porque esta cantidad es razonable en comparación con el número de total de clases presentes en DS2 y además, ha registrado buen desempeño (Rodríguez et al, 2009). Las pruebas se realizaron con MatLab R2008a, en un computador de 2 de GB de RAM y un procesador Core 2 Quad de 2.8 Ghz. En la Figura 1 se muestra la representación resultante de la transformación lineal de cada uno de los métodos estudiados, donde cada color representa una clase. La Figura 2 muestra los valores de relevancia de cada una de las características de DS2 aplicando los diferentes métodos de selección de características. En el caso de PCA y WPCA, la relevancia corresponde al índice de varianza acumulada mostrado en la ecuación (12) y en Q-α corresponde al vector á. En el algoritmo Q-α supervisado, el parámetro de regularización se fijó en γ = 0.5. Los resultados de clasificación se muestran en la Tabla II.

Figura 1. Representación de las características de DS1 empleando los diferentes métodos


[164]

Estudio comparativo de métodos de selección de características...

Figura 2. Valores de relevancia de DS2 aplicando los métodos estudiados Tabla 2. Resultados obtenidos con DS2 aplicando selección de características y clustering particional

Método

Clases Elementos por clase

Clase 1 Clase 2 Clase 3 Tiempo 1542

106

210

Se Sp Se Sp

93.77 94.03 93.77 97.17

98.1 93.4 98.1 94.58

95.24 99.76 95.24 99.76

Q-α no supervisado

Se Sp

97.41 98.1

98.1 98.29

Q-α supervisado

Se Sp

98.83 99.22

99.05 98.69

PCA WPCA

f1

f2

p

(s)

49.54

0.94 10

47.96

0.96

9

96.67 99.21

46.67

0.98

2

98.91 99.94

46.09

0.99

8

En la Figura 1 se aprecia que la transformación lineal resultante de cada método genera una representación de los datos en donde quedan mejor representados en términos de la variabilidad medida a través de mínimos cuadrados. En el caso de WPCA, aplicando ponderación con valores propios (ver Tabla 1), se aprecia la relación

Revista Tecnológicas


Revista Tecnológicas

directa del efecto de la ponderación con la separabilidad de las clases. El método Q-α no supervisado es el más estricto o “fuerte” al momento de seleccionar las características, como se aprecia en la Figura 2 y la Tabla 2, esto se debe a que la relevancia la mide el primer (que es también el mayor) vector propio de la matriz auxiliar y por esta razón la variabilidad tiende a concentrarse radicalmente en los primeros elementos. En general, todos los métodos exhibieron buenos resultados. En este caso los que registraron mejor desempeño fueron los algoritmos Q-α (ver Tabla 2), porque son menos sensibles a las clases desbalanceadas. Además, registraron menor costo computacional. También se puede apreciar que Q-α supervisado implicó menos tiempo de procesamiento que la versión no supervisada, esto se debe a que el análisis de las submatrices auxiliares tardó menos que el análisis de toda la matriz auxiliar. Sin embargo, vale advertir que esto no es una constante, en algunos casos podría darse que tarde menos tomar toda la matriz que realizar el análisis por submatrices.

IV. Conclusiones La selección de características es, en muchas ocasiones, una etapa imprescindible en el diseño de los sistemas de clasificación y reconocimiento de patrones, sin embargo, la tarea de escoger un método no es trivial, existen diversos factores a tener en cuenta como costo computacional, conocimiento del conjunto de datos y objetivo de la clasificación y todos ellos enmarcados en los detalles particulares del problema que se vaya a resolver. En este trabajo se presentaron algunas alternativas para la selección de características (PCA clásico, WPCA y Q-α), con su correspondiente deducción matemática y aplicación. Con en este estudio se logró plantear una nueva perspectiva del análisis de componentes principales aplicando principios de ortonormalidad, de donde se infirió un problema de optimización genérico que pudo ser extendido a variantes como WPCA y

[165]


[166]

Estudio comparativo de métodos de selección de características...

permitió explicar el algoritmo Q-α en su versión supervisada y no supervisada. Además, se justificó el concepto de variabilidad acumulada en la selección de características y se desarrollaron criterios de selección para cada uno de los métodos estudiados.

V. Agradecimientos Los autores agradecen al programa de beca para estudiantes sobresalientes de posgrado de la Universidad Nacional de Colombia y al programa de financiación para Doctorados Nacionales de Colciencias. Así como también, al grupo de trabajo académico “Grupo de Control y Procesamiento Digital de Señales (GC&PDS)” de la Universidad Nacional de Colombia – sede Manizales.

Bibliografía Jager, F. (2002). Feature extraction and shape representation of ambulatory electrocardiogram using the karhunen-lòeve transform. Electrotechnical Review 69 (2), 83–89. Moody, G.B. & Mark, R.G. (1999). The MIT-BIH Arrhytmia Database on CD-ROM and software for use with it. Computers in Cardiology, CINC. Rodríguez, J.L., Peluffo, D., Cuesta, D. & Castellanos, G. (2009). Non-parametric density-based clustering for cardiac arrhythmia analysis. Computers in cardiology, CINC. Shlens, J. (2009). A tutorial on principal component analysis. Wang, H.Y. & Wu, X.J. (2005). Weighted pca space and its application in face recognition. Machine Learning and Cybernetics, 2005. Proceedings of 2005 International Conference on. Vol. 7. Wolf, L. & Shashua, A. (2005). Feature selection for unsupervised and supervised inference: The emergence of sparsity in a weight-based approach. Journal of machine learning. 6, 1855 – 1887. Yu, S.X. & Shi, J. (2003). Multiclass spectral clustering. ICCV ’03: Proceedings of the Ninth IEEE International Conference on Computer Vision. IEEE Computer Society, Washington, DC, USA, p. 313. Yue, Y.H. & Tomoyasu, M. (2004). Weighted principal component analysis and its applications to improve fdc performance. Conference on decision and control.

Revista Tecnológicas


Especificación

de perfil zigbee para monitoreo

y control de plantas industriales Sergio Serna1

Resumen ZigBee es una tecnología inalámbrica de corto alcance, bajo consumo de potencia, baja transmisión de datos y alta seguridad de uso creciente en diversas aplicaciones. Los perfiles ZigBee permiten utilizar esta tecnología para sistemas específicos, de tal forma que se desarrollen aplicaciones distribuidas que se puedan desplegar fácilmente en cualquier dominio de interés. Este artículo, presenta la especificación formal de un perfil ZigBee para monitoreo y control de plantas industriales, el cual se implementa utilizando herramientas de última generación para microcontroladores de 8 bits. Se despliega una red en un ambiente controlado que utiliza el perfil especificado, lográndose facilidad en el desarrollo de aplicaciones para redes inalámbricas de área personal, así como alta confiablidad en la transmisión de datos.

Palabras clave: ZigBee, PAN, IEEE 802.15.4, perfil, monitoreo y control

Abstract The use of ZigBee wireless technology in many applications is currently increasing due its short-range, low power consumption,

1 MSc(c) Ingeniería de Sistemas Académico Investigador Instituto Tecnológico Metropolitano sergioserna@itm.edu.co Fecha de recepción: 3 de marzo de 2009 Fecha de aceptación: 4 de agosto de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[168]

Especificaci贸n de perfil zigbee para monitoreo y control de plantas industriales

low data transmision and high security. ZigBee profiles allow use this technology for specific systems, in order to develop of distributed applications to be easily implemented in any domain of interest. This paper presents the formal specification of a ZigBee profile for monitoring and control of industrial plants, which is implemented by use of cutting-edge tools for 8-bits microcontrollers. The network is deployed in a controlled environment using the specified profile, achieving the development of personal applications and higher confiability in the data transmission.

Keywords ZigBee, PAN, IEEE 802.15.4, profile, monitoring and control

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción El crecimiento de las redes de área personal (PAN – Personal Area Network) se ha visto impulsado por el auge de los dispositivos que soportan tecnologías para este tipo de redes, como PCs, celulares y PDAs, y por el interés de los usuarios que cada vez quieren tener el control de más y más elementos, sin el uso de cables. Bluetooth lleva la vanguardia como tecnología de comunicaciones inalámbricas para redes PAN (SIG, 2006; Thomson, 2007). Sin embargo, con tanta diversidad de aplicaciones, algunas características de Bluetooth no son suficientes para satisfacer los requerimientos de los nuevos usuarios (Liu et al., 2006; Rashid & Yusoff, 2006), es por esta razón que emergen más tecnologías. Dentro de las múltiples posibles aplicaciones en las que las redes PAN juegan un papel crucial, están el monitoreo remoto y no obstrusivo de parámetros fisiológicos de pacientes (Kim et al., 2007; Kulkarni & Öztürk, 2007), el monitoreo de condiciones climáticas, que permite en zonas de cultivo, determinar el nivel de químicos y riego necesario para cierto sembrado, o evitar desastres ambientales como inundaciones e incendios (Steere et al., 2000), el monitoreo de especies animales con el fin de determinar su población, posición y hábitat (Szewczyk et al., 2004), y así entre otras. Una de las aplicaciones de más amplio crecimiento es el monitoreo y control inalámbrico de plantas industriales (Sasaki & Ueda, 2007; Cao, et al., 2008; Li et al., 2008; Zhao et al., 2008), para ello, es necesario utilizar a los sensores y actuadores como nodos dentro de una red (Gauger et al., 2008). Un sensor inalámbrico consta de uno o varios transductores, los cuales capturan la información del ambiente, y un transmisor/ receptor de radio frecuencia (RF). Un conjunto de este tipo de sensores inalámbricos pueden organizarse entre sí para formar una red ad hoc, y a su vez interactuar con un nodo maestro que reciba comandos de un operador humano u otro sistema (Akyildiz et al., 2002; Akkaya & Younis, 2005), de esta forma, es posible asignar

[169]


[170]

Especificación de perfil zigbee para monitoreo y control de plantas industriales

tareas de procesamiento, captura o transferencia de datos a cada sensor de la red. En los últimos años, ha emergido una tecnología inalámbrica de baja velocidad de transmisión de datos, que ofrece confiabilidad, robustez, escalabilidad, seguridad y bajo consumo de potencia. Esta tecnología está respaldada por ZigBee Alliance, una organización que reúne a más de 300 compañías y que se encarga de definir las capas de red y aplicación de la pila de protocolos ZigBee (ZigBee Alliance, 2008). ZigBee está construido sobre el estándar IEEE 802.15.4 el cual define las capas física (PHY – Physical) y de control de acceso al medio (MAC – Medium Access Control) (IEEE, 2003). La capa PHY soporta tres bandas de frecuencia: 2450 MHz (16 canales), 915 MHz (10 canales) y 868 MHz (1 canal); utiliza el modo de acceso de espectro disperso por secuencia directa (Direct Sequence Spread Spectrum – DSSS); la banda de 2450 MHz emplea modulación por desplazamiento de fase en cuadratura con offset (Offset Quadrature Phase Shift Keying – OQPSK), mientras que las otras dos bandas utilizan modulación por desplazamiento de fase binaria (Binary Phase Shift Keying – BPSK). La capa PHY soporta funcionalidades para la selección del canal, estimar la calidad del enlace, medir la energía detectada y otras más. La capa MAC define dos tipos de nodos: los dispositivos de funciones reducidas (Reduced Function Devices -- RFDs) y los dispositivos con funciones completas (Full Function Devices -- FFDs). Un FDD puede actuar como coordinador de la red o dispositivo final. En su papel de coordinar, el FDD puede enviar balizas, y sincronizar y administrar la red como un todo. Los RFDs pueden actuar únicamente como dispositivos finales, regularmente equipados con sensores/actuadores, y comunicarse con un solo coordinador. El estándar ZigBee (ZigBee Alliance, 2008) define las capas superiores de la pila de protocolos. La capa de red (Network Layer – NWK) se encarga de organizar y proveer enrutamiento en

Revista Tecnológicas


[171]

Revista Tecnológicas

una red de múltiples saltos, y soporta topologías en estrella, malla y árbol (véase Figura 1). Son tres los tipos de dispositivos con los que cuenta ZigBee: coordinador y enrutador (corresponden a un FDD IEEE), y dispositivo final (corresponde a un RFD o FDD IEEE). El coordinador se encarga de incluir/excluir nodos a/de la red, la inicia y elige algunos parámetros claves cuando la topología de la red es malla o árbol. Igualmente maneja el identificador PAN único y el canal de operación. Una vez establecida la red, este dispositivo puede operar como un enrutador. Los enrutadores son dispositivos opcionales en la red, y tienen la capacidad de extenderla. Una vez en la red, pueden asociarse con otros enrutadores o con el coordinador. Si la topología es árbol, se mueven de manera jerárquica mensajes de control y datos como estrategia de enrutamiento. Los dispositivos finales trabajan en conjunto con los coordinadores y enrutadores. Se optimizan para consumir muy poca potencia y no cumplen labores de asociación ni de enrutamiento.

Figura 1. Topologías de red en ZigBee

La capa de aplicación (Application Layer – APL) provee un marco de trabajo para el desarrollo de aplicaciones distribuidas (véase figura 2). La APL los objetos de aplicación (Application


[172]

Especificación de perfil zigbee para monitoreo y control de plantas industriales

Objects – APOs), los objetos para dispositivos ZigBee (ZigBee Device Objects – ZDO), y la subcapa de aplicación (Application Sub Layer – APS). Un APO es una pieza de software que controla una unidad hardware (transductor, conmutador, lámpara) disponible en el dispositivo. Cada APO tiene un identificador único. Un ZDO es un objeto especial que ofrece servicios a los APOs (descubrir dispositivos en la red y que servicios implementa, servicios de administración de seguridad, trabajo en red y comunicación). La APS proporciona servicios de transferencia de datos para los APOs y los ZDO. Una aplicación ZigBee debe ajustarse a un perfil ZigBee (ZigBee Alliance, 2007a). Un perfil define el formato de los mensajes y las reglas de interacción entre los APOs, los cuales juntos forman una aplicación distribuida. De esta forma, es posible que diferentes desarrolladores, en forma independiente, construyan dispositivos ZigBee que puedan interactuar entre ellos. Cada APO encapsula un conjunto de atributos, y proporciona funcionalidad para establecer o recuperar valores de estos atributos, así como para notificar cuando un atributo cambia. En el contexto de un perfil, un conjunto de atributos relacionados se denomina “cluster”, y se le asigna un identificador numérico (ZigBee Alliance, 2007b). Capa de aplicación -- APL APO 1

... APO 240 ZDO

Subcapa de aplicación Capa de red -- NWK IEEE 802.15.4 Control de Acceso al Medio -- MAC Capa Física -- PHY

Figura 2. Pila de protocolos y arquitectura en capas ZigBee

Revista Tecnológicas


Revista Tecnológicas

Este artículo definirá un perfil que permitirá la utilización de la tecnología ZigBee en sistemas de monitoreo y control de procesos en laboratorios académicos, de esta forma es posible ocuparse del análisis de los resultados de la evaluación de los sistemas, y no de la adquisición y transmisión de la información. Se logrará igualmente flexibilidad en el tipo de plantas a monitorear y controlar, y movilidad en los actuadores y sensores, gracias a la tecnología inalámbrica utilizada. Este artículo se estructura como sigue: la próxima sección relaciona los métodos y las herramientas utilizadas en la investigación, luego se caracterizan los perfiles, y se propone el de monitoreo y control de plantas industriales. Posteriormente se describe la aplicación utilizada para probar el perfil, describiendo la planta, el sistema embebido y la aplicación para el usuario final. La última sección destaca las conclusiones e igualmente direcciona los trabajos futuros.

2. Descripción del sistema Un sistema de control típico sobre el cual se puede implementar el perfil especificado se muestra en la Figura 3. La utilidad de estos sistemas consiste en el hecho de que incluyen una variada instrumentación, la cual sirve para la construcción del prototipo inicial. El sistema de la figura consiste de dos tanques, a los cuales se les mide el nivel por medio de sensores de presión y se controla el llenado con electroválvulas. El sensor de flujo entrega la señal de realimentación al controlador y la bomba regula el flujo.

[173]


[174]

Especificación de perfil zigbee para monitoreo y control de plantas industriales

Figura 3. Diagrama de la planta de caudal

Luego de identificar la instrumentación de interés, se debe pasar a la identificación de los cluster existentes dentro del ZCL (ZigBee Alliance, 2007b), de esta manera, es posible reutilizar la especificación previamente establecida y que se encuentra consignada en el estándar. Posteriormente, se definen y especifican los cluster que no se encuentran en el ZCL de acuerdo al formato predeterminado allí. Esta especificación son los APOs de este desarrollo, los cuales se construyen sobre la pila de protocolos ZigBee. La pila de protocolos ZigBee sobre la que se trabajó fue Freescale BeeStack™ (Freescale Semiconductor, 2007), la cual viene con el software BeeKit™ (Freescale Semiconductor, 2008a) y contiene la funcionalidad completa ZigBee. Se incluye en esta pila las capas PHY y MAC, y la implementación que Freescale hace de las capas NWK y APL. Utilizando plantillas de BeeKit y exportándolas al CodeWarrior (Freescale Semiconductor, 2008b), se logra tener nodos RFD o FFD sobre microcontroladores de 8 bits. Esta pila ZigBee completa, más la funcionalidad adicional desarrollada para la aplicación,

Revista Tecnológicas


Revista Tecnológicas

se descarga sobre el chip MC13213 (System In Package – SIP), el cual integra el microcontrolador MC9S08GT con el transceiver MC1320x en un solo empaquetado LGA (Land Grid Array) de 9x9 mm (Freescale Semiconductor, 2008c; 2008d). Este SIP es ideal para aplicaciones de monitoreo y control en redes de sensores inalámbricos en malla. Con una aplicación en LabVIEW™ (National Instruments Corporation, 2008), se visualiza toda la red ZigBee, tanto los nodos finales como el nodo coordinador.

3. Especificación del perfil Los perfiles son acuerdos que se establecen con el fin de que se facilite el intercambio de mensajes para un tipo de aplicación específica. Para esto es necesario tener un formato de mensaje, de tal manera que se puedan enviar comandos, se puedan requerir o transmitir datos, y demás. Existen dos tipos de perfiles ZigBee: públicos y específicos. Aparte del identificador del perfil que el diseñador debe solicitar a la alianza ZigBee, es necesario definir la descripción de los dispositivos y la identificación de los clusters.

a. Definición de los dispositivos El perfil permite manejar los dispositivos propios de un proceso de control de nivel y flujo en un sistema de tanques, pero igualmente es posible extenderlo a otro tipo de procesos. Los dispositivos se describen en la Tabla 1, los cuales están organizados de acuerdo a si son actuadores o sensores/detectores. La asignación de direcciones se distribuye de manera arbitraria, dejando lugar para la definición de otros dispositivos en el futuro. Por ejemplo, dependiendo del proceso, sería deseable tener en cuenta detectores de movimiento, sensores de posición lineal, sensores de posición angular, acelerómetros, sensores de deformación, detectores de obstáculos, sensores de PH, sensores de CO2, entre otros.

[175]


[176]

Especificación de perfil zigbee para monitoreo y control de plantas industriales

No es necesario que se implementen todos los dispositivos para realizar las pruebas, sólo es suficiente con elegir los necesarios para el sistema específico. Este perfil no es muy extenso, pero la idea es que sea lo suficientemente amplio para que en su primera versión se puedan realizar las actividades más comunes del tipo de sistemas para el cual fue propuesto. Tabla 1. Dispositivos específicos para el perfil de monitoreo y control Dispositivo válvula on/off válvula proporcional bomba on/off bomba proporcional Termostato Ventilador Reservado sensor de nivel sensor de distancia sensor de flujo sensor de presión sensor de temperatura sensor de humedad relativa sensor de intensidad lumínica detector de nivel detector de flujo detector de inclinación Reservado

ID 0x0001 0x0002 0x0003 0x0004 0x0005 0x0006 0x0007 – 0x00FF 0x0101 0x0102 0x0103 0x0104 0x0105 0x0106 0x0107 0x0108 0x0109 0x010A 0x010B – 0x01FF

b. Identificación de los clusters La librería de cluster ZigBee (ZCL – ZigBee Cluster Library), es un repositorio de atributos, los cuales definen el estado de los dispositivos, y un conjunto de comandos, los cuales permiten la comunicación entre dos dispositivos (ZigBee Alliance, 2007b). Los dispositivos deben implementar las interfaces del lado del cliente y del lado del servidor. La entidad que almacena los atributos del cluster es el servidor, la que manipula dichos atributos es el cliente. Sin embargo, si se requiere, los atributos pueden estar presentes en el lado del cliente.

Revista Tecnológicas


[177]

Revista Tecnológicas

Al construirse un nuevo perfil, es necesario especificar cuales clusters requieren cada uno de los dispositivos, de esta forma, inicialmente es necesario buscar dentro de la ZCL con el fin de extraer de allí la funcionalidad requerida por el perfil. Sin embargo, es posible definir nuevos clusters, para lo cual debe solicitarse su inclusión en la ZCL. La ZCL tiene dos componentes que la definen: un conjunto de elementos que se aplica a toda la librería, tales como la estructura de la trama, el acceso a los atributos de los comandos y los tipos de datos, y un número de conjuntos de cluster que son utilizados en aplicaciones de un dominio específico. De acuerdo a los dispositivos referidos en la Tabla 1, los clusters utilizados en este perfil se muestran en la Tabla 2. Todos los clusters, menos Distance measurement, Controller y Plant están definidos en (ZigBee Alliance, 2007b), por lo tanto es necesario incluirlos en la ZCL luego de especificarlos detalladamente. Tabla 2. Clúster utilizados en el perfil Dispositivo Basic Identify on/off on/off switch configuration Level Control Alarms Illuminance measurement Illuminance level sensing Temperature measurement Pressure measurement Flow measurement Relative humidity measurement Pump Configuration and Control Thermostat Fan Control Distance measurement Controller Plant

ID 0x0000 0x0003 0x0006 0x0007 0x0008 0x0009 0x0400 0x0401 0x0402 0x0403 0x0404 0x0405 0x0200 0x0201 0x0202 0x0700 0x0701 0x0702


[178]

Especificación de perfil zigbee para monitoreo y control de plantas industriales

a.

Clúster Distance measurement

El lado del servidor de este cluster es una interfaz para la medición de distancia, incluye configuración y notificación del valor medido. La definición de atributos sigue, por conveniencia, el formato establecido en (ZigBee Alliance, 2007b), aquí el identificador del atributo es un número de 16 bits, donde los 12 bits de mayor peso indican el conjunto de atributos y los 4 bits restantes hablan de uno de 16 posibles atributos dentro del conjunto. El lado del servidor tiene definidos los atributos para la medición de distancia, y las operaciones o comandos que debe ejecutar a las solicitudes del cliente. El lado del cliente no tiene atributos pero si operaciones o comandos, los cuales se utilizan para acceder al servidor con el fin de establecer o leer sus atributos (véase Figura 4). DistanceMeasureClusterServer -measuredValue : unsigned int -minMeasuredValue : unsigned int -maxMeasuredValue : unsigned int -tolerance : unsigned int +ReadAttributesResponse() : unsigned int* +WriteAttributesResponse() : unsigned int* +Discover () : attributes*

DistanceMeasureClusterClient +ReadAttributes() +WriteAttributes() +WriteAttributesUndivided() +WriteAttributesNoResponse() +DiscoverAttributes()

ControllerClusterServer

ControllerClusterClient

-proportional : unsigned int -integral : unsigned int -derivative : unsigned int +ReadAttributesResponse() : unsigned int* +WriteAttributesResponse() : unsigned int* +DiscoverAttributesResponse() : attributes*

+ReadAttributes() : decimal +WriteAttributes() +WriteAttributesUndivided() +WriteAttributesNoResponse() +DiscoverAttributes()

PlantClusterServer

PlantClusterClient

-order : unsigned char -timeConstant : unsigned int -naturalFrequency : unsigned int -damping : unsigned int +ReadAttributesResponse() : unsigned int* +WriteAttributesResponse() : unsigned int* +DiscoverAttributesResponse() : attributes*

+ReadAttributes() +WriteAttributes() +WriteAttributesUndivided() +WriteAttributesNoResponse() +DiscoverAttributes()

Figura 4. Definición de los clúster del perfil

Revista Tecnológicas


Revista Tecnológicas

El atributo measuredValue representa la distancia en cm, con una resolución de 0,1cm. Como se representa con un entero no signado de 16 bits, el rango de posibles valores será, 0 ≤ distance ≤ 6553,4. El valor 0xFFFF indica que la distancia medida es inválida. Los atributos minMeasuredValue y maxMeasuredValue indican el mínimo y máximo valor que se puede obtener en measuredValue. De esta forma es posible establecer el rango del sensor con estos dos atributos. Asignar a estos atributos el valor 0xFFFF indica que el límite no está establecido. Claramente se debe cumplir que maxMeasuredValue ≤ minMeasuredValue. El atributo tolerance indica la magnitud del posible error asociado con el atributo measuredValue, lo que quiere decir que el valor real de la distancia se encuentra entre (measuredValue tolerance) y (measuredValue + tolerance). En el cliente se definen cinco comandos, uno para leer los atributos, ReadAttributes, otro para escribir un atributo esperando respuesta, WriteAttributes, otro más para escribir un grupo de atributos como una operación atómica esperando respuesta, WriteAttributesUndivided, uno más para escribir un atributo sin esperar respuesta del cliente, WriteAttributesNoResponse y por último un comando para solicitarle al servidor la información acerca de que atributos posee y de qué tipo, DiscoverAttributes. Estos cinco comandos en el cliente sólo requieren tres comandos en el servidor para ser atendidos. ReadAttributesResponse es la respuesta del servidor a ReadAttributes, entregando el valor de los atributos solicitados por el cliente. WriteAttributesResponse es la respuesta del servidor a WriteAttributes o WriteAttributesUndivided, devolviendo el valor en el que quedaron los atributos luego de la actualización, y por último DiscoverAttributesResponses retorna al cliente los atributos del servidor junto con su tipo, este es el comando respuesta a DiscoverAttributes.

b.

Clúster Controller

El lado del servidor de este cluster es una interfaz para configurar un controlador clásico del tipo PID (Kuo, 2006),

[179]


[180]

Especificación de perfil zigbee para monitoreo y control de plantas industriales

incluye configuración y notificación de los parámetros actuales. El lado del servidor tiene definidos los atributos para sintonizar el controlador, y las operaciones o comandos que debe ejecutar a las solicitudes del cliente. El lado del cliente no tiene atributos pero si operaciones o comandos, los cuales se utilizan para acceder al servidor con el fin de establecer o leer sus atributos (véase Figura 4). Los parámetros del controlador incluyen dos decimales de resolución, lo que establece su rango entre 0 y 655,34, ya que el último valor indica atributo no válido. Si se establecen apropiadamente estos valores, es posible obtener controladores P, PI, PID o cualquier otra combinación utilizada en técnicas de control clásicas.

c.

Clúster Plant

El lado del servidor de este cluster es una interfaz para configurar una planta de primer o segundo orden (Kuo, 2006), incluye configuración y notificación de los parámetros actuales. El lado del servidor tiene definidos los atributos que identifican la planta, y las operaciones o comandos que debe ejecutar a las solicitudes del cliente. El lado del cliente no tiene atributos pero si operaciones o comandos, los cuales se utilizan para acceder al servidor con el fin de establecer o leer sus atributos (véase Figura 4). A excepción del atributo order, los parámetros de la planta incluyen dos decimales de resolución, lo que establece su rango entre 0 y 655,34, ya que el último valor, 655,35, indica atributo no válido. El atributo order permite establecer parámetros para plantas de cualquier orden, entre 1 y 254, pero esos parámetros no están aún definidos como atributos del cluster. Por lo tanto si el atributo order es 1, debe establecerse el atributo timeConstant, mientras que los atributos naturalFrequency y damping se llevan al valor no válido 0xFFFF. Cuando el atributo order se hace 2, los valores de los atributos naturalFrequency y damping son los válidos para la planta, o sea deben establecerse, mientras que timeConstant se lleva a valor no válido, 0xFFFF.

Revista Tecnológicas


Revista Tecnológicas

4. Resultados Para probar las bondades del perfil, se desplegó una red de 7 nodos, un coordinador y seis nodos finales, los cuales incluyen nodos sensores y actuadores. Las señales que se censaron provienen de convertidores de corriente a voltaje, los actuadores son dispositivos lumínicos tipo LEDs. La dinámica de la red, esto es, el ingreso y salida de nodos, es un proceso bastante simple realizado con facilidad por el coordinador. En un ambiente limpio de contaminación electromagnética y distancias cortas, no se detectó pérdida de información. Solicitudes de censado y activación de actuadores en forma “simultánea” se realizaron sin dificultad. La programación de la red fue bastante simple, ya que la trama del perfil se tenía implementada y sólo fue necesario ocuparse de la aplicación, y los procesos que esta conlleva. Una dificultad que se presentó fue al momento de utilizar módems de diferentes fabricantes para armar la red, ya que a pesar de tener el mismo perfil implementado, la pila ZigBee parece no tener las mismas prestaciones en todos los diferentes casos.

5. Conclusiones

La especificación de un perfil para monitoreo y control de plantas industriales, facilita la implementación de soluciones en este dominio de aplicación, ya que el desarrollador puede ocuparse exclusivamente de los problemas que trae consigo la aplicación, haciendo a un lado los problemas de comunicaciones inherentes a las WPAN. El perfil de monitoreo y control de plantas industriales propuesto, se integra totalmente con el ZCL, de esta manera se mantienen los lineamientos establecidos por la ZigBee Alliance y así se satisface uno de los requisitos necesarios para lograr interoperabilidad entre diversos fabricantes. Sin embargo, debido a lo reciente del estándar y la tecnología, existen implementaciones de las pilas ZigBee que no parecen no cumplir las especificaciones de la ZigBee Alliance al detalle, por esta

[181]


[182]

Especificación de perfil zigbee para monitoreo y control de plantas industriales

razón aún no se logran redes ZigBee operativas con módems de diferentes fabricantes. Al definir el perfil, se logro establecer un lenguaje común para el intercambio de datos, y la rigurosidad en la definición de las acciones de procesamiento, trajo como consecuencia un sistema mucho más simple y confiable, ya que de esta manera el usuario del perfil sólo debe preocuparse por su aplicación, y no por la compatibilidad en el proceso de comunicación. Si bien no existe un perfil ZigBee para este tipo de sistemas, muchos de los cluster necesarios ya están definidos en la ZCL, por lo tanto el esfuerzo en nuevas especificaciones se reduce bastante. Los estándares establecidos por la ZigBee Alliance y la IEEE para las WPAN no han logrado unificar completamente a los múltiples fabricantes de dispositivos ZigBee que existen en el medio, ya que cada uno tienen implementaciones propietarias de la pila ZigBee en alguna de sus capas, lo que evita la interoperabilidad. Los ambientes limpios de ruido electromagnético son ideales para la comunicación con esta tecnología de corto alcance, ya que a pesar de trabajar en la banda ISM (Industrial, Scientific and Medical), su selección del canal, modulación y modo de acceso minimizan las posibilidades de interferencias. La facilidad que da el estándar ZigBee de definir perfiles, facilita la extensión de la tecnología a prácticamente cualquier dominio de aplicación. Con las múltiples herramientas de desarrollo, y el hardware integrado de microcontrolador y módem en un solo chip, el tiempo de desarrollo de aplicaciones profesionales de redes inalámbricas es bastante reducido. El proyecto debe continuar con el despliegue de la red de sensores y actuadores en una planta industrial real o académica, donde las condiciones introduzcan otras variables que aún no han sido analizadas en este artículo, como es el ruido y las exigencias de desempeño de una planta de tiempo real.

Revista Tecnológicas


Revista Tecnológicas

Reconocimientos Este artículo es el resultado del proyecto Red de Monitoreo y Control Utilizando Tecnología ZigBee, que desarrolla el grupo de investigación en integración de soluciones con TICs – GIT, y está financiado por el Instituto Tecnológico Metropolitano.

Bibliografía Akkaya, K., & Younis, M. (2005). A survey on routing protocols for wireless sensor networks. Ad Hoc Networks , 3 (3), 325-349. Akyildiz, I., Su, W., Sankarasubramaniam, Y., & Cayirci, E. (2002). A Survey on Sensor Networks. Communications Magazine, IEEE , 40 (8), 102 - 114. Cao, J., Qian, S., Hu, H., & Yang, S. (2008). Wireless monitoring and analysing system of dissolved gases in the transformer oil. Intelligent Control and Automation, 2008. WCICA 2008. 7th World Congress on (págs. 5152 - 5157). Chongqing, China: IEEE. Freescale Semiconductor. (2007). Freescale BeeStack™ Software Reference Manual. Denver, Colorado: Freescale Document BSSRM. Freescale Semiconductor. (2008a). BeeKit Wireless Connectivity Toolkit User’s Guide. Denver, Colorado: Freescale Document BKWCTKUG. Freescale Semiconductor. (2008b). CodeWarrior™ Development Studio for Microcontrollers V6.2. Denver, Colorado: Freescale Document 95000087. Freescale Semiconductor. (2008c). MC13211/212/213 ZigBee™- Compliant Platform - 2.4 GHz Low Power Transceiver for the IEEE® 802.15.4 Standard plus Microcontroller Reference Manual. Denver, Colorado: Freescale Document MC1321xRM. Freescale Semiconductor. (2008d). MC1321x Evaluation Kit (EVK) Reference Manual. Denver, Colorado: Freescale Document MC1321xEVKRM. Gauger, M., Minder, D., Marrón, P. J., Wacker, A., & Lachenmann, A. (2008). Prototyping sensor-actuator networks for home automation. REALWSN ‘08: Proceedings of the workshop on Real-world wireless sensor networks (págs. 56-60). Glasgow, Scotland: ACM SIGOPS. IEEE (2003). Institute of Electrical and Electronics Engineers, Inc. IEEE std. 802.15.4 Wireless Medium Access Control (MAC) and Physical Layer

[183]


[184]

Especificación de perfil zigbee para monitoreo y control de plantas industriales

(PHY) Specifications for Low Rate Wireless Personal Area Networks (LRWPANs). New York: IEEE Press. Kim, B., Kim, Y., Lee, I., & You, I. (2007). Design and Implementation of a Ubiquitous ECG Monitoring System Using SIP and the Zigbee Network. Future generation communication and networking (fgcn 2007) , 2, 599 604. Kulkarni, P., & Öztürk, Y. (2007). Requirements and design spaces of mobile medical care. En ACM, ACM SIGMOBILE Mobile Computing and Communications Review (Vol. 11, págs. 12-30). New York, NY, USA. Kuo, B. (2006). Sistemas de Control Digital. México: Compañía Editorial Continental. Li, X., Fang, K., Gu, J., & Zhang, L. (2008). An Improved ZigBee Routing Strategy for Monitoring System. Intelligent Networks and Intelligent Systems, 2008. ICINIS ‘08. First International Workshop on (págs. 255 258). Wuhan, China: IEEE. Liu, Y., Yu, S., Chen, W., & Li, W. (2006). Wireless Communication Technology Based on Bluetooth and Its Application to a Manipulator. 2006 IEEE International Conference on Industrial Informatics (págs. 1251 1256). Singapore: IEEE. National Instruments Corporation. (2008). LabVIEW™ Help. Austin, Texas: NI Document 371361E-01. Rashid, R., & Yusoff, R. (2006). Bluetooth Performance Analysis in Personal Area Network (PAN). RF and Microwave Conference, 2006. RFM 2006. International (págs. 393 - 397). Putrajaya, Malaysia: IEEE. Sasaki, H., & Ueda, K. (2007). Design and Deployment of Wireless Monitoring System for 4-20mA Current Loop Sensors. Networked Sensing Systems, 2007. INSS ‘07. Fourth International Conference on (págs. 73 - 76). Braunschweig, Germany: IEEE. SIG (2006). The Bluetooth Special Interest (SIG). Installed base of more than one billion products gives consumers more than five billion ways to use the global wireless standard. Technical Report. Steere, D., Baptista, A., McNamee, D., Pu, C., & Walpole, J. (2000). Research challenges in environmental observation and forecasting systems. Proceedings of the 6th annual international conference on Mobile computing and networking (págs. 292 - 299). Boston, Massachusetts, United States: ACM. Szewczyk, R., Mainwaring, A., Polastre, J., Anderson, J., & Culler, D. (2004). An Analysis of a Large Scale Habitat Monitoring Application. Proceed-

Revista Tecnológicas


Revista Tecnolรณgicas ings 2nd International Conference on Embedded Networked Sensor Systems (SenSys 2004) (pรกgs. 214-226). Baltimore, MD, USA: ACM. Thomson, F. (2007). Bluetooth enabled equipment shipments. Technical Report, IMS Research. Trovao, J., Santos, F., Silva, M., & Jorge, H. (2008). A web-based monitoring approach for power systems in industrial plants. Industrial Electronics, 2008. ISIE 2008. IEEE International Symposium on (pรกgs. 1769 - 1774). Cambridge, UK: IEEE. Zhao, Q., Gao, X., Wang, H., & Yang, Y. (2008). The application of oil and gas wells intelligent wireless monitoring system in oil field system. IT in Medicine and Education, 2008. ITME 2008. IEEE International Symposium on (pรกgs. 906 - 910). Xiamen, China: IEEE. ZigBee Alliance. (2007a). ZigBee Home Automation Public Application Profile. San Ramon, CA: ZigBee Document 053520r25. ZigBee Alliance. (2007b). ZigBee Cluster Library Specification. San Ramon, CA: ZigBee Document 075123r01ZB. ZigBee Alliance. (2008). ZigBee Specifications. San Ramon, CA: ZigBee Document 053474r17.

[185]


Los

clúster del sistema regional de innovación

antioqueño: más debilidades que fortalezas en su desempeño Carlos Alberto Acevedo Alvarez1

Resumen En este artículo se realiza inicialmente una contextualización internacional del origen, estado actual y perspectivas del concepto de sistema regional de innovación (SRI). Luego se mostrarán características de los SRI exitosos o de los países desarrollados frente a las características de los SRI de países en desarrollo. Posteriormente se mostrará cómo el proceso de identificación, apoyo, implementación y consolidación de los Microclusters en Antioquia (Eje central de las actividades del SRI Antioqueño) no obedece a una estrategia de desarrollo regional ya que no involucra toda su institucionalidad (incluyendo los entornos científico, productivo, social, tecnológico y financiero). Finalmente, se establece el panorama actual (análisis DOFA, haciendo énfasis en las deficiencias e insuficiencias) de la política de microcluster como eje central de las actividades del SRI antioqueño.

Palabras claves: sistema regional de innovación, competitividad, clusters, redes de innovación.

1 Ingeniero Mecánico-Universidad de Antioquia. Especialista en Gerencia de Mantenimiento-Universidad de Antioquia. Especialista en combustibles gaseosos. Universidad de Antioquia. Estudiante del doctorado en Filosofía de la Ciencia y Gestión de la Innovación Tecnológica (Convenio ITM – UPV). Director del GITER (Grupo de Investigación en Tecnologías Energéticas) del ITM. E-mail: carlosacevedo@itm.edu.co Fecha de recepción: 3 de marzo de 2009 Fecha de aceptación: 20 de mayo de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[188]

Los cl煤ster del sistema regional de innovaci贸n antioque帽o...

Abstract this article is initially international contextualization of origin, current state and prospects of the concept of regional innovation system (RIS). Then they show characteristics of successful or SRI developed countries over the characteristics of SRI in developing countries. Later we will show how the identification process, support, implementation and consolidation of microcluster in Antioquia (backbone of the activities of SRI Antioquia) not due to a regional development strategy and that did not involve all its institutions (including scientific environments, productive, social, technological and financial). Finally, set the current scene (SWOT analysis, emphasizing the deficiencies and inadequacies) microcluster policy as central to the activities of SRI Antioquia.

Keywords Regional Innovation System, competitiveness, cluster, innovation networks.

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción Desde hace 14 años, en el Departamento de Antioquia, se viene implantando una experiencia de formulación y ejecución de políticas de innovación tecnológica y cuyo fin es mejorar su competitividad2 no sólo en el contexto nacional sino internacional. Entre dichas políticas se encuentran los programas y proyectos orientados a dinamizar el Sistema Regional de Innovación (Colciencias, 1995a). La dimensión regional de la política nacional de Innovación y desarrollo tecnológico es concebida “oficialmente” en Colombia como el sustrato sobre el cual se desarrollan intensos y dinámicos procesos de integración y cooperación que, reconociendo y respetando las particularidades y heterogeneidad de las diferentes regiones que conforman la geografía nacional, tiene como horizonte la creación de un proyecto nacional, que explore alternativas de desarrollo para la sociedad colombiana dentro de concepciones de sostenibilidad y convivencia que propendan por el crecimiento cultural de la nación en su conjunto (Colciencias, 1995a). Son numerosos los estudios realizados a nivel regional (Cámara de Comercio de Medellín para Antioquia, Centro de Tecnología de Antioquia, Planea, Antioquia visión siglo 21, entre otros) sobre las fortalezas, debilidades e insuficiencias de la región para elevar su competitividad. ¿Por qué pese a la rigurosidad de dichos estudios, no se vislumbra a corto plazo la ejecución de soluciones para subsanar

2 Impreciso o ajustado, lo que no admite discusión es que ante la frecuencia con que se utiliza en casi todos los niveles de la vida social y el rumbo que toma un mundo cada vez más globalizado en sus relaciones económicas y políticas, la competitividad seguirá siendo un vínculo que abre las puertas de la reputación y la actualidad de léxico a los ciudadanos del mundo. Y, por supuesto, también abre las puertas al entendimiento o no de lo que necesita un país o una región para desarrollarse, y si hay un consenso sobre su significado y alcance, a la toma de decisiones públicas y privadas que eleven el bienestar. La competitividad es uno de los términos más usados entre las teorías que constituyen el paradigma administrativo actual. Sin embargo, con frecuencia su utilización no refleja una verdadera concientización acerca de la complejidad de las variables que encierra.

[189]


[190]

Los clúster del sistema regional de innovación antioqueño...

las deficiencias estructurales, operativas, políticas, económicas y sociales de la regionalización del sistema nacional de innovación? Es el camino adecuado seguir fielmente “la perspectiva desde arriba” (Rozga, 2003: 224 – 248) en el desarrollo de las políticas nacionales de innovación sobre la región? ¿Son adecuados los mecanismos de integración de los nodos de la red de competitividad para lograr los objetivos trazados en dicha propuesta? ¿La región de Antioquia y los integrantes de la red de competitividad han logrado dinamizar y llevar a cabo la política de Ciencia y Tecnología Nacional? ¿Es conveniente insistir en imitar3 los modelos de políticas nacionales de Ciencia, Tecnología e Innovación de otras regiones exitosas del mundo sin contextualizarlas en las fortalezas, deficiencias y debilidades de nuestro entorno social, cultural y empresarial? ¿Por qué no se han realizado estudios del sistema de innovación regional desde una perspectiva reticular y enfocada al desarrollo local?. De la misma forma que los países menos desarrollados ó países en vías de desarrollo (PED), el modelo de desarrollo socioeconómico colombiano y sus regiones4 dio un giro trascendental. En las 3 la política científica, sus herramientas y la aplicación están influenciadas por la tendencia mundial actual de producción del conocimiento científico y en la cual se establecen determinados contextos de aplicación desde el inicio del proceso de investigación en el entorno de ciertos intereses y políticos de los estados, lo cual le resta a la empresa de producción de conocimiento su carácter de compartir los resultados con la humanidad para dar paso a los intereses de los países desarrollados En esta situación, los países en vías de desarrollo están sometidos a fijar la política científica y tecnológica en función de las oportunidades y limitaciones de su interacción con los países desarrollados (Albornoz: 1998). 4 Existen muchos criterios para definir la región como concepto intelectual. Algunos autores la definen en función de perspectivas económicas (Porter, 1990a), ya que asocian esta al concepto de clúster industrial. En lo que sigue adoptaré cuatro criterios para definirla ya que permiten hacer un análisis de mayor integralidad sobre la competitividad de la misma: 1. Una región no está vinculada a un tamaño determinado, 2.Es homogénea en términos de unos criterios específicos, 3. puede ser diferenciada de áreas fronterizas por un tipo particular de asociación de características relacionadas, y 4. presenta cierta cohesión interna. Las fronteras de la región no son fijas de una vez para siempre, estas pueden cambiar incidiendo en la aparición de una nueva y obligando a desaparecer a la anterior (Cooke, 1999) citado en (Olazarán y Gómez Uranga: 1999:75).

Revista Tecnológicas


Revista Tecnológicas

décadas precedentes quedaron las políticas proteccionistas y de sustitución de importaciones para dar vía libre a un esquema de apertura comercial y financiera. Frente a esta nueva situación – consecuencia inherente del mundo globalizado – aparece la variable de Competitividad5 como factor prioritario para que un país o región logre insertarse efectiva y beneficiosamente en la economía internacional, impregnada esta última de alta competencia en todos los niveles y sectores productivos. Dentro de un contexto comparado, resulta evidente que en términos de competitividad, Colombia (incluyendo todas sus regiones) tiene baja calificación. Como se desprende del Anuario de Competitividad Mundial publicado por el International Institute for Management Development (IMD) en Diciembre de 2008, Colombia ocupa el puesto 41 entre 55 países. En este índice se evalúan 331 criterios. Si se compara con otros países latinoamericanos, Colombia supera a Argentina y Venezuela en el ranking global, en el desempeño económico, en la eficiencia de gobierno y en la eficiencia empresarial. En la economía doméstica supera a Argentina, y en infraestructura supera a México y Venezuela. Estados Unidos ocupa el primer lugar en el ranking global y es tercero en todos los factores, excepto en eficiencia del gobierno. Una fuente alternativa, el Informe de Competitividad Global del World Economic Forum, de Diciembre de 2008, también entrega un resultado verdaderamente preocupante. En el ranking global, 5 Palabra mágica, de alta retórica en el contexto político de Colombia y de uso común en el lenguaje económico. Si queda alguna duda de su prestigio e importancia, bastaría una prueba: En www.google.com, (Enero de 2005), uno de los motores de búsqueda de información más reconocidos de la red mundial (www.), el número de registros del término competitividad supera con amplitud (1.460.000 registros en español) a los de la propia globalización (que aparece con 831.000 registros), y aventaja todavía más a conceptos como el crecimiento económico (con 1.300.000 registros) cuyo significado resume buena parte de las discusiones acerca del papel de la política económica del mundo en desarrollo durante los últimos veinte años. Incluso, hoy es posible encontrar que la competitividad está más registrada que ciertos temas económicos que afectan a las personas de forma más directa y sensible, como son los casos del desempleo y la inflación (458.000 registros de inflación frente a 1.380.000 de desempleo).

[191]


[192]

Los clúster del sistema regional de innovación antioqueño...

Colombia se ubica en el puesto 74 entre 134 países. En dicho ranking, el país ha descendido 10 puestos en los últimos 8 años. El índice de competitividad está integrado por doce pilares. El primer pilar es el de calidad institucional, pública y privada. Mientras nuestras empresas hacen esfuerzos en rendición de cuentas y buen gobierno, se generan muchas dificultades con las entidades estatales como el Ejército, la policía, el Dane, el DAS, la Fiscalía, entre otros. Tener la convicción por parte del gobierno actual que lo anterior es un asunto interno y manejable con discreción sin que se produzcan efectos negativos es un fatal error. Esto afecta nuestro desarrollo. El segundo pilar es el de la infraestructura. Especialmente la requerida para insertarse en los mercados internacionales. Colombia lleva una década de parálisis en este frente, incluidos los cuatro primeros años de este gobierno6. El tercero es la estabilidad. Los indicadores de endeudamiento del gobierno y déficit fiscal, ampliación de la deuda y el nivel de ahorro no son los esperados. Uno de ellos hace referencia a la deuda externa, la cual llegó a US$46.509 millones en junio de 2009 y equivale a 21,1% del PIB. Esto muestra un aumento de 2 por ciento frente al mismo mes del 2008, cuando la deuda externa total sumó 45.382 millones de dólares (extractado de http://www.portafolio.com.co/economia/finanzas/ARTICULO-WEBNOTA_INTERIOR_PORTA-6279568.html, Septiembre de 2009). Este referente muestra que no se ha avanzado en este campo. El cuarto pilar corresponde a los indicadores de salud y educación. En estos sectores se ha avanzado en aseguramiento, esperanza de vida y cobertura. Falta avanzar mucho más en 6 Infraestructura: de 2856 Km contratados para nuevas vías, sólo se han ejecutado el 44% (tomado de https://www.sigob.gov.co/ind/indicadores.aspx?m=686, Agosto 31 de 2009). Telecomunicaciones: De 2303 instituciones públicas dentro del plan de conectividad, sólo se ha alcanzado el 51 % (tomado de https://www.sigob.gov.co/ind/ indicadores.aspx?m=507, Agosto 31 de 2009). Internet: de 47 ciudadanos por cada cien habitantes proyectados para conectarse a Internet se ha alcanzado el 93.6 % (tomado de https://www.sigob.gov.co/ind/indicadores.aspx?m=512 , Agosto 31 de 2009)

Revista Tecnológicas


Revista Tecnológicas

calidad de la educación. En educación preescolar, básica y media básica, sólo el 81.52% de los establecimientos educativos rurales y urbanos de bajo logro están acompañados en la formulación y ejecución de planes de mejoramiento. En educación superior, el 92% de los programas de pregrado en funcionamiento tienen condiciones mínimas de calidad (Tomado de https://www.sigob.gov. co/ind/indicadores.aspx?m=634, Septiembre de 2009). El quinto pilar es el de formación avanzada. En este campo se tienen notables deficiencias para el desarrollo Colombiano. La calidad de la investigación7, el número de doctorados8, la cobertura9, el desarrollo científico y tecnológico10. Dado el bajo presupuesto (inferior al 0.2% PIB, tomado de INTERNATIONAL INSTITUTE FOR MANAGEMENT DEVELOPMENT – IMD, 2006) que se dedica a estos campos es difícil avanzar. El sexto, séptimo, octavo, noveno y décimo pilar tienen que ver con la calidad de los mercados, nivel de competencia, distorsiones y tamaños del mercado externo. Aquí no cambia la situación. En cada reunión gremial surge un nuevo subsidio, una nueva distorsión para los mercados. Los gobiernos deben tener en cuenta

7 Colombia tiene un indicador de 1,9 Artículos científicos publicados por cada cien mil habitantes. Mientras el país pionero en ese sentido, Suiza, entrega 215,2. (Período de evaluación 2005). Extractado de: SCI-e (Science Citation Index Expanded) de 2006. y Con base en artículos publicados en revistas indexadas en el SCI-e. 8 Colombia tiene 48 titulados anuales en Doctorados por cada cien mil habitantes en el año 2006. Es un pobre desempeño frente a otros países de América Latina. México: 173; Brasil: 114, entre otros. Extractado de: Red Iberoamericana de Indicadores de Ciencia y Tecnología (RICYT), 2006. 9 Este indicador en nada favorece la situación actual del país: 109 investigadores por cada millón de habitantes. Como referencia, el país líder en dicho aspecto es Japón con 5287 investigadores por cada millón de habitantes. En América latina lo superan: Argentina (720), Chile (444), Brasil (323), México (268) y Venezuela (194). Extractada de: UNESCO (Institute for Statistics), información para 2002. Con base en artículos publicados en revistas indexadas en el SCI. 10 Esto se refleja en estos indicadores: 0,03 patentes otorgadas a residentes por cada 100.000 habitantes en el período 2002 - 2004. Obsérvese como, el país líder en dicho sentido, Taiwán, entrega 131,7 por cada 100.000 habitantes. Extractado de Anuario Mundial de Competitividad 2006, IMD.

[193]


[194]

Los clúster del sistema regional de innovación antioqueño...

que atender el lobby de un gremio o sector genera desequilibrios frente a las prioridades establecidas en los planes de desarrollo. El manejo político no debe sacrificar de manera grave e irreversible el bienestar general de la comunidad. Los pilares undécimo y duodécimo hacen relación con la sofisticación de los negocios y la innovación. Estos hacen referencia a las ganancias que pueden ser obtenidas mejorando las instituciones, construyendo infraestructuras físicas, reduciendo la inestabilidad macroeconómica y haciendo más eficiente el capital social. Estas condiciones entregarían una ventaja competitiva en los mercados internacionales. Ello es posible si se accede a ellos con productos de alto contenido tecnológico11. Desafortunadamente, las divisas internacionales de Colombia dependen de la exportación de productos naturales sin ningún valor agregado de conocimiento. El desempeño de las regiones colombianas sigue esta misma línea de índices de competitividad. La región Antioqueña no escapa a este panorama. En 1996 el Centro de Estudios Regionales, Cafeteros y Empresariales de Manizales (Crece) y la Misión Siglo XXI desarrollaron el primer escalafón de competitividad de los departamentos de Colombia con base en información recopilada de los años 1992-1993 y una encuesta realizada a empresarios en 1996. Posteriormente, se realizó un nuevo escalafón para el año 2000 con base en 87 variables (Ortiz, 2004). Los factores de competitividad considerados para construir el ranking son: infraestructura, finanzas, administración, internacionalización, recurso humano, ciencia y tecnología, gobierno, fortaleza de la economía y medio ambiente. Antioquia ocupa el puesto 3 entre 23 en el escalafón global de competitividad departamental de Colombia. Los factores en los que se encuentra en una mayor desventaja competitiva son, en su orden, gobierno e instituciones (puesto 4), infraestructura (puesto

11 Los indicadores del país son bajos en tal sentido. Colombia tiene 5,6, Brasil: 11,59, México: 21,2; Singapur: 58,93. Extractado de Indicadores de Desarrollo Mundial, Banco Mundial. Anuario Mundial de Competitividad [2006]

Revista Tecnológicas


Revista Tecnológicas

6), ciencia y tecnología (puesto 4) y Medio ambiente (Lugar 13). Mientras que en los que se ubica en un buen nivel son internacionalización, gestión empresarial y finanzas. Desde hace una década se han intentado implementar políticas de Ciencia, Tecnología e Innovación en la región Antioqueña, las cuales incluyen varios programas y proyectos orientados a dinamizar el Sistema Regional de Innovación. Los resultados económicos y sociodemográficos no son los esperados, mostrando ellos la inestable competitividad de la región y transformándola en una región con estancamiento en su proceso de desarrollo.12 Algunas características económicas del tipo de región en el que se encuadra Antioquia son: fuerte incidencia de sectores primarios de lento crecimiento o francamente en contracción, pérdida de dinamismo de sectores industriales y/o de algunos sectores terciarios y lento crecimiento en el PIB per cápita más por fuerte inmigración que por la baja expansión de las actividades económicas. La otra cara del análisis está constituida por: gran parte de la población antioqueña vive en una situación económica que no le garantiza la satisfacción de sus necesidades básicas; un alto porcentaje de la población del departamento de Antioquia presenta condiciones de vida por debajo de los niveles aceptables de desarrollo humano; creciente deterioro ambiental que limita el desarrollo humano integral de la población del Departamento, constante

12 Algunos indicadores del nivel de estancamiento:”Antioquia presenta un nivel bajo de exportaciones de tecnología media y alta (no alcanza el 20% de sus exportaciones), ocupando el sexto lugar (por debajo de Bolívar, Bogotá, Caldas, Valle del Cauca y Atlántico). El Departamento de Antioquia ocupa el tercer lugar en el nivel de exportaciones per cápita, después de Cundinamarca y Bolívar, con un monto cercano a los US$500 per cápita, sin embargo se encuentra distante de la meta de largo plazo que es alcanzar los U$3.500 dólares per cápita. La formalización laboral del Departamento de Antioquia es muy baja (45%, es decir informalidad del 55%), ocupando el quinto lugar, por debajo de Bogotá, Valle del Cauca, Risaralda y San Andrés. En Antioquia, de 100 empresas constituidas 29 desaparecen al tercer año, al séptimo año el acumulado es de 43 y a los 10 años han cerrado 48 empresas. En Antioquia el 55% de la población está por debajo del nivel de pobreza” Tomado de http://www.compite.ws/spccompite/ resources/getresource.aspx?ID=362, Agosto de 2009.

[195]


[196]

Los clúster del sistema regional de innovación antioqueño...

presencia de hechos que limitan el libre ejercicio de las libertades de expresión y participación política en el territorio antioqueño y bajo nivel de participación política y social para el ejercicio de la democracia (Cataño y Patiño, 2003), a lo que se agrega un grave desequilibrio intrarregional entre las subregiones de Antioquia. Frente a este preocupante panorama algunos actores regionales iniciaron hace ya casi una década la tarea de trazar una visión y una serie de estrategias tendientes a cambiar la dirección de la tendencia regresiva y deteriorada del desarrollo antioqueño, formulando lo que ahora se conoce como el Plan Estratégico de Antioquia (1998). El análisis particular - no estructural ni relacional- previo de las condiciones económicas, culturales, financieras, tecnológicas y posterior diseño de las políticas de desarrollo, innovación y competitividad de la región no han generado las sinergias entre los actores del Sistema Regional de Innovación (SRI). Además que dicho análisis se ha enfocado a las características y atributos de cada actor y no a las múltiples relaciones entre los agentes del sistema que definen y establecen una dinámica diferente para el territorio. ¿Por qué no se han logrado alcanzar unas condiciones y metas mínimas de competitividad, sostenibilidad ambiental y de bienestar para toda la población de la región?

2. Evolución del concepto de SRI Según Philip Cooke (1998a), el concepto del “sistema regional de innovación”13 es nuevo y no ha sido difundido sino hasta el año 1992 por él mismo. Existen tres condiciones para la aparición de este concepto (Cooke, 1992):

13 Diferentes autores han dado otras definiciones para un SRI como un “conjunto de redes de agentes públicos, privados y educacionales que interactúan en un territorio específico, aprovechando una infraestructura particular, para los propósitos de adaptar, generar y/o difundir innovaciones tecnológicas” (Carlson et al, 1996, 93- 118). Además, existen diferentes planteamientos sobre la aparición

Revista Tecnológicas


Revista Tecnológicas

En primer lugar, de manera coincidente en los tempranos años noventa, los científicos regionales empezaron a reunir algunos elementos que anteriormente se analizaban por separado; estos fueron la existencia de los complejos tecnológicos regionalizados (Saxenian, 1994) y los arreglos de carácter de “tecnópolis”14 a gran escala (Castells & Hall, 1994). Todas estas investigaciones pusieron en tela de discusión no la pregunta sobre si existe la innovación regional, sino si ésta tiene el carácter sistémico.

del concepto. El concepto del sistema regional de innovación es resultado de la fusión de dos enfoques teóricos. Se basa, por un lado, en los conceptos de distrito industrial (Marshall, 1932), y polos de crecimiento (Perroux, 1955) y en la teoría de los clusters (Porter, 1990a). Estos enfoques tienen en común la importancia que adjudican a: la proximidad espacial, las externalidades, la cultura e identidad regional y el proceso de aprendizaje colectivo o regional (Koschatzky, 2000) y por otro lado, se basa en los resultados de la teoría del crecimiento que subrayan la importancia de la innovación para tales áreas geográficas. Las actividades innovadoras generan externalidades positivas (Romer, 1986; Lucas et al, 1992) que pueden ser aprovechadas, sobre todo, por los agentes regionales (Stern, Porter y Furman, 2000). 14 Como escribieron Castells y Hall (1994), el primer hallazgo importante es que no hay un solo motivo ni un solo objetivo para realizar la política del desarrollo de tecnópolis; hay tres y se les puede ver casi como tres rincones del mismo triángulo. Aunque se relacionan, se necesita distinguirlos detalladamente, debido a que tienen diferentes implicaciones para la estrategia de construcción de tecnópolis. El primero es muy sencillo y consiste en la reindustrialización. Se afirma que reindustrialización, porque en la mayoría de los casos el objetivo es crear nuevos trabajos en nuevas industrias para reemplazar los puestos de trabajo en industrias viejas que se contraen. Las teorías del ciclo del producto y de ventajas comparativas sugieren que cuando las economías se desarrollan, deberán salirse de las industrias en los cuales otros compiten más efectivamente y entrar en las industrias donde tienen algún tipo de ventaja. El segundo objetivo es el desarrollo regional, debido a que cuando las naciones y regiones crezcan, es muy posible que también aumenten las disparidades entre diferentes áreas geográficas. Particularmente, las industrias nuevas están más dispuestas a desarrollarse en una región medular, hacia donde están atraídas por las economías de aglomeración, para estar más próximas unas de otras. De esta manera, el objetivo de reindustrialización nacional será complementado o modificado por la meta regional; concentrar el proceso en aquellas regiones que parecen que más lo necesitan. El tercero que parece ser el elemento esencial en la construcción de tecnópolis es la creación de sinergia, una palabra usada mucho en la literatura reciente, pero difícil de definir. Se le puede denominar mejor como la generación de la información nueva y con mucho valor a través de las interacciones humanas.

[197]


[198]

Los clúster del sistema regional de innovación antioqueño...

La segunda razón por la que surgieron las investigaciones científicas sobre la existencia de los sistemas regionales de innovación ha sido la literatura floreciente sobre “pos-Fordismo” (Amin, 1995), la de “clusters industriales” (Porter, 1998) o del “crecimiento del Estado regional” (Ohmae, 1997). Parece que desde entonces se aceptó ampliamente que el Fordismo clásico ya no es un paradigma dominante de las coordenadas socioeconómicas. En el ámbito macroeconómico los lazos fundamentales entre la producción y consumo se encuentran bajo la tensión y hay muchos ejemplos de algunas economías gobernadas neoliberalmente, donde hay negociaciones colectivas como es el caso de Alemania, pero las hay también donde estas negociaciones han sido rotas, por ejemplo las economías del Reino Unido y Estados Unidos. En ambos casos se pone como objetivo el presupuesto balanceado y las adecuadas políticas fiscales y monetarias. A nivel micro, grandes estructuras corporativas fordistas tratan de reestructurarse a través de diferentes maneras de reformas administrativas, entre ellas, la búsqueda de cooperación externa (outsourcing). Entre las pocas cosas obvias que enfrentan estas organizaciones es que la firma tiene que ser competitiva para sobrevivir, por lo que necesita también ser innovadora (Cooke, 1998). Al tomar en cuenta estas condiciones, no es sorprendente que los gobiernos de los países occidentales buscaron, primero: reestructurar sus políticas tecnológicas para ayudar a las industrias a ser competitivas y, después, cuando el curso de los asuntos falló, se retiraron de la tarea de “apoyar a los exitosos”. En realidad, se distanciaron de las medidas amplias de política industrial, dejando a la selección competitiva las firmas y limitándose únicamente a crear el “buen clima para los negocios”. En la década de los 90s, los grandes animadores corporativos de la economía se comportaron casi como las islas autosuficientes, apoyándose en las fuentes internas, llevando a cabo la investigación y desarrollo internamente, compitiendo con base en su autosuficiencia y con poca preocupación por la “infraestructura blanda” de sus localizaciones, hoy en día todo esto cambia. La manufacturación colaboradora requiere de “las

Revista Tecnológicas


Revista Tecnológicas

relaciones de mediano plazo basadas en confianza” y descansa en el reconocimiento renovado de la importancia de cultura de actividad económica, coordinación y desarrollo (Cooke, 1998a). La clave en este análisis tiene tres dimensiones en la cultura socioeconómica. En primer lugar, la escala individual. La confianza tiene un valor enorme en los procesos económicos (Rozga, 2003) y (Oleaga et al, 2005). En segundo lugar, dentro de las capacidades socioculturales se considera como económicamente ventajoso el deseo de cooperar. Y finalmente, debido a que las grandes firmas contratan la mayoría de su producción y servicios fuera de las firmas abastecedoras (mencionado outsourcing), tienen que ser conscientes y sensibles a las relaciones basadas en la confianza, reciprocidad, intercambio y redes sociales (Cooke, 1998a: 4). Estas firmas, la administración regional y las culturas nacionales que entienden la importancia de la coordinación social para el éxito económico, son las que frecuentemente promueven los “clúster”15 de la ventaja competitiva en la economía que se globaliza de manera creciente. Cuando se menciona “clúster” 15 “Cluster (cúmulo, en su traducción castellana) es una concentración geográfica (también señalado como un grupo geográficamente denso) de empresas interconectadas, pertenecientes a un campo concreto, unidas por sus rasgos comunes y complementariedad entre sí, junto a suministradores especializados, proveedores de servicios, empresas de sectores afines e instituciones conexas que compiten y cooperan. Por su dimensión geográfica, el cluster puede ser urbano, regional, nacional e incluso supranacional” (Porter, 1998: 205). La profundidad de la definición de “Cluster” es condicional en el resultado de tres argumentos básicos asociados con el concepto: Argumento de existencia, los beneficios económicos y sociales que acumulan las empresas cuando se asocian en cluster; Argumento de extensión, las desventajas económicas y sociales cuando la clusterización excede ciertos sectores geográficos y alianzas estratégicas y el Argumento de agotamiento, hace referencia a la erosión de economías y el inicio de las desventajas sobre el ciclo de vida del cluster ( Ver Maskell, 2005). Las características que diferencian al cluster de un aparato de producción cualquiera son cinco:1) Tenencia de un espacio geográfico determinado y existencia de concentración sectorial, 2) Presencia de empresas de distintos tamaños alrededor de la explotación o uso de los recursos o patrimonios en torno a los cuales surge alguna actividad económica, 3) Paulatina especialización productiva, 4) Presencia de acción conjunta de los agentes y 5) Activa competencia para atender una demanda progresivamente más sofisticada.

[199]


[200]

Los clúster del sistema regional de innovación antioqueño...

lleva inevitablemente al nombre de Michael Porter16, cuyas ideas del trabajo sobre la ventaja competitiva (Porter, 1990a) han sido ampliamente adoptadas por países y regiones que buscan identificar y reforzar su potencial competitivo a escala mundial, apoyando a los clusters industriales. Tercero y último, la arquitectura conceptual de los SRI está construida sobre los patrones de la inversión extranjera directa en las diferentes economías avanzadas Ohmae (1997). La conclusión es dado que la coordinación económica se convierte crecientemente en globalizada, las interacciones entre las firmas en los clusters industriales específicos se convierten en regionalizadas (Cooke, 1998b: 5). Esta última opinión compite con la idea más amplia, expresada en el trabajo de Ohmae sobre el hueco que se origina a nivel del Estado nacional y sobre la creciente relevancia de la economía mundial sin fronteras. Precisamente Ohmae pregona que los niveles regionales tienen mayor importancia que los nacionales, ya que son escalas económicas claves en las que se organiza en términos prácticos la competitividad de los negocios. Al recopilar las ideas de esta última parte, se puede afirmar que en los años ochenta y noventa se han conjugado diferentes nociones que conectaron la tecnología y las políticas del desarrollo regional. Éstas llevaron a una yuxtaposición de la industria de alta tecnología, el desarrollo de los parques científicos, el crecimiento de las redes de tecnología y las políticas regionales de innovación. Gran parte de esta literatura se dirigía directamente o indirectamente al cambio del paradigma productivo del Fordismo al pos-Fordismo, identificando las nuevas formas de subcontratación, las relaciones cliente-proveedor, las relaciones entre las grandes corporaciones y firmas pequeñas dinámicas, y también entre estas últimas.

16 Este autor mencionaba el hecho que los clusters “varían en tamaño, amplitud y (sobre todo en) fase de desarrollo (Nacimiento, crecimiento, estancamiento y declive)”. Para ello ver Porter, M. Clusters and the new economics of competition. New York: Harvard Business Review, noviembre-diciembre, 1998. p. 210.

Revista Tecnológicas


Revista Tecnológicas

Debido a que dichas relaciones ocurrían en un espacio geográfico dado, donde el apoyo de la infraestructura institucional para las empresas se ha canalizado a través de las iniciativas públicas y privadas, se ha usado la terminología de “clusters”. Finalmente, aparecen las evidencias que la combinación de tales clusters, gobernabilidad innovadora, apoyo empresarial y arquitectura promocional dieron lugar al surgimiento del fenómeno de la “región Estado” económicamente poderoso que hizo atractivas a las regiones para las firmas globales (Cooke, 1998b:6). Éstos son los argumentos de Philip Cooke sobre el origen del concepto sistemas regionales de innovación; sin embargo, se debe considerar si son suficientes ya que, por ejemplo, Howells (1999), añade además otras dos posibles perspectivas de ver a los sistemas regionales de innovación: desde arriba17 y desde abajo18. El futuro de los sistemas regionales de innovación depende de la forma como se creen las sinergias19, que corresponderán a las

17 Una de las opciones para ver los sistemas regionales de innovación es la perspectiva desde arriba, proporcionada básicamente por los autores de la definición del Sistema Nacional de Innovación (SNI), en la que se parte del supuesto de que los elementos existentes en los sistemas de innovación en el ámbito nacional también deben existir en el ámbito regional. Así, el objetivo será responder a la pregunta: ¿si se inicia desde la amplia definición del SNI, los elementos de este sistema se pueden, en parte e incluso, aplicar totalmente en el ámbito regional? Dichos elementos centrales de los SNI mencionados por Lundvall (1992: 13, citado en Howells, 1999: 71) incluyen: La organización interna de las firmas, las relaciones interfirmas, el papel del sector público, los arreglos institucionales del sector financiero y la intensidad y organización de la investigación y el desarrollo (I + D) 18 Los sistemas específicos de innovación deben presentar sus propias interacciones internas entre los agentes y arreglos institucionales dentro del sistema y además impartir más amplias cualidades operando como sistemas identificables. 19 “Múltiples ejemplos de la sinergia exitosa involucran la combinación de las innovaciones en producto, en la organización de producción y en la penetración de los mercados nuevos. Tomando como ejemplo, el desarrollo de la computadora personal entre 1974 y 1981, en el área de Bahía de San Francisco, la sinergia frecuentemente se percibe en términos de las redes que conectan los individuos en muchas organizaciones diferentes (públicas, semipúblicas y privadas, no lucrativas y lucrativas, de grande y pequeña escala); todas ellas dentro de un sistema que estimula el libre flujo de información y con esto la innovación. El lugar

[201]


[202]

Los clúster del sistema regional de innovación antioqueño...

necesidades de formación del conocimiento tecnológico y ayudarán a la instauración de las redes de innovación20.

3. Características de los sri de países desarrollados

y

países no desarrollados

Actualmente, las regiones más desarrolladas invierten mayores cantidades de fondos públicos y de manera más estratégica en la promoción y difusión de la innovación en sus empresas que las regiones menos desarrolladas. El común denominador de los gobiernos ha sido preguntarse cómo usar los recursos, mecanismos y las políticas necesarias para sobrevivir y tener éxito en una economía global de conocimiento e información. Las economías emergentes parecen haber aprendido en la década pasada que su estrategia debe concentrarse en imitar la estructura de competitividad de los Estados Unidos. No obstante, el excelente desempeño económico y tecnológico de países pequeños como Finlandia y Singapur significó la instauración de nuevos desafíos en los grandes países industrializados para mantener su liderazgo internacional. Mientras en el pasado la tecnología fue considerada como un factor de producción más, en una economía interconectada basada en el conocimiento, sólo una infraestructura de innovación tecnológica permite ser fuertes y obtener ganancias en el mercado internacional. Ésta parece ser una conclusión clara y generalizada

se puede definir como el arquetipo del ambiente de innovación, cuando la sinergia opera efectivamente, generando la innovación constante; con base en la organización social específica y sirviendo para el complejo de producción localizado en este lugar” (Castells y Hall, 1994). 20 La definición tradicional de redes se refiere a las asociaciones horizontales que se producen entre empresas para facilitar la coordinación y la cooperación en beneficio mutuo de sus miembros. Sin embargo, para efectos de entender la realidad de la región y el país, la definición de redes es el conjunto de relaciones integradas entre los agentes que participan en un aparato productivo. No se refiere, en particular a asociaciones horizontales o verticales, sino más bien a la dinámica económica y social que se aprecia entre diversos agentes aglutinados en torno a una actividad productiva determinada.

Revista Tecnológicas


Revista Tecnológicas

alrededor del mundo y muestra de ello es el creciente parecido entre los programas y políticas en ciencia y tecnología que los distintos gobiernos han adoptado. En efecto, las principales acciones de un gran número de gobiernos han estado encaminadas a obtener altos niveles de inversión de I + D, fortalecer la innovación en pequeñas y medianas empresas, educar y brindar altas habilidades a la mano de obra, mantener sistemas de colaboración permanente entre políticas tecnológicas internas y externas y brindar un acceso generalizado a tecnologías de la información y la Internet. El país con mayor inversión en I + D es Suiza, que alcanza el 3.85% del PIB. En segundo lugar le sigue Japón con el 2.91% y en tercer lugar Estados Unidos con el 2.67% del PIB. Otros países que se destacan son Alemania, Francia, Reino Unido e Italia. Según la información del año 1998, los países con mayor tasa de inversión en I + D como porcentaje del PIB no fueron precisamente los mismos que alcanzaron las mayores tasas de crecimiento de sus economías21. Sin embargo, las economías más sólidas y más grandes, medidas en Billones de dólares norteamericanos, son aquellas que han mantenido altos niveles de inversión en I + D a través del tiempo. La tasa de inversión en actividades de I + D en Colombia es comparable con la de Malasia, con 0.195% y 0.199% respectivamente. Estas tasas son levemente superiores a las de Indonesia. Estas observaciones dejan una pregunta abierta que queda por resolver: Los incrementos en I + D conllevan directamente a altas tasas de crecimiento en el PIB? O, por el contrario, sólo un alto crecimiento en el PIB permite aumentar las inversiones y los presupuestos para I + D? Los países con mayores tasas de inversión en I + D son aquellos con mejores condiciones de vida para sus habitantes, en términos de menor analfabetismo, atención médica por cada mil habitantes y acceso a agua potable22.Sin embargo, no necesariamente los países

21 IMD, The World Competitiveness Yearbook, June 2000 22 Encyclopaedia Británica Book of the Year 2001, Países del Mundo 2000, Boletines de las Naciones Unidas, cnn.com, PNUD 2000.

[203]


[204]

Los clúster del sistema regional de innovación antioqueño...

con mayores tasas de crecimiento en el PIB (Caso China) no tienen condiciones favorables de alfabetización y acceso a agua potable. Chile, con menos de la mitad de la población de Colombia, hizo una inversión en actividades de I + D superior a la colombiana. Igualmente, tiene una tasa menor de analfabetismo, una mayor dinámica del comercio internacional y un PIB per cápita dos veces superior al colombiano. Noruega, con una población semejante a la de Medellín y sus municipios circundantes, tiene mejores indicadores que aquellos agregados de todo el departamento de Antioquia. Para reducir progresivamente estas diferencias, la política regional tiene que abordar este problema incrementando la capacidad de innovación en las regiones menos desarrolladas, aspecto que, a su vez, depende del establecimiento de un sistema regional innovador y eficaz en dichas regiones, lo cual constituye una condición previa para el incremento de la inversión pública y privada en el campo de la innovación. Por el contrario, si las políticas se centran únicamente en incrementar el importe de la ayuda pública dedicada a la innovación, pronto surgirán problemas de “absorción” y la eficacia de estas inversiones se verá debilitada, tal y como ya ha sucedido en algunas regiones que en el pasado han efectuado experimentos políticos (por ejemplo, STRIDE). Ello se debe a lo que se puede denominar “la paradoja de la innovación regional”23. 23 La paradoja de la innovación regional hace referencia a la aparente contradicción entre la necesidad comparativamente mayor de invertir en innovación en las regiones menos desarrolladas y su capacidad relativamente menor de absorción de fondos públicos destinados a la promoción de la innovación en comparación con las regiones más desarrolladas. Es decir, cuanto más necesitan la innovación las regiones menos desarrolladas para mantener y mejorar la posición competitiva de sus empresas en una economía cada vez más globalizada, más difícil es invertir eficazmente y, por tanto, «absorber» fondos públicos para la promoción de la innovación en estas regiones. En otras palabras, cabría esperar que, una vez que se ha reconocido y definido la necesidad (el desfase de la innovación), y además existe la posibilidad de responder a ella mediante fondos públicos, estas regiones tendrían mayor capacidad de absorción de dichos recursos, porque parten de un nivel muy bajo («aún queda todo por hacer»). En cambio, estas regiones se enfrentan con serias dificultades para absorber el dinero disponible.

Revista Tecnológicas


Revista Tecnológicas

La razón principal que explica esta paradoja aparente no es la disponibilidad de fondos públicos en las regiones menos favorecidas. La explicación es otra. Más bien se halla en la naturaleza del sistema de innovación regional y la organización institucional de estas regiones. El sistema regional de innovación en las regiones menos favorecidas se caracteriza por su escaso desarrollo y naturaleza fragmentaria. La situación institucional en las zonas menos desarrolladas se caracteriza por la falta de un marco institucional adecuado y de sistemas de aplicación de políticas, por la ineficacia del sector público y, en particular, por la falta de comprensión del proceso regional de innovación por parte de los responsables políticos. Ambos aspectos combinados explican la paradoja de la innovación regional. El reducido tamaño del sistema de innovación regional de las zonas menos desarrolladas y la falta de articulación y coherencia de sus distintos subsistemas y agentes de la innovación se caracterizan por algunos de los rasgos que se recogen en el siguiente listado. Diez factores estructurales que afectan a los sistemas regionales de innovación en las regiones menos desarrolladas24 • Deficiencias relacionadas con la capacidad de las empresas de las regiones para detectar sus necesidades de innovación (y los conocimientos técnicos necesarios para evaluarlas) y falta de expresión estructurada de la demanda latente de innovación, combinadas con una baja calidad y cantidad de infraestructura técnica y tecnológica. • Escasez o ausencia de intermediarios tecnológicos capaces de detectar y “asociar” la demanda empresarial local de innovación y canalizarla hacia las fuentes de innovación regionales, nacionales o internacionales que puedan responder a dicha demanda. • Sistemas financieros poco desarrollados (prácticas bancarias tradicionales) con escasos fondos disponibles para actuar 24 LANDABASO et al.”La política regional de innovación en la UE en el inicio del siglo XXI”. VIII Seminario Latinoamericano de Gestión Tecnológica. Valencia, España, 1999. p. 7

[205]


[206]

Los clúster del sistema regional de innovación antioqueño...

como capital riesgo o capital semilla (y poco adaptados a las condiciones y riesgos del proceso de innovación de las empresas) para financiar la innovación. • Ausencia de un sector dinámico de servicios empresariales que ofrezcan servicios a las empresas para fomentar la divulgación de tecnología en los ámbitos en los que las empresas, como norma general, disponen de recursos internos reducidos para desarrollar independientemente innovaciones tecnológicas (Capello, 1989). • Escasos vínculos de cooperación entre los sectores público y privado y ausencia de una cultura empresarial favorable a la cooperación inter-empresa (falta de economías de escala y masas críticas empresariales que pueden hacer que determinadas iniciativas locales de innovación sean rentables). • Especialización sectorial en las industrias tradicionales con poca inclinación por la innovación y un predominio de pequeñas empresas familiares con pocos vínculos con el mercado internacional. • Mercados reducidos y relativamente cerrados con una demanda poco sofisticada que no fomenta la innovación. • Escasa participación en las redes internacionales de I+DT- (Investigación más desarrollo tecnológico), redes de comunicación poco desarrolladas, dificultades para atraer mano de obra cualificada y para acceder a los conocimientos técnicos específicos externos. • Unas cuantas grandes empresas (multinacionales) llevan a cabo la I+D con pocos vínculos con la economía local. • Poca asistencia pública a la innovación y regímenes de ayuda poco adaptados a las necesidades de innovación de las PYMES locales. Como se observa globalmente en estos diez factores, para estas regiones el sistema de innovación no cuenta con los vínculos y los mecanismos de cooperación necesarios para ajustar la oferta a la demanda, ni con las condiciones adecuadas para explotar las sinergias y la cooperación entre los escasos agentes regionales de

Revista Tecnológicas


Revista Tecnológicas

la I+DT que podrían servir para hacer frente a las lagunas y evitar la duplicación de esfuerzos. En una situación tal, invertir más dinero en la creación de nuevos centros tecnológicos, por ejemplo, sin coordinar y adaptar previamente el trabajo de los existentes, puede incluso distorsionar aún más el sistema. Simultáneamente, puede también imponer una nueva carga presupuestaria en las finanzas públicas a través de los gastos de funcionamiento de dichas instituciones, que probablemente no lograrán autofinanciarse de manera satisfactoria en un plazo razonable por el desajuste arriba mencionado. Lo mismo sucede con una serie de parques tecnológicos situados en las regiones menos desarrolladas, que terminan gestionando operaciones inmobiliarias que dependen de la capacidad de atraer capital externo, que no está vinculado a la industria regional y desempeña un papel muy limitado en la función estratégica económica de la transferencia tecnológica regional. Una distinción evidente de los clusters es la que responde a si el clúster pertenece a un países desarrollado o a un país en vías de desarrollo. Porter (1998: 236-237) señala al respecto que los clusters de los países en vías de desarrollo suelen tener menos profundidad y amplitud; que necesitan componentes, servicios y tecnologías extranjeros; que sus empresas suelen estar más verticalmente integradas y se autoabastecen a veces incluso de electricidad, infraestructuras, escuelas; que las empresas competitivas funcionan más como islas que como integrantes de un cúmulo; que los clusters suelen tener menos miembros que en los países desarrollados y las redes en que operan son más bien radiales jerárquicas en torno a unas pocas empresas de grandes dimensiones; que la comunicación es escasa y las relaciones entre empresas e instituciones mal desarrollada; que la formación de cúmulos se ve dificultada por la escasa formación y capacitación de la mano de obra, las carencias tecnológicas, la falta de acceso al capital, el insuficiente desarrollo de las instituciones y una política estatal inadecuada (ya que restringe el asentamiento, protege de la competencia, no ajusta los programas de universidades y escuelas técnicas a las necesidades de los clusters).

[207]


[208]

Los clúster del sistema regional de innovación antioqueño...

Para Porter (1998), la profundización y ampliación de los clusters es un factor clave para el desarrollo de tales economías y, de los rasgos de aquellos antes señalados, se deduce cuáles deberían ser los ejes principales que debería seguir la política de clusters en tales países. Meyer-Stamer y Harmes - Liedtke (2005), que analizan los tipos de clusters existentes en los países latinoamericanos, destacan tres grandes deficiencias generales en tales clusters con respecto a los de los países avanzados: i) a diferencia de los países desarrollados, en los que las pymes desempeñan un importante papel como proveedores de inputs especializados y servicios, en Latinoamérica la gran mayoría de las pymes no son competitivas; ii) si en los países avanzados los clusters a menudo tienen lugar en sectores de alta tecnología o intensivos en diseño y con sustanciales innovaciones de producto y de proceso, en Latinoamérica los clusters se encuentran confinados a la producción estandarizada de bienes de consumo o a operaciones de ensamblaje sin innovaciones sustanciales; iii) en comparación con los clusters innovadores de los países avanzados, las aglomeraciones latinoamericanas generalmente comprenden sólo algunos estadios de la cadena de valor, acogen pocos servicios complementarios y carecen del capital social necesario para alcanzar acuerdos cooperativos. En función de las carencias detectadas, Meyer-Stamer y Harmes - Liedtke efectúan una serie de recomendaciones para las políticas de clusters en tales países, pero subrayando que tales políticas deberán ajustarse igualmente a las características propias del tipo de clusters en que quieran incidir25 Con respecto a los países avanzados, Baptista (1998) indica: “aunque es posible encontrar muchos tipos híbridos diferentes dentro del mismo país, hay patrones nacionales distintivos en la formación

25 En su trabajo, Meyer-Stamer y Harmes - Liedtke (2005) identifican varios tipos ideales de clusters o aglomeraciones industriales en la economía latinoamericana (clusters de empresas de tamaño micro o pequeño, clusters de fabricantes en series más avanzadas y diferenciados, clusters de corporaciones transnacionales y clusters basados en recursos naturales) y proponen medidas de política ajustadas a sus características.

Revista Tecnológicas


Revista Tecnológicas

de clusters, que se encuentran asociados con los diferentes sistemas nacionales de innovación”. Así, según Cooke y Morgan (1994), el modelo francés sería más dirigista y basado en la orientación y financiación por el gobierno, siguiendo la idea de polos de crecimiento desarrollada por Perroux, en los que tienen lugar concentraciones de universidades, centros de investigación, pequeñas y medianas empresas y algunas ramas de grandes multinacionales; desde el punto de vista de la innovación empresarial, Cooke (1998a) lo califica de global, por el dominio que en él poseen las corporaciones globales. El modelo italiano surgiría de esfuerzos concertados de organizaciones locales privadas y municipales, con fuertes asociaciones de productores y comerciantes y estrechas relaciones proveedor-cliente, sin grandes empresas extranjeras y con pocos recursos públicos en I+D e innovación (Delgado, 2006). El modelo alemán se basaría en una definida jerarquía de instituciones, que comprendería desde grandes instituciones gubernamentales y privadas hasta instituciones de transferencia de tecnología múltiples, que proveen de servicios empresariales a las pymes, así como en relaciones proveedor-cliente que conducen a nuevas innovaciones por ingeniería simultánea; el modelo aparece, además relativamente equilibrado en lo que respecta a las relaciones empresas grandes y pequeñas e instituciones de investigación públicas y privadas, y con un grado de asociacionismo superior a la media (Delgado, 2006). El modelo estadounidense se caracterizaría por resultar de un proceso más espontáneo y no planificado, con un alto nivel de competencia tecnológica, con una investigación básicamente interna y privada y una gran presencia de corporaciones globales (Porter, 1998). En resumen, la calidad del entorno institucional de las regiones de países en vías de desarrollo o menos desarrolladas26 es con

26 Nótese que se prefiere el término “países menos desarrollados” por ser más apropiado en lugar de “países subdesarrollados” o “países periféricos” que pueden parecer algo peyorativos. También podría utilizarse el término “países en desarrollo o en vía de desarrollo” pero no siempre es claro saber si un país menos desarrollado realmente está inmerso en un proceso real de desarrollo social, económico, tecnológico, entre otros.

[209]


[210]

Los clúster del sistema regional de innovación antioqueño...

frecuencia el principal obstáculo para la creación de un sistema eficaz de innovación regional. Por encima del distinto grado de autonomía regional en materia de política industrial regional, varias estructuras de gobierno regionales de las regiones menos desarrolladas sufren una falta de credibilidad, elevada inestabilidad política y ausencia de competencia (y concientización) profesional en el ámbito de la innovación. Estos tres factores son característicos del subdesarrollo. Además, pueden establecerse las siguientes características comunes de SRI en países menos desarrollados27: • Falta de coordinación entre las entidades encargadas de la investigación pública y las encargadas de la investigación privada. • Desajuste entre las universidades y las empresas. • En muchas regiones, no parece existir coordinación alguna entre la política científica y tecnológica y entre las consejerías de industria y las de educación. • En algunas regiones existe una superposición y una coordinación inadecuadas entre las medidas nacionales y regionales. • Los agentes regionales de I+DT, y los del sector privado en concreto, participan poco en la planificación de las políticas.

4. Análisis del sri antioqueño y sus microclusters28 El diseño de una estrategia respecto a la política tecnológica regional debe estar basado en las capacidades innovadoras de la

27 LANDABASO et al.”La política regional de innovación en la UE en el inicio del siglo XXI”. VIII Seminario Latinoamericano de Gestión Tecnológica. Valencia, España, 1999. p. 9 28 Así denominados dado que contrario a la definición de cluster, la palabra microclusters es una concentración geográfica de un grupo pequeño de empresas interconectadas, pertenecientes a un campo concreto, unidas por sus rasgos comunes y complementariedad entre sí, junto a suministradores especializados, proveedores de servicios, empresas de sectores afines e instituciones conexas que compiten y cooperan.

Revista Tecnológicas


Revista Tecnológicas

región. El punto de partida puede ser un análisis de los puntos Fuertes, las Debilidades, las Oportunidades y las Amenazas (análisis-DOFA) del sistema regional de innovación29. Un análisis DOFA debe determinar cuáles son las tecnologías con importancia regional (de acuerdo con la estructura industrial, capacidad tecnológica, y demanda tecnológica regional), así como la forma de mejorar el acceso a esas tecnologías. Las responsabilidades políticas entre los niveles administrativos deben estar claramente distribuidas, fortaleciendo la cooperación y la coordinación diseñando e implantando instrumentos complementarios. Los ejecutores de la política regional deben optimizar el uso de programas nacionales e internacionales para las empresas de sus regiones, y, cuando sea necesario, complementar este entramado político con iniciativas regionales diseñadas para crear un ambiente favorable respecto al potencial innovador de la región30. La política tecnológica puede estar basada en una “estrategia de movilidad” diseñada para atraer los inputs externos bajo la forma de nuevas empresas (innovadoras) o centros de investiga-

29 Las competencias o el potencial innovador regional puede ser definido como el conjunto de factores determinantes, que favorecen o dificultan la actuación innovadora en la región, incluyendo empresas o sectores con baja orientación innovadora (Koschatzky: 2000) 30 No todas las regiones se pueden convertir en una región de excelencia y de alta tecnología y no para todas las regiones los distintos instrumentos de la política tecnológica resultan igualmente adecuados. Según Koschatzky (2000) las diversas regiones cumplen distintas funciones dentro el sistema nacional de innovación o de producción. Según él existe dos tipos de regiones; el primero el correspondiente a las regiones centrales que son el corazón del sistema nacional e internacional de innovación y el segundo incluye aquellas regiones cuyo desarrollo se basa en una función complementaria en apoyo a las regiones centrales o en la explotación de los recursos endógenos. La innovación a nivel regional y la política tecnológica pueden contribuir a desarrollo regional y al proceso de cohesión pero no siempre. Las medidas políticas solamente tienen sentido si la región tiene un nivel mínimo o una masa crítica de tecnología y empresas innovadoras en combinación con un cierto potencial de infraestructura tecnológica. Por lo tanto puede existir un tercer tipo de regiones donde la utilidad de la política tecnológica resulta mínima debido a un punto de partida, en términos de innovación, muy pobre.

[211]


[212]

Los clúster del sistema regional de innovación antioqueño...

ción, o en una “estrategia de desarrollo endógeno” basado en el potencial innovador existente. Koschatzky (2000) señala que las regiones deben buscar una síntesis entre ambas estrategias. La política tecnológica regional puede dar una atención especial a la transferencia de tecnología mediante inputs externos con el objetivo de reforzar y modernizar la estructura industrial existente. Sin embargo, al mismo tiempo se debe combinar estas políticas con una estrategia a largo plazo creando o potenciando su propio sistema de innovación. El desarrollo de tal potencial endógeno puede ser especialmente importante si los inversores extranjeros empiezan a desviarse a otras regiones o países. En realidad los objetivos de tal política endógena incluyen la promoción de “clusters” regionales, la mejora de la eficiencia y eficacia del sistema regional de innovación. Se puede identificar un conjunto de elementos claves para la promoción de las capacidades regionales de innovación31. Durante el último lustro se ha aplicado en Colombia el término de Sistema Nacional de Innovación como una categoría conceptual que soporta el diseño de políticas nacionales en materia de innovación tecnológica32. En efecto, en 1994 se reestructuró Colciencias (Instituto Colombiano para el Desarrollo de la Ciencia y la Tecnología) y se creó una nueva subdirección denominada de ‘Innovación y Desarrollo Tecnológico’, que impulsó una propuesta aprobada finalmente en 1995 con el título de ‘Política Nacional de Innovación Tecnológica’, cuyo concepto orientador es el de Sistema

31 Koschatzky, 2000. 32 Este tipo de aplicación corresponde a la visión desde arriba mencionada anteriormente por Jeremy Howells cuando establece “Una de las opciones para ver los sistemas regionales de innovación es la perspectiva desde arriba, proporcionada básicamente por los autores de la definición del Sistema Nacional de Innovación (SNI), en la que se parte del supuesto de que los elementos existentes en los sistemas de innovación en el ámbito nacional también deben existir en el ámbito regional. Así, el objetivo será responder a la pregunta: ¿si se inicia desde la amplia definición del SNI, los elementos de este sistema se pueden, en parte e incluso, aplicar totalmente en el ámbito regional? (Howells, 1999: 71)

Revista Tecnológicas


Revista Tecnológicas

Nacional de Innovación (ver Colombia, 1995). Desde entonces, también las regiones han empezado a explorar este concepto aplicado a su ámbito geográfico, con el propósito de impulsar el desarrollo innovativo sistémico de los principales actores involucrados en este proceso. Tal es el caso del departamento de Antioquia, donde, bajo el liderazgo del Centro de Ciencia y Tecnología de Antioquia- CTA- (http://www.cta.org.co), entidad mixta impulsora del progreso de estas variables del desarrollo, se estableció una coordinación del Sistema Regional de Innovación responsable por su dinamización y consolidación. En Colombia, la dimensión regional de la política nacional de Innovación y desarrollo tecnológico es concebida como el “sustrato sobre el cual se desarrollan intensos y dinámicos procesos de integración y cooperación que, reconociendo y respetando las particularidades y heterogeneidad de las diferentes regiones que conforman la geografía nacional, tiene como horizonte la creación de un proyecto nacional, que explore alternativas de desarrollo para la sociedad colombiana dentro de concepciones de sostenibilidad y convivencia que propendan por el crecimiento cultural de la nación en su conjunto” (Colciencias, 1995b). La selección de los clusters adecuados para el SRI Antioqueño33 no tuvo en cuenta las trayectorias tecnológicas de los clusters elegidos. Ello incide en el desarrollo y evolución del Cluster. “Es importante tener en cuenta que la especialización técnica e industrial de una región produce ciertas trayectorias de innovación que, en gran medida, determinan las pautas de búsqueda e interacción de las industrias, que son relativamente persistentes” (Kautonen, 1999). En la región Antioqueña excepto el cluster de confecciones no han existido estrategias que respondan a la historia, posición actual y oportunidades futuras del cluster elegido. Como resultado de ello, el único cluster de los seleccionados bajo el criterio de

33 Se tienen en el SRI Antioqueño definidos 8 Clusters: Textil (Confecciones), Construcción, Energía Eléctrica, Servicios especializados de salud, Alimentos, Turismo, Desarrollo de Software y Biotecnología.

[213]


[214]

Los clúster del sistema regional de innovación antioqueño...

las trayectorias tecnológicas34 es el cluster de confecciones, el cual responde a las características definidas para las empresas dominadas por los proveedores (Kautonen, 1999). • Deficiencias e insuficiencias de la propuesta de microcluster para el SRI Antioqueño • Estructurales y Políticas

o La integración por proyectos aún no está vinculada con estrategias o prioridades regionales, por lo tanto resultan puntuales, limitando su impacto en la dinámica de la economía regional. De otro lado, la consultoría para la investigación y el desarrollo de proyectos, carece de las condiciones adecuadas para servirle de soporte al proceso. Además, no se cuenta con información accesible y oportuna sobre los investigadores y profesionales que constituyen la oferta regional, nacional e internacional. A esto se agrega que la consultoría como alternativa de desarrollo profesional, más que estímulos, tiene cargas tributarias y de seguridad social tan altas, que no resulta una opción atractiva para los investigadores.

o Diferentes políticas emanadas del Gobierno Nacional apuntan a la creación de condiciones favorables para el logro de ventajas competitivas que contribuyan a colocar el sector productivo en capacidad para insertarse adecuadamente en los mercados nacional e internacional. Muchas de estas políticas en su aplicación actúan de manera similar en procesos de modernización que incluyen la innovación en las distintas áreas del desarrollo empresarial. Algunas empresas han avanzado en innovación mediante la vinculación a programas no directamente de innovación, como es el caso de Expopyme, a través del cual varias empresas

34 “Las otras trayectorias analizadas por este autor son: Empresas intensivas en economías de escala, la trayectoria intensiva en información, las empresas basadas en Ciencia y los proveedores especializados” (Kautonen, 1999: 140).

Revista Tecnológicas


Revista Tecnológicas

involucradas se han visto en la necesidad de innovar para poder acceder a los beneficios del programa.

Esta superposición de políticas ha generado descoordinación institucional y confusión entre los empresarios a quienes van dirigidas.

La política industrial hace mención a este problema y en el componente 5.2: Fomento a la Competitividad, se relaciona como la primera de las acciones el establecimiento y operación del Fondo Nacional de Productividad y Competitividad. A renglón seguido le da el carácter de instrumento articulador entre los diferentes sistemas: “Se asegura así, la coherencia en la complementariedad entre las acciones del Sistema Nacional de Innovación, el Sistema de Servicios a las Exportaciones, el Sistema Nacional de Crédito a las pequeñas y medianas empresas PYMES, y las acciones contempladas en las políticas de desarrollo exportador, industrial y tecnológico.

Bajo este esquema de intervención tendiente a elevar la competitividad empresarial, se pondrá en marcha un nuevo modelo de atención y asistencia técnica a las empresas que asegure una mayor fluidez interinstitucional y promueva modalidades y ritmos de intervención integrales y transversales, para efecto de robustecer la competitividad de productos exportables”35.

Los propósitos buscados con este instrumento expresan muy bien la necesidad de articulación. Cabe la pregunta: ¿a quién corresponde ejercer la coordinación y velar por la articulación de políticas, programas y proyectos, emanadas desde diferentes ministerios?

Esta falta de coordinación de programas e instrumentos, es quizás el aspecto que más debilita el sistema, pues le quita

35 Ministerio de Desarrollo Económico. Política Industrial para una economía en reactivación. Santa fe de Bogotá. Abril de 2000.

[215]


[216]

Los clúster del sistema regional de innovación antioqueño...

credibilidad al Estado, hace confusos los instrumentos y logra que entidades y programas de diferentes compañías nacionales compitan entre sí, en vez de complementarse. Los empresarios manifiestan recibir mucha información desde diferentes fuentes sin hilo conductor, lo que les lleva a declarar, paradójicamente, que no están informados.

Hasta el momento los procesos de Promoción de la innovación y Planes estratégicos, avanzan por rumbos independientes. Aunque no se puede decir que hoy existan contradicciones, es muy probable que en el tiempo se dupliquen esfuerzos o se apunte a propósitos diferentes, lo cual debilitaría la fuerza para alcanzar propósitos colectivos de futuro.

o Los gobiernos locales no han asumido la ciencia y la tecnología como estrategia de desarrollo regional. Su participación en el proceso es marginal y no ha sido nunca una prioridad de gobierno36.

o El problema del atraso en innovación y desarrollo tecnológico en las empresas no se reduce a los procesos de producción, es también una debilidad gerencial y de gestión. Por esta razón, los resultados de proyectos desarrollados en algunas empresas no cumplen las metas y expectativas. Adicionalmente, existen debilidades gerenciales que entorpecen la utilidad práctica de algunos proyectos.

Como consecuencia de todo lo anterior, el sistema en Antioquia es atomizado y disperso, a pesar de los esfuerzos de coordinación y articulación que ha hecho el CTA y del

36 “Conocido es que el atraso científico y tecnológico constituye un denominador común de pobreza, marginación, bajos niveles de calidad de vida y pérdida de oportunidades para la población. El rezago en innovación, ciencia y tecnología en Colombia en general y en Antioquia en particular, presenta cifras inquietantes.  Mientras los países desarrollados dirigen del PIB más del 2% a ciencia y tecnología, los países de Latinoamérica no sobrepasan el 0.5% y Colombia difícilmente ha logrado 0.37%, donde para Antioquia, la cifra  baja al 0.27%”.Tomado de http://www.antioquia.gov. co/plandesarrollo/ordenanza/3_2cienciaytecnologia.html ,Noviembre 28 de 2009

Revista Tecnológicas


Revista Tecnológicas

ambiente que rodea el equipo. En la práctica cada actor le apunta de manera individual e independiente a los mecanismos que ofrece el sistema. Ello no puede ser de otra manera, mientras no exista una política regional lo suficientemente fuerte y concreta que sea capaz de despertar el compromiso de los actores, para que posibilite la definición de prioridades y cada uno pueda hacer lo que le corresponde pero con claridad sobre su papel en el logro de la política propuesta. Es cierto que presenta avances no despreciables, pero es el momento de hacer un alto en el camino, evaluar y proyectar el sistema a mediano y largo plazo mediante una clara definición de una estrategia regional, formulada desde quienes les corresponde en la región. • Operativas respecto a los programas e instrumentos creados para la promoción de la innovación y el desarrollo tecnológico en las empresas

En términos generales los directores de los CDT - Centros de Desarrollo Tecnológico - consideran que los instrumentos son buenos y de alguna manera suficientes para apalancar o acelerar procesos de modernización tecnológica en las empresas. De hecho, prácticamente todos los han utilizado como soporte a su misión (Cámara de Comercio de Medellín, 2001).

Sin embargo, estos mecanismos no logran resultados satisfactorios por tres razones: el manejo totalmente centralizado de los trámites y las decisiones para la aprobación de los proyectos; el cambio permanente de las reglas del juego y la falta de conocimiento y/o credibilidad por parte de los empresarios. En estas circunstancias el quehacer de los centros se caracteriza por las siguientes situaciones:

o Los trámites y procedimientos para acceder a cualquiera de los programas creados por el sistema, son tan engorrosos y lentos que terminan siendo inoperantes o inoportunos. Sin embargo, éstos generan inconvenientes que alejan a los empresarios y hacen perder credibilidad a los CDT quienes canalizan las necesidades empresariales frente al gobierno nacional.

[217]


[218]

Los clúster del sistema regional de innovación antioqueño...

o Los empresarios dilatan las decisiones hasta no estar muy seguros de la conveniencia del proyecto a ejecutar, pero una vez tomada la decisión la empresa no da espera. Todos sus procesos dependen de la oportuna ejecución del proyecto. Por esta razón la agilidad en los procesos de aprobación podría ser la mejor estrategia para lograr resultados efectivos, ganar credibilidad y promover la innovación.

o La gran mayoría de los proyectos presentados ante Colciencias o el Sena son iniciativa de los CDT, que desarrollan permanentemente acciones de promoción con el fin de interesar a los empresarios en la modernización de sus sistemas productivos. Muy pocas veces las empresas acuden a los centros de investigación en demanda de apoyo, debido al desconocimiento de las políticas y programas que ofrece el Estado a través de estas instituciones.

o Los trámites y procedimientos son diseñados con un espíritu de control más que de promoción, eso hace que estén llenos de requisitos y pasos a seguir que los vuelven inoperantes. Parecen creados con el único espíritu de “cazar pillos”.

5. Reflexión final El proceso de identificación, apoyo e implementación de la dinámica de los microclusters debe obedecer a una estrategia de desarrollo regional e involucrar toda su institucionalidad (incluyendo los entornos científico, productivo, tecnológico y financiero). Este proceso, dada su complejidad y participación de muchos actores de la red local de innovación - Que puede asumirse como incompleta ya que está caracterizada por la imposibilidad o dificultad para responder a las demandas o solicitudes de algunos actores de la misma (Borja et al, 1998) - desborda la capacidad operativa de cualquier institución como agente individual, pero responde de manera importante al esfuerzo conjunto de todas las instituciones de la región.

Revista Tecnológicas


Revista Tecnológicas

6. Bibliografía Albornoz, M. (1998). Indicadores y la política Científica y Tecnológica. IV Taller Interamericano e Iberoamericano de Ciencia y Tecnología. México, 12 – 14 de Julio de 1998. Disponible en: www.ricyt.edu.ar Amin, A. (1995), Post-Fordism: a reader, Basil Blackwell, Oxford, citado en Braczyk H-J., P. Cooke and M., Heidenreich, op. cit. Baptista, R. (1998): «Clusters, Innovation and Growth: a Survey of the Literature». En Swann, G.M.P.; Prevezer, M. y Stout, D. (eds.) The Dynamics of Industrial Clustering. International Comparisons in Computing and Biotechnology (pp. 13-51).Oxford: Oxford University Press. Borja et al. (1998). Análisis de las Estructuras de Interfaz en el Sistema de Innovación de la C. A. V. En: Revista Economíaz, No. 35, segundo cuatrimestre, País Vasco. p.220 Cámara De Comercio De Medellín Para Antioquia (2001). Antioquia avanza hacia nuevos esquemas de desarrollo empresarial. Documento Cámara I. Medellín, 172 p. Capello, R. (1999), “Spatial Transfer of Knowledge in High Technology Milieux: Learning Versus Collective Learning Processes”, en Regional Studies. Journal of Regional Studies Association, vol. 33, núm. 4, june, 353-365 pp. Carlson, B. y Stankiewicz, R. (1996), “On the nature, function and composition of technological systems”, Journal of Evolutonary Economics, 1 (2), 93-118. Castells, M. y P., Hall (1994), Las tecnópolis del Mundo, México: Alianza. Cataño, G. y Patiño, M. (2003). Antioquia en el Laberinto, Medellín, Mimeo. 180 p. Colciencias (1995a): Política Nacional de Innovación y Desarrollo Tecnológico, Documento de trabajo elaborado por COLCIENCIAS en colaboración con el Ministerio de Desarrollo Económico, el Ministerio de Agricultura y el IFI, Santafé de Bogotá, Junio. Colciencias (1995b). Bases conceptuales e instrumentales del proceso de regionalización de la Ciencia y la Tecnología. Estrategia de Regionalización. Santa Fe de Bogotá D.C. Cooke, P. (1992). Regional innovation systems: competitive regulation in the new Europe. En revista Geoforum, No. 23, pp 365 – 382.

[219]


[220]

Los clúster del sistema regional de innovación antioqueño...

Cooke, P. (1998a), “Introduction of The regional innovation systems”, en Braczyk H-J., P. Cooke and M., Heidenreich, op. cit. Cooke, P. (1998b), The Associative Region. Oxford: Oxford University Press, 247 p. Cooke, P. (1999). Citado en Olazarán, M. y Gómez, M. Sistemas regionales de innovación. San Sebastián, Editorial Universidad del país Vasco, p. 75. Cooke, P. y Morgan, K. (1994). The Creative Milieu: A Regional Perspective on Innovation. En Dodgson, M. y Rothwell, R. (eds.) The handbook of industrial innovation (pp. 25-32). Aldershot: Edward Elgar. Delgado, P. (2006). Propuestas novedosas a la política regional de innovación. España: Editorial Aranzadi, 625 p. Enciclopedia Británica Book of the Year 2001, Países del Mundo 2000, Boletines de las Naciones Unidas, cnn.com, PNUD 2000. Howells, J. (1999), «Regional systems of innovation?», En: D. Archibugi, J. Howells and J., Michie, Innovation Policy in a Global Economy. New York: Cambridge University Press. International Institute For Management Development – IMD. (2008). The World Competitiveness Yearbook. Disponible en: http://www.imd.ch/research/ publications/wcy/upload/scoreboard.pdf? (Consultado Mayo 1 de 2009). International Institute For Managment Development – IMD (2006) Anuario Mundial de Competitividad. Colombia: Cálculo DNP-DDE (Actividades científicas, tecnológicas y de innovación). Kautonen, M. (1999). “El sistema de Innovación Regional desde la perspectiva de las trayectorias tecnológicas”. En: OLAZARAN, M., GÓMEZ, M. Sistemas regionales de Innovación. España: Servicio editorial de la Universidad del país Vasco. pp.135 – 156. Koschatzky, K. (2000): The regionalisation of innovation policy in Germany -theoretical. Foundations and recent experience. Arbeitspapiere Unternehmen und Región N°. 1. Landabaso et al (1999).”La política regional de innovación en la UE en el inicio del siglo XXI”. VIII Seminario Latinoamericano de Gestión Tecnológica. Valencia, España. p. 7 Lucas, R.; Wheeler, D. And Hettge. (1992) Economic development migration of toxic industrial pollution. The World Bank, Washigton. Citado en Dresdner.

Revista Tecnológicas


Revista Tecnológicas Marshall, A. (1932), Elements of Economics: Elements of Economic of Industry, vol. 1, London: Macmillan (first pub lished 1892), en Howells, Jeremy (1999), op. cit. Maskell, P.(2005) What qualifies as a cluster theory? DRUID, Denmark. 22 p. Meyer-Stamer, J. Y Harmes – Liedtke, U. (2005): “Como promover los clusters”. En: http://www.iberpymeonline.org/Documentos/comopromoverclusters.pdf, Agosto 2009. Ministerio de Desarrollo Económico (2000). Política Industrial para una economía en reactivación. Santa fe de Bogotá. Ohmae, K. (1997), El Fin del Estado Nación. El Ascenso de las Economías Regionales, Bar ce lona, Bue nos Aires, México DF, Santiago de Chile: Andrés Bello. Oleaga, P. y Ugalde, I. (2005). Capital social y Pymes internacionalizadas de BizKaia. En: Revista Ekomomiaz No. 59, 2° cuatrimestre, pp 330 – 351. Ortiz, O. (2004). Una visión regional de la competitividad colombiana. CreceManizales. En: Revista Regiones. N°2. Primer semestre. Plan Estratégico De Antioquia – Planea (1998). En: http://www.planea-antioquia.org/index.php?option=com_content&view=article&id=45&Item id=55 Perroux, (1955): Note sur la notion de póle de croissance; Économie Appliquée, 7. Porter, M. (1990a). The Competitive Advantage of Nations. The Free Press. Porter, M. (1990b). “¿Dónde Radica la Ventaja Competitiva de las Naciones?.” Harvard Deusto Business Review. Especial 100, Lo Mejor en Gestión de HDBR. IV Trimestre. Porter, M. (1998) Clusters and the new economics of competition. New York: Harvard Business Review, noviembre-diciembre. p. 210. Red Iberoamericana De Indicadores De Ciencia Y Tecnología (RICYT), 2006. Titulados de maestrías y doctorados por cada cien mil habitantes, 19902002 Romer, P. (1986): Increasing Returns and Long-Run Growth. Journal of Political Economy, 94 (5). Rózga, R. (2003). Sistemas regionales de innovación: antecedentes, origen y perspectivas. En: Revista Convergencia, Año 10, Septiembre – Diciembre, Número 33. Universidad Autónoma de México. p 224-248.

[221]


[222]

Los clúster del sistema regional de innovación antioqueño...

Saxenian, A.. (1994), Regional advantage: culture and competition in Silicon Valley and Route 128, Cambridge, Massachusetts: Harvard University Press. Sci-E (Science Citation Index Expanded) (2006). Artículos científicos publicados, según país de origen del autor por cada cien mil habitantes, 2005. Stern, S.; Furman, J., Porter, M. S. (2000): The determinants of national innovative capacity. National Bureau of Economic Research. Working Paper 7876. Unesco (Institute for Statistics). 2006. World Economic Forum – WEF (2008). Informe de competitividad global, diciembre. Disponible en http://www.weforum.org/pdf/GCR08/GCR08. pdf (Consultado Mayo 1 de 2009).

Referencias electrónicas https://www.sigob.gov.co/ind/indicadores.aspx?m=634, Septiembre de 2009 https://www.sigob.gov.co/pnd/inst.aspx, Octubre 24 de 2009 http://www.portafolio.com.co, Octubre 27 de2009 http://www.compite.ws/spccompite/resources/getresource.aspx?ID=362, Agosto de 2009 http://www.antioquia.gov.co/plandesarrollo/ ordenanza/3_2cienciaytecnologia. html ,Noviembre 28 de 2009

Revista Tecnológicas


Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants Alexander Sepúlveda Sepúlveda1 Edilson Delgado Trejos2 Santiago Murillo Rendón3 Germán Castellanos Domínguez4

Abstract People with a defective velopharyngeal mechanism speak with abnormal nasal resonance (hypernasal speech). Voice analysis methods for hypernasality detection commonly use vowels and nasalized vowels. However to obtain a more general assessment of this abnormality it is necessary to analyze stops and fricatives. This study describes a method with high generalization capability for hypernasality detection analyzing unvoiced Spanish stop

1

2

3

4

Ingeniero Electrónico. M. Sc en Automatización Industrial. Estudiante de doctorado en ingeniería LI Automática. Universidad Nacional de Colombia Sede Manizales. Email: fasepulvedas@unal.edu.co Ingeniero Electrónico. M. Sc. en Automatización Industrial. Ph. D. en ingeniería LI Automática. Académico Investigador del Centro de Investigación, Instituto Tecnológico Metropolitano. Email: edelgadot@unal.edu.co Estudiante Ingeniería Electrónica. Universidad Nacional de Colombia Sede Manizales. Email: smurillor@unal.edu.co Ingeniero en Telecomunicaciones. Ph. D. En Ingeniería. Profesor asociado al Departamento de Ingeniería Eléctrica, Electrónica y Computación de la Universidad Nacional de Colombia Sede Manizales. Email: cgcastellanosd@unal.edu.co

Fecha de recepción: 25 de septiembre de 2009 Fecha de aceptación: 13 de noviembre de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[224]

Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants

consonants. The importance of phoneme-by-phoneme analysis is shown, in contrast with whole word parametrization which includes irrelevant segments from the classification point of view. Parameters that correlate the imprints of Velopharyngeal Incompetence (VPI) over voiceless stop consonants were used in the feature estimation stage. Classification was carried out using a Support Vector Machine (SVM), including the Rademacher complexity model with the aim of increasing the generalization capability. Performances of 95.2% and 92.7% were obtained in the processing and verification stages for a repeated cross-validation classifier evaluation.

Index Terms acoustic analysis, speech analysis, hypernasality, unvoiced stop consonants and rademacher complexity.

Resumen Las personas con un mecanismo velofaringeo defectuoso hablan con una resonancia nasal anormal (habla hipernasal). Métodos de análisis de voz para detección de hipernasaliad comúnmente usan las vocales y las vocales nasales. Sin embargo para obtener una evaluación más general de esta anormalidad es necesario analizar las paradas y las fricativas. Este estudio describe un método con alta capacidad de generalización para detección de hipernasalidad análisis de las consonantes oclusivas sordas españolas. Se muestra la importancia del análisis fonema por fonema, en contraste con la parametrización de la palabra completa que incluye segmentos irrelevantes desde el punto de vista de la clasificación. Los parámetros que correlacionan la incompetencia velofaringea (VPI) sobre las consonantes oclusivas sordas se usa en la fase de estimación de características. La clasificación se llevó a cabo usando una Maquina de Vector de Soporte (SVM), incluyendo el modelo de complejidad Rademacher con el objetivo de aumentar la capacidad de generalización. Rendimientos del 95.2% y del 92.7% fueron obtenidos en las etapas de elaboración y verificación para una repetida evaluación y clasificación de validación cruzada.

Palabras clave Análisis acústico, análisis del habla, hipernasalidad, consonantes oclusivas sordas y complejidad Rademacher.

Revista Tecnológicas


Revista Tecnol贸gicas

1. Introduction The verbal communication process requires translation of thoughts into spoken language. A person with a physical and/or neurological impairment, may have a compromised vocal tract configuration and/or excitation, resulting in reduced speech quality. A specific example of a vocal tract dysfunction causing reduced speech quality is a defective velopharyngeal mechanism (Cairns et al., 1996). The term cleft palate refers to a malformation which affects the soft and/ or hard palate, and it is usually congenital (Vijayalakshmi et al., 2007). Hypernasal analysis based exclusively on hearing is affected by human percepci贸n facts; therefore, the use of measuring tools is important. Digital voice processing (DVP)-based techniques are amongst the most useful of noninvasive techniques for assessing the velopharyngeal function, due to the ease of recording speech signals, which are mainly affected in two ways: 1) nasalized phonemes, and 2) weak consonants and short utterance length (Kummer, 2001). The most common way to detect velopharyngeal disfunction (employing DVP) is by carrying out an analysis of nasalized vowel sounds. In (Vijayalakshmi et al., 2007), a group of delay-based signal processing techniques was described for the analysis and detection of hypernasal speech. Experiments were carried out on the phonemes /a/, /i/, and /u/, where the results showed a high performance on hypernasality detection. The effectiveness of these delay-based acoustic measures were cross-verified on data collected in an entirely different recording environment, however, the generalization capability results of this feature set with regards to the classification accuracy were not convincing. In (Cairns et al., 1996), the sensitivity of the Teager energy operator for multicomponent signals was used for detecting the hypernasality problem. A measurable difference was observed between the lowpass and band-pass profiles for the nasalized vowels, whereas the normal vowel, which is a single component signal, does not show any difference. Parameters such as Harmonics to Noise Ratio (HNR) (Yumoto et al., 1982), Normalized Noise Energy (NNE)

[225]


[226]

Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants

(Kasuya et al., 1986), Glottal to Noise Excitation (GNE) and so on have been proposed for the analysis of pathological voices in different studies. They were mainly designed for sustained vowels, although sometimes they have been used for voiced phonemes, as in (Daza et al., 2008). The real problem in hypernasality detection employing DVP is the high variability within-classes, which means high complexity in the training stage and low generalization capability. In this study, unvoiced consonant analysis is proposed, which impedes the use of features previously developed in the literature for speech pathology assessment. Using parameters that correlate the imprints of Velopharyngeal Incompetence (VPI) over voiceless stop consonants such as power, duration and so on, allow a better representation of the phenomenon currently analyzed. Additionally, finding a reduced representation space of the normal and pathological records is very important, since this procedure reduces computational complexity without loss of classification accuracy and improves the robustness in detection by the Rademacher complexity model, due to the addition of an uncertainty component in the feature subset evaluation stage.

2. Materials and

methods

It is necessary to take into account the drawbacks caused by small training samples in the design of automatic classification systems. To reduce these problems, features used must correlate the influence of velopharyngeal incompetence in stop consonants, and classifiers with good generalization properties should be employed (Jain et al., 2000).

2.1. Database The sample was constituted by 88 children. Classes were balanced (44 patients with normal voice and 44 with hypernasality), and all registers were evaluated by specialists. Each recording was made up by several Spanish words, but in this study only the words coco (/’koko/ ) and papá (/pa’pa/ ) were used. Signals were

Revista Tecnológicas


[227]

Revista Tecnológicas

acquired under low noise conditions using a dynamic, unidirectional microphone (cardioide). Signal range was between (-1, 1). A manual segmentation process was carried out to separate the stop parts of the utterances /`’koko/ and /pa’pa/ resulting in various sets (two from /’koko/ and two from /pa’pa/ ) each formed by 88 signals.

2.2. Parametrization of plosive signals A plosive consonant is formed by blocking the oral cavity at some point. During the articulation of most plosives the velum is raised, blocking off the nasal passages. Individuals with cleft palate have never learnt to control the movements of the velum. After reconstructive surgery or the fitting of a prothesis, such individuals need guidance in controlling the velum to produce plosive sounds (MacKay, 1987). The subglottal pressure represents the energy immediately available for creating the acoustic signals of speech (Baken, 1996). The pressure that builds up behind the occlusion is released suddenly as a minor explosion or popping (Kummer, 2001). The power of stops can help to perceive the weakness of plosive consonants in velopharyngeal patients. In this study, it is calculated using the expression: P = 10 log

Pstop Pword

where P stop = word

1 ∑ xi2 T i

and is the power of the uttered word. Each stop segment is considered separately for the whole database. Air leakage around the blockage significantly slows down the rise in supraglottal pressure, and therefore, delays phonatory shut-down (Baken, 1996). This can provoke a short utterance length of consonant plosives, which in this study, is measured in seconds. Velicaction allows the nasal cavities to be closed or open (or partially open, although air can leak around the velic blockage) with respect to


[228]

Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants

the rest of the vocal tract, which allows sound waves to resonate within the nasal cavities, giving a distinctive nasal quality to the speech sounds produced (MacKay, 1987). In addition, the lower pressure of voiced stops in hypernasal speech results in reduced high-frequency energy for the burst (Baken, 1996). The MFCC (Mel-Frequency Cepstral Coefficients) and DWT (Discrete Wavelet Transform) use filterbanks to obtain measures of different portions of the spectrum, so the energies at every filter could be used to model the behavior at different frequency ranges (Huang et al., 2001). MFCC’s are currently one of the most widely used features for Automatic Speech Recognition (Avendano et al., 2005). These features are calculated by taking the discrete cosine transform of the logarithm of energy at the output of a Mel filter. In feature estimation processes based on the Fourier transform, the features that are extracted have fixed time frequency resolution because of the inherent limitation of the FFT. More recently, discrete wavelet transform (DWT) and wavelet packets (WP) have been tried for feature extraction, because of their multi-resolution capabilities (Farooq & Datta, 2003).

2.3. Feature selection In general, given a set of observations represented for a set of features where each observation is associated to one and only one class label from a label set k, the main goal of feature selection is to choose the best possible subset of size q from a set of p features, where optimal and suboptimal strategies are ussually considered. For the optimal case, if the cardinal of is q, and all the q-cardinal subsets are in , the subset is that which optimizes a evaluation function f, such as (Jain et al., 2000):

In pattern recognition tasks, feature selection according to the evaluation function f can be carried out by wrapper type selection,

Revista Tecnológicas


[229]

Revista Tecnológicas

when f uses information of the classification function oriented to minimizing the classifier error, and filter type selection, which consists in data preprocessing by optimizing f with respect to a metric (independent of the classification results), where the irrelevant, redundant and correlated variables are discarded (Webb, 2002). Wrapper type selection procedures give better performance in cases when the number of features is lower than 50 (Kudo, & Sklansky, 2000), while the filter type can operate in larger spaces because its computational demand usually is lower (Jain et al., 2000). Suboptimal algorithms, although incapable of examining every feature combination, will assess a set of potentially useful feature combinations. Popular methods such as sequential forward selection (SFS) and sequential backward selection (SBS) are found. In floating search methods such as sequential forward floating selection (SFFS) and sequential backward floating selection (SBFS), the number of added and removed features can change at each step and these wrapper routines carry out the search in a considerably smaller number of subsets (Alpaydin, 2004).

2.4. Support vector classifiers Support Vector Machines (SVMs) were used in this study mainly for two reasons: SVMs have a relatively good generalization capability with less amount of training data, and they have been particularly well developed for binary classification tasks. Traditional neural network approaches are more likely to suffer of poor generalization, producing models that can overfit the data. It is a consequence of the optimization algorithms used for parameter selection and the statistical measures used to select the best model (Solera et al., 2007). For the binary classification problem, a discrimination function can be taken as g (x) = wT Ø (x) +w0 with decision rules wT Ø (x) + w0 ≥ 0 → x ∈ w1 and wT Ø (x) + w0 ≤ 0 → x ∈ w2, where


[230]

Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants

φ ( x ) : ℜn1 → ℜn 2 is generally a nonlinear function which maps

vector x into what is called a feature space of higher dimensionality (possibly infinite) where classes are linearly separable. The vector w defines the separating hyper-plane in such a space and w0 represents a possible bias (Webb, 2002).

2.5. Rademacher complexity model Rademacher complexity is a measure proposed in (Koltchinskii, 2001) which attempts to balance the complexity of the model with its fit to the data by minimizing the sum of the training error and a penalty term. Let {Xi,Yi}ni=1 be a set of training instances, where Xi is the pattern or example associated with features {Fj}qj=1, and Yi is the label of the example Xi. Let h(xi) be the class obtained by the classifier h, trained using {Xi,Yi}ni=1. Then, the training error is defined as eˆ ( h ) =

1 n where, ∑I n i =1 {h( x1 )≠ y1}

I{h( x1 )≠ y1} =

h( X ) ≠ Y {0,1, when when h ( X ) = Y i

i

i

i

Let {σi}ni=1 be a sequence of Rademacher random variables (i.i.d.) independent of the data {Xi}ni=1 and each variable takes values +1 and -1 with probability 1/2. According to this, computation of the Rademacher complexity involves the following steps (Delgado et al., 2007): – Generate {σi}ni=1 – Get a new set of labels, doing zi= σi yi . – Train the classifier hR using {Xi,Zi}ni=1 .

– Compute the Rademacher penalty, given by

Rn =

1 n ∑ σ i I{hR≠Yi } n i =1

Revista Tecnológicas


[231]

Revista Tecnológicas

– Train the classifier h, using {Xi,Yi}ni=1 – Compute the training error ê(h).

– The Rademacher complexity: RC = ê (h) + Rn

2.6. Proposed procedure The representation space was composed of the features related to the plosive consonant power and its duration with respect to the word. On the other hand, feature estimation in the frequency domain was achieved by using two techniques: DWT and MFCC. Each feature was estimated for each plosive consonant at the beginning of /kóko/ and /papá/. By using 3rd order spline mother wavelet, the Nyquist spectral range was divided in 4 bands (i.e., 3 for the detail levels and 1 for the approximation level). The other features consist of estimating parameters related to 13-MFCC. With the aim of comparing these two representation forms with regards to the discriminant capability, the classification results were obtained using a SVM classifier. Thus, the total number of extracted features for each observation was 15. Feature space reduction is carried out by using a typewrapper algorithm for heuristic search (i.e., SFFS algorithm) with a SVM classifier and RBF-kernel (a kernel successfully used in several speechrelated applications) using a hypothesis test based on a distance measurement for establishing the initial conditions. Moreover, the Rademacher complexity model has been included in the evaluation function f. With the aim of comparing the proposed model’s performance, the conventional training was developed and proved under the same conditions.

3. Results and

discussion

The utterance /’koko/ has two plosive segments, Figures 1 and 2 show 2-dimensional scatter plots using the duration and power for each segment.


[232]

Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants

Figure 1: Duration vs power for the first plosive segment in the Spanish word /’koko/

Discrimination between the two classes can be observed using the first plosive segment. By contrast, in the second figure this configuration can not be seen. The closure of the velopharyngeal gap is necessary to produce vowels as well as stops; but in the first segment the velopharyngeral gap begins to open, provoking a delay in the closing phase, in hypernasal speech. At the beginning of the second stop, the velum is closed as the previous phoneme is a vowel, thus the duration is more similar to the normal category, as depicted in Figure 2. Other parameters used in this study are related to the fact that spectral components of the plosives are modified by the velopharyngeal incompetence. This set is formed by the energy for every band in a 3rd level of the DWT decomposition. In Figures 3 and 4 two of these values are shown. Once again there is greater similarity between the two classes in the second stop segment.

Revista Tecnológicas


Revista Tecnológicas

Figure 2: Duration vs power for the second plosive segment in the Spanish word /’koko/

Figure 3: Energy in the third approximation and detail bands for the first plosive segment in the Spanish word /’koko/

[233]


[234]

Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants

Figure 4: Energy in the third approximation and detail bands for the second plosive segment in the Spanish word /’koko/

The two sets are slightly distinguishable as can be seen in the energy-band parameter distribution, nevertheless when these parameters were evaluated (joined with Power and Duration) from the point of view of the classification rate, the performance does not reach 61%. When 13th order MFCC coefficients were calculated, instead of DWT, the performance went up to levels between 83% and 88% with an average rate of 85.7%, although this result fell down to 62.4% in the verification stage (i.e., poor generalization capability). The classifier evaluation was made by applying crossvalidation for 30 folds. Similar experiments were carried out for each word as it is shown in Table 1, where F1p,v is the feature set related to power and duration + DWT for the processing and verification data, similarly, F2p,v is the feature set related to power and duration + MFCC. The notation // + // means that in this case the whole feature set for /’koko/ and /pa’pa/ has been considered. Feature selection results obtained without/with the rademacher

Revista Tecnológicas


[235]

Revista Tecnológicas

complexity model included in the evaluation function are shown in Table 2, over the processing and verification data sets, where #Fℜ,R is the selected feature number from the {F1+F2} feature set p ,v without/with the rademacher complexity model, similarly, Aℜ , R is the average classification accuracy (%) for the processing and verification data. It is remarkable that the classification results for the processing with the Rademacher complexity model are lower than for the other cases, although finally in the verification stage, the proposed training retains the classification accuracy even when the input samples are completely unknown. Table1: Classification results (%) for /kóko/ and /papá/ F1p

F2p

F1v

F2v

/’koko/ /pa’pa/

59.8 60.9

92.8 97.3

52.1 55.3

63.7 77.9

//+//

85.7

62.4

Table 2: Results without/with the Rademacher complexity

/’koko/ /pa’pa/

#Fℜ

Aℜp

Aℜv

# FR

ARp

ARv

5 6

89.6 95.1

62.8 78.3

9 7

87.6 93.2

85.2 89.5

95.2

92.7

//+//

7 96.6

76.8 12

4. Conclusions From these experiments it can be concluded that hypernasal assessment should be determined analyzing phoneme by phoneme, instead of complete words. The acoustic properties of the same phoneme can be completely different in different parts of the uttered word due to variability of the behavior of articulators which depend so much on the context. The obtained results show that the Rademacher penalty adds generalization capability to


[236]

Hypernasal speech detection by acoustic analysis of unvoiced plosive consonants

the classifier, which is a necessary constraint due to the high within-class variability of speech signals. This uncertainty included in the feature selection allows effective dimensionality reduction. Using few features, a performance of 85.2% in the verification stage was obtained for the voiceless plosive /k/, 89.5% for the phoneme /p/ and 92.7% considering both phonemes. Thus, feature selection revealed what features contributed to the generalization capability. For example, the power has discriminant information for /p/, while the phoneme /k/ is well-represented by the duration. The other selected features were related to the high-frequency bands except one feature of low-frequency, which could probably be used as reference for the classifier. This is in agreement with the information supplied by the clinic specialists (Baken, 1996).

5. Acknowledgements This study is framed within the project titled “Identificación de posturas labiales en pacientes con labio y/o paladar hendido corregido”, financed by COLCIENCIAS.

6. References Alpaydin, E. ( 2004). Introduction to Machine Learning. MIT Press. Avendano, A., Deng, L., Hermansky, H., & Gold, B. (2005). The Analysis and Representation of Speech, in Speech Processing in the Auditory System, Springer Verlag. Baken, R. J. (1996). Clinical Measurement of Speech and Voice. Singular Publishing Group, Inc. Cairns, D., Hansen, J., & Kaiser, J. (1996). Recent advances in hypernasal speech detection using the nonlinear teager energy operator. International Conference on Spoken Language Processing, vol. 2, pp. 780–783. Daza, G., Sánchez, L., Sepúlveda, A., & Castellanos, G. (2008). Acoustic feature analysis for hypernasality detection in children. Encyclopaedia of Healthcare Information Systems. IDEA Group, Inc.

Revista Tecnológicas


Revista Tecnológicas Delgado, E., Giraldo, L. F., & Castellanos, G. (2007). Feature selection using a hybrid approach based on the rademacher complexity model selection. Computers in Cardiology, vol. 34, pp. 257–260. Farooq, O., & Datta, S. (2003) Phoneme recognition using wavelet based features. Information Sciences, vol. 150, pp. 5–15. Huang, X., Acero, A., & Hon, H. W. (2001). Spoken Language Processing: A Guide to Theory, Algorithm and System Development. Prentice Hall. Jain, A., Duin, R., & Mao, J. (2000). Statistical pattern recognition: A review. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, no. 1, pp. 4–36. Kasuya, H., Ogawa, S., Mashima, K., & Ebihara, S. (1986). Normalized noise energy as an acoustic measure to evaluate pathologic voice. Journal of Acoustical Society of America, vol. 80, no. 5, pp. 1329– 34. Koltchinskii, V. (2001). Rademacher penalties and structural risk minimization. IEEE Transactions on Information Theory, vol. 47, no. 2, pp. 1902–1914. Kudo, M., & Sklansky, J. (2000). Comparison of algorithms that select features for pattern classifiers. Pattern Recognition, vol. 33, pp. 25–41. Kummer, A.( 2001). Cleft Palate and Craniofacial Anomalies: Effects onSpeech and Resonance. Thomson Delmar Learning. MacKay, I. R. (1987). Phonetics: the science of speech production. Allyn and Bacon. Solera, R., Martín, D., Gallardo, A., Pelaéz, C., & Díaz, F. (2007). Robust asr using support vector machines. Speech Comunication, vol. 49, pp. 253–267. Vijayalakshmi, P., Ramasubba, M., & O’Shaughnessy, D. (2007). Acoustic analysis and detection of hypernasality using a group delay function. IEEE Transactions on Biomedical Engineering, vol. 54, no. 4, pp. 621– 629. Webb, A. R. (2002). Statistical Pattern Recognition. John Wiley and Sons, Ltda. Yumoto, E., Gould, W., & Baer, T. (1982). Harmonics-to-noise as an index of the degree of hoarseness. Journal of Acoustical Society of America, vol. 71, no. 6, pp. 1544–1550.

[237]


Generating

interpretable fuzzy systems for

classification problems Juan A. Contreras Montes1 Oscar S. Acuña Camacho2

Abstract. This paper presents a new method to generate interpretable fuzzy systems from training data to deal with classification problems. The antecedent partition uses triangular sets with 0.5 interpolations avoiding the presence of complex overlapping that happens in another method. Singleton consequents are generated form the projection of the modal values of each triangular membership function into the output space. Least square method is used to adjust the consequents. The proposed method gets a higher average classification accuracy rate than the existing methods with a reduced number of rules and parameters and without sacrificing the fuzzy system interpretability. The proposed approach is applied to two classical classification problems: Iris data and the Wisconsin Breast Cancer classification problem.

1 PhD in Technical Sciences from CUJAE, La Habana, Cuba. He graduated as an Electric Engineer in 1987 at the Universidad Tecnológica de Bolívar and as specialist in Industrial Automation in 1998 at the same university. He is working for the Department of Naval Engineer at Navy School in Cartagena, Colombia. epcontrerasj@ieee.org. 2 MSc from UNAB, He graduated as specialist in Industrial Automation from Coruniversitaria, and as Electrical Engineer from UIS. He is working for the Department of Electrial Engineer at Universidad Tecnologica de Bolivar in Cartagena, Colombia. oacuna@unitecnologica.edu.co. Fecha de recepción: 14 de septiembre de 2009 Fecha de aceptación: 21 de noviembre de 2009

Revista Tecnológicas No. 23, diciembre de 2009


[240]

Generating interpretable fuzzy systems for classification problems

Keywords Fuzzy systems, Interpretability, classification problems.

Resumen En este artículo se presenta un nuevo método para generar sistemas difusos interpretables, a partir de datos experimentales de entrada y salida, para resolver problemas de clasificación. En la partición antecedente se emplean conjuntos triangulares con interpolación de 0.5 lo cual evita la presencia de solapamientos complejos que suceden en otros métodos. Los consecuentes, tipo Singleton, son generados por la proyección de los valores modales de cada función de membresía triangular en el espacio de salida y se emplea el método de mínimos cuadrados para el ajuste de los consecuentes. El método propuesto consigue una mayor precisión que la alcanzada con los métodos actuales existentes, empleando un número reducido de reglas y parámetros y sin sacrificar la interpretabilidad del modelo difuso. El enfoque propuesto es aplicado a dos problemas clásicos de clasificación: el Wisconsin Breast Cancer (WBC) y el Iris Data Classification Problem, para mostrar las ventajas del método y comparar los resultados con los alcanzados por otros investigadores.

Palabras claves Sistemas difusos, interpretabilidad, problemas de clasificación

Revista Tecnológicas


Revista Tecnol贸gicas

1. Introduction One of the first proposals to automatically design a fuzzy system from data was the table look-up scheme (Wang & Mendel, 1992). After that, was proposed a methodology to identify fuzzy model parameters using singleton consequents, but many rules are required and gives a poor description capacity (Sugeno & Yasukawa, 1993). Different approaches have been proposed to generate fuzzy models from input-output data. Fuzzy-clustering algorithms perform as the most adequate technique to obtain fuzzy models, being fuzzy C-Means (Bezdek, 1987) and (Gustafson & Kessel, 1979) the most used methods. Modifications to these clustering algorithms have been proposed but they typically seek for a good accuracy while interpretability of the fuzzy model is not their first concern (Nauck & Kruse, 1995; 1999). In fuzzy systems and fuzzy classifiers, it is necessary that the resulting fuzzy models have some transparency, i.e., that their information be interpretable, so as to permit a deeper understanding of the system under study (Paiva & Durado, 2004). Interpretability is defined for at least five criteria (Paiva & Durado, 2004), (Espinosa & Vandewalle, 2000): a. Distinguishability. The membership functions should be clearly different and each linguistic label should have semantic meaning. b. Any element from the universe of discourse should belong to at least one of the fuzzy sets. c. Due to the fact that each linguistic label has semantic meaning, at least one of the values in the universe of discourse should have a membership degree equal to one. In other words, all the fuzzy sets should be normal. d. The numbers of functions membership should no exceed the limit of 9 distinct terms. e. The number of rules should be limited according human cognitive issues.

[241]


[242]

Generating interpretable fuzzy systems for classification problems

Figure 1 shows three membership functions where a strong overlapping occurs and, because that, it is very difficult to label these membership functions.

Figure 1. No interpretable distribution of membership functions

This paper presents a new approach for the development of linguistically interpretable fuzzy models from data. The approach has been used in system identification but in this time it will be used as a fuzzy classifier (Contreras et al., 2008). The methodology used in this paper to get the fuzzy model from input and output data is based on the inference error method from Sala (1998) and is presented in three phases: At the first, the inference error method is used to generate an interpretable fuzzy model and also, to detect possible classes or clusters in data; at the second phase, the consequent parameters are adjusted by means of least square method; at the third phase, the method is applied to two well known classification problems: Wisconsin breast cancer data and Iris data (Chen & Fang, 1995), (Hong & Lee, 1996), (Setiono & Liu, 1997), (Castro et al., 1999), (Hong & Chen, 1999), (Lee et al., 2001).

2. Fuzzy

identification approach

2.1 Inference error a fuzzy rule: “if u is A, then y is B ”, where u and y represent two numeric variables, and A⊂U and B⊂Y, are two fuzzy input

Revista Tecnológicas


[243]

Revista Tecnológicas

and output sets respectively, defined at the universes U and Y, is equivalent to the equation:

uA (u) ≤ uB (y)

(1)

The inference error ε, is given by

(2)

A fuzzy rule of the kind “If u is A, then y is B” with a null inference error, must fulfill the condition

uA (u) = uB (y)

(3)

If the system has n inputs, it must be represented by rules of the kind “If u1 is A1 and u2 is A2 and …and um is Am, then y is B”, and the generated system must fulfill the condition

((uA1 (xk ) ∧ (uA2 (xk ) ∧... (uAm (xk ))= uB (yk )

(4)

where ∧ represents a t-norm, or an aggregation operator, of fuzzy logic

2.1 fuzzy model structure 2.2.1 Membership functions The universe partitioning of the input variables in the learning process will be done with normalized triangular sets with specific overlapping of 0.5. The triangular membership functions allow the reconstruction of the linguistic value at the same numeric value after a defuzzyfication method has been applied (Pedriycz, 1994); also, the overlapping in 0.5 assures that the supports of the fuzzy sets are different. The fuzzy sets generated by the output variable will be a singleton


[244]

Generating interpretable fuzzy systems for classification problems

2.2.2 Distribution of the memberships Functions The triangular fuzzy sets of input variables will be distributed symmetrically at each respective universe.

2.2.3 Operators For combining the antecedents OWA operators will be used (Babuska, 2001).

2.2.4 Inference Methods

(5)

where

mj (x(i) ) = uA1 (x1(j)), uAj2 (x1(i))..uAjn (xn(i))

(6)

is the output grade of the j-est rule of a Sugeno fuzzy system, is the singleton value corresponding to rule j. y _ j

2.3 Fuzzy Identification Algorithm Given a collection of experimental input and output data {x k, y k},k=1,...,N, where x k is the n-dimensional input array x1k , x1k ,... xnk and yk is the one-dimensional output array, the algorithm is defined by the following steps. Step 1. Organization of the N pair set of input – output data i {x k, yi } with i=1,...N;K=1,...p , where x k( i ) ∈ ℜ p are input arrays and yi are output scalars.

Figure 2. Data organization

Revista Tecnológicas


[245]

Revista Tecnol贸gicas

Step 2. Determination of universe ranges of each variable, according to maximum and minimum values of associated data [xi, xi+] , [yi , yi+]. Step3. Distribution of triangular membership functions over each universe. As a general condition the vortex with ownership value one (modal value) falls at the middle of the region covered by the membership function while the other two vortexes, with membership values equal to zero, fall in the middle of the two neighboring regions

Figure 3. tRiangulaR sum-1 paRtition

Step 4. Calculate the position of the modal values from the input variable(s), according to (7)

where corresponds to the projection over the output space of data evaluation of the k-th input variable at the n-th set of the corresponding partition. The output value corresponding to this projection is given by the value of the i-th position of output array y.

Figure 4. geneRating consequents


[246]

Generating interpretable fuzzy systems for classification problems

Step 5. Rule determination. Initially, the rules number are equal to the number of sets of each input variable multiplied by the number of variables like n*k. The membership function associated to a consequent will be the antecedent of this rule. Antecedents of rules with the same consequent are merged by using OWA operator, reducing thus the number of rules.

Figure 5. Generating rules

Step 6. Model validation using the inference method described by (5).

Step 7. Parameters adjust, relocating the output singletons using the least square method (Contreras, 2006). Equation (5) can be written like:

(8)

Where

(9)

Output values can be represented as Y=W 胃+E like equation 10.

Revista Tecnol贸gicas


[247]

Revista Tecnol贸gicas

(10)

where E is the approximation error to minimize. Using the quadratic error norm, we have:

(11)

If W T W is no singular, the least square estimation can be done recursively. Step 8. Finally if either the square error measure MES is not greater than a measure previously established or the number of membership functions is more than nine. In any other case increment by 1 the number n of sets in the input variable (the number of partition member) and turn back to step 3.

3. Results and

discussion

3.1 Iris Data Classification Problem The Iris data is a common benchmark in the classification and the pattern recognition studies, consisting of feature measurements for the speciation of iris flowers. There are three classes corresponding to three species of iris: setosa, versicolor, and virginica, where each flower can be identified according to four continuous attributes measured in centimeters: (1) sepal length (SL); (2) sepal width (SW), (3) petal length (PL), and (4) petal width (PW). The 150 database entries include 50 sample cases for each of the three species. The goal is to classify irises into one of the three classes in accordance with the four inputs.


[248]

Generating interpretable fuzzy systems for classification problems

First the algorithm has to organize input and output variables and define the ranges of each input variable, thus: Sepal length SL:

[4.3, 7.9]

Sepal width SW:

[2.0, 4.4]

Petal length PL:

[1.0, 6.9]

Petal width PW:

[0.1, 2.5]

After training, each input variable has three triangular memberships with overlap in 0.5 and fully distinguishable: Small (S), Medium (M) and Big (B). These sets are distributed uniformly on the universe of each input variable. The consequents are placed, before the adjust of least square method, in the following position: 1, 3 and 5, which represents “setosa” class, “versicolor” class and “virginica” class, respectively. Figure 6 shows the relation of the membership function for each one of the input variables, X1-X4, to the setosa class, versicolor class and virginica class.

Figure 6. Relation of the membership function for each one of the input variables to the setosa class, versicolor class and virginica class

From the Figure 6 we can extract 12 rules. Rule1: IF X1 is Small, THEN “Setosa”

Rule2: IF X2 is Small, THEN “Versicolor”

Rule3: IF X3 is Small, THEN “Setosa”

Rule10: IF X2 is Big, THEN “Setosa”

Rule11: IF X3 is Big, THEN “Virginica”

Rule12: IF X4 is Big, THEN “Virginica”

Revista Tecnológicas


Revista Tecnol贸gicas

The rules with common consequents can to merge in exclusively one rule unchanged the results subject to the antecedents were combined by an operator average type. In this manner the rule base is reduced only to three rules. The Figure 7 shows the approximation of the output of the fuzzy model to the real dates. The system or fuzzy model rules based try to approximate the discontinuous function represented by the assigned values to the three classes: 1, 3 and 5.

Figure 7. Real system output (continuous) vs fuzzy model output (*--)

Model output was obtained using equation (10); in this case error vector was not considered.

where Y is an array with the outputs of the fuzzy model; W is an array containing

[249]


[250]

Generating interpretable fuzzy systems for classification problems

, and uB (X4), and 胃 is the consequents vector (12 singleton consequents) after being adjusted by using LQM. Next, a single algorithm is included for classification proposes. If 0<y<2

Elseif 2<=y<4

Then class 2 Then class 3

Else

Then class 5

Result is shown in Figure 8.

Figure 8. Real system output (continuous) vs fuzzy model output (*)

In the Figure8 only 4 of 150 cases were not well classified. These results have a good performance, on the order of 97.33%. In this example were utilized 150 instances for the training. In the table 1 there is a comparison with the results obtained for other researcher by means of different values for training and validation instances.

Revista Tecnol贸gicas


[251]

Revista Tecnológicas

Table 1. Comparison between different methods of classification Method

Precision (%)

Hong and Lee’s method (training set: 75 instances; validation set: 75 instances)

95.57

Chen and Fang’s method (training set: 75 instances; validation set: 75 instances)

96.28

Proposed method (training set: 75 instances; validation set: 75 instances)

96.67

Castro, Castro-Sanchez and Zurita’s method (training set: 120 instances; validation set: 30 instances)

96.60

Chen and Fang method (training set: 120 instances; validation set: 30 instances)

96.72

Proposed method (training set: 120 instances; validation set: 30 instances)

96.67

Hong and Chen method (training set: 150 instances; validation set: 150 instances)

96.67

Chen and Fang method (training set: 150 instances; validation set: 150 instances)

97.33

Proposed method (training set: 150 instances; validation set: 150 instances)

97.33

3.1 The Wisconsin Breast Cancer (WBC) The Wisconsin Breast Cancer Diagnostic Data set contains 699 instances and 16 of them are omitted because these are incomplete. The aim of the classification is to distinguish between benign and malignant cancers based on the 9 variables associated with each instance: X1 clump thickness, X2 uniformity of cell size, X3 uniformity of cell shape, X4 marginal adhesion., X5 single epithelial cell size., X6 bare nuclei, X7 bland chromatin, X8 normal nuclei, and X9 mitosis. After removing samples containing missing values, 683 instances are considered: 444 are in the benign class and 239 are in the malignant one.


[252]

Generating interpretable fuzzy systems for classification problems

The Fuzzy model obtained has three triangular membership functions for each input variable: Small (S), Medium (M) and Big (B). The singleton consequents are located, before the adjustment via least square method, on the values 2, that represents benign class, and 4, that represents malignant class. Figure 9 shows the relation between the membership functions of each one of the 9 input variables and the benign (2) and malignant (4) classes.

Figure 9. Relation between the membership functions of each one of the 9 input variables and the benign (2) and malignant (4) classes

From the Figure 6 we can extract 27 rules.

Rule 1: IF X1 is Small (S), THEN benign class (2)

Rule 2: IF X1 is Medium (M), THEN benign class (2)

Rule 3: IF X1 is Big (B), THEN malign class (4)

Rule 4: IF X2 is Small (S), THEN benign class (2) • • •

Rule 26: IF X9 is Medium (M), THEN benign class (2)

Rule 27: IF X9 is Big (B), THEN malign class (2)

However, rules with the same consequent can be reduced to one rule combining the antecedents of each rule using OWA operator without affect the precision of the system. In this case, we obtain a model with 2 rules.

Revista Tecnológicas


[253]

Revista Tecnológicas

Rule1: IF X1 is Small, X1 is Medium, X2 is Small X3 is Small,…, X8 is Small, X9 is Small and X9 is Medium, THEN benign class

Rule2: IF X1 is Big, X2 is Medium, X2 is Big X3 is Medium,…, X8 is Medium, X8 is Big and X9 is Big, THEN malign class

Table 2 shows a comparison with the results obtained by other authors. Table 2. WBC comparison with other methods Method

Accuracy %

(Setiono & Liu, 1997)

93.9

(Lee et al 2001)

94.7

(Wang and Lee , 2002)

96.3

Our approach

96.78

4. Conclusions A new approach for the development of linguistically interpretable fuzzy models from data was developed in this paper. The fuzzy identification algorithm proposed uses triangular membership function with 0.5 interpolations for antecedent partition avoiding the presence of complex overlapping that happens in other methods. This approach does not require other techniques (neural network, genetic algorithm, etc.) for learning process. The proposed approach is applied to Iris Data and the Wisconsin Breast Cancer classification problem, obtaining a high accuracy without sacrificing the fuzzy system interpretability. Results shown reveal that the proposed approach is an effective and promising classification tool.

References Babuska, R. (2001). Fuzzy and Neural Control. Disc Course Lecture Notes. Delft University of Technology. Delft, the Netherlands. 2001.


[254]

Generating interpretable fuzzy systems for classification problems

Bezdek, J. C. (1987). Pattern recognition with Fuzzy Objective Function Algorithms. Ed. Plenum Press. Castro, J. L., Sánchez, J.J. & Zurita, J.M.(1999). “Learning maximal structure rules in fuzzy logic for knowledge acquisition in expert systems”. Fuzzy Sets and Systems. 101(3), pp. 331-342. Contreras, J., Misa, R. & Murillo, L. (2008). “Obtención de Modelos Borrosos Interpretables de Procesos Dinámicos”. RIAI: Revista Iberoamericana de Automática e Informática Industrial, vol. 5, No. 3, pp. 70-77. Contreras, J., (2006). “Introducción al Control Automático”. Cartagena, Colombia. Editorial Escuela Naval Almirante Padilla. Chen, Sh-M. & Fang, Y-D (2005). “A New Approach for Handling the Iris Data Classification Problem”. International Journal of Applied Science and Engineering. 3(1), 37-49. Espinosa, J & Vandewalle, J. (2000). Constructing Fuzzy Models with Linguistic Integrity from Numerical Data-Afreli Algorithm, IEEE Trans. Fuzzy Systems, vol. 8, pp. 591 – 600. Guztafson, E. E. & Kessel, W. C. (1979). Fuzzy Clustering with a Fuzzy Covariance Matrix. IEEE CDC, San Diego, California, pp. 503 – 516. Hong, T.P. & Chen, J.B. (1999). “Finding relevant attributes and membership functions”. Fuzzy Sets and Systems. 103, 389-404. Hong, T. P. & Lee, C.Y. (1996). Induction of fuzzy rules and membership functions from training examples. Fuzzy Sets and Systems, 84: 33-47. Lee, H.M., Chen, C.M, Chen, J.M. & Jou, Y.L. (2001). “An efficient fuzzy classifier with feature selection based on fuzzy entropy”, IEEE Trans. Syst. Man and Cybern, vol. 31, pp.426-432. Nauck, D. & Kruse,R. (1995). «Nefclass - a neuro-fuzzy approach for the classification of data», In Proceedings of the Symposium on Applied Computing. Nauck, D. &, Kruse, R. (1999). “Neuro-fuzzy systems for function approximation”. Fuzzy Sets and System. 101(2), pp. 261-271. Paiva, R. P. & Dourado, A. (2004). Interpretability and Learning in NeuroFuzzy Systems, Fuzzy Sets and System. 147, pp. 17-38. 2004. Pedriycz, W. (1994). “Why Triangular Membership Functions?”, IEEE Trans. Fuzzy Sets and System, vol. 64, pp.21-30.

Revista Tecnológicas


Revista Tecnológicas Sala, A. (1998). Validación y Aproximación Funcional en Sistemas de Control Basados en Lógica Borrosa. Universidad Politécnica de Valencia. Tesis Doctoral. Setiono, R. & Liu, H. (1997). “Neural Network feature selector”, IEEE Trans. Neural Network, vol. 88, pp.654-662. Sugeno, M. & Yasukawa, T. (1993). “A fuzzy logic based approach to qualitative modeling”. Transactions on Fuzzy Systems, vol. 1, No. 1, pp. 7-31. Wang, J. S. & Lee, C. S. G. (2002). “Self adaptive neuro-fuzzy inference system for classifications application”, IEEE Trans. Fuzzy Systems, vol. 10, pp.790-802. Wang, L.X. & Mendel, J.M. (1992). “Generating fuzzy rules by learning form examples”, IEEE Transactions System, Man and Cybernetics, vol. 22, pp. 1414-1427,

[255]


[257]

Revista Tecnológicas

Política de arbitraje para la revista Tecnológicas

L

os editores de la revista Tecnológicas solicitan a la comunidad de investigadores nacionales e internacionales que estén interesados en publicar en esta revista, enviar sus artículos originales en el idioma español o inglés. Los autores deberán ajustar sus artículos a los criterios de presentación y redacción de artículos que se presentan a continuación. Sólo serán evaluados los artículos que se ajusten a estas condiciones formales de presentación. El proceso de arbitraje en la revista Tecnológicas busca asegurar una alta calidad en el contenido de los artículos publicados.

Revisión inicial El Comité Editorial realiza una primera evaluación de los artículos recibidos. En esta etapa, el Comité analiza los aspectos formales (relevancia, claridad y organización, ajuste a los objetivos de la revista), y los aspectos del lenguaje (estilo y puntuación). Con base en esta revisión inicial, el Comité puede rechazar o aceptar en primera instancia el artículo, lo cual se notificará por medio escrito al autor. Para los artículos aceptados, el Comité Editorial designa los árbitros, bien sean miembros del Comité Científico de la Revista o asesores externos o ambos. El Comité Editorial trabajará con base en el principio de libertad editorial, por lo cual es autónomo en la definición del contenido editorial de la Revista.

Tipo de arbitraje La revista Tecnológicas realiza el proceso de arbitraje de los artículos por medio de autores y revisores anónimos. Eventualmente, el Comité Editor podrá requerir de un doble arbitraje para un artículo. Los árbitros son elegidos con base en criterios de solvencia académica en el tema del artículo. Los árbitros entregan al Comité recomendación sobre la pertinencia de publicar el artículo, y da al autor recomendaciones metodológicas y estructurales en relación con el contenido. De los árbitros no se espera que realicen correcciones directamente sobre el texto, al igual que no se espera entreguen correcciones lingüísticas o de estilo.

Duración del proceso de arbitraje y publicación El proceso de arbitraje puede tomar varios meses, dependiendo de las interacciones entre el árbitro y el autor. Un artículo puede requerir varias revisiones antes de que se tome la decisión de publicación. En todo caso, la definición final de publicación será tomada por el Comité, evaluadas las recomendaciones arbitrales. La fecha de publicación de los artículos aceptados queda a criterio de los editores.


[259]

Revista Tecnológicas

Revista Tecnológicas (Indexada Publindex 2007-2008)

1. Orientaciones generales para los autores Los artículos de interés para publicación en la revista Tecnológicas se ajustan a los criterios de publicación, calidad científica y tecnológica, definidos en el Índice Bibliográfico Nacional de Publindex Artículo de investigación científica y tecnológica: Documento que presenta de manera detallada los resultados originales de proyectos de investigación. La estructura generalmente utilizada contiene cuatro apartes importantes: introducción, metodología, resultados y conclusiones. Artículo de reflexión: Documento que presenta resultados de investigación desde una perspectiva analítica, interpretativa o crítica del autor, sobre un tema específico, recurriendo a fuentes originales. Artículo de revisión: Documento resultado de una investigación donde se analizan, sistematizan e integran los resultados de investigaciones publicadas o no publicadas, sobre un campo en ciencia o tecnología, con el fin de dar cuenta de los avances y las tendencias de desarrollo. Se caracteriza por presentar una cuidadosa revisión bibliográfica de por lo menos 50 referencias. Artículo corto: Documento breve que presenta resultados originales preliminares o parciales de una investigación científica o tecnológica, que por lo general requieren de una pronta difusión. Reporte de caso: Documento que presenta los resultados de un estudio sobre una situación particular con el fin de dar a conocer las experiencias técnicas y metodológicas consideradas en un caso específico. Incluye una revisión sistemática comentada de la literatura sobre casos análogos. Revisión de tema: Documento resultado de la revisión crítica de la literatura sobre un tema en particular. Cartas al editor: Posiciones críticas, analíticas o interpretativas sobre los documentos publicados en la revista, que a juicio del Consejo Editorial constituyen un aporte importante a la discusión del tema por parte de la comunidad científica de referencia.


[260] Editorial: Documento escrito por el editor, un miembro del Consejo Editorial o un investigador invitado sobre orientaciones en el dominio temático de la revista. Traducción: Traducciones de textos clásicos o de actualidad o transcripciones de documentos históricos o de interés particular en el dominio de publicación de la revista. Documento de reflexión no derivado de investigación: Posiciones o manifestaciones sobre puntos particulares o resultados publicados por un autor. Reseña bibliográfica: Presentaciones críticas sobre la literatura de interés de reciente aparición en el dominio de publicación de la revista. El Comité Editorial de la revista Tecnológicas dará prelación a la publicación de artículos en las modalidades de investigación, reflexión y revisión.

2. Recomendaciones de estilo Es requisito que los autores presenten los artículos con los siguientes criterios de estilo: • Los trabajos deberán ser originales y no sometidos a consideración simultánea de otras publicaciones nacionales e internacionales • Los trabajos no deberán sobrepasar las 20 páginas numeradas y deben enviarse por medios electrónicos, acompañado de una copia impresa por una sola cara y a espacio interlineado 1,5; con tipo de letra Arial 12 y márgenes superior, inferior y derecha de 2,5 cm, margen izquierda de 3 cm • El encabezado de cada trabajo deberá contener el título del artículo (en mayúsculas y negrilla) en letra Arial, tamaño 14, nombre y apellidos del autor o autores (cursiva), con una nota a pie de página que exprese los títulos académicos actualizados, nombre de la institución donde trabaja, cargo que desempeña y dirección electrónica • El artículo debe acompañarse de un abstract o resumen (máximo 200 palabras) en español e inglés y un máximo de 5 palabras clave que identifiquen de manera precisa el contenido • Los epígrafes se presentarán en letra tipo Arial 11 y en forma de sangrado • El contenido del artículo debe tener las siguientes secciones: Introducción, Metodología, materiales y equipos (si aplica), Resultados y discusiones, Conclusiones

Revista Tecnológicas


Revista Tecnológicas

• Las citas textuales se presentarán entrecomilladas; las que ocupen cinco o más líneas se presentarán a un espacio, en forma de sangrado, con letra tamaño 10 y sin comillas • Los artículos que son resultado de proyectos de investigación deberán hacer explícita esta condición. Se sugiere que esto se comunique en la introducción o en el resumen • El Comité ha adoptado el sistema de citación APA, el cual se encuentra habilitado en el M.S Word 2007, como herramienta de referencias Para facilidad de los autores, se transcriben ejemplos de citación y bibliografía: Citación en el texto del artículo (cuerpo o pies de página) de un autor cuyo trabajo no se trascribe textualmente: La norma NTC 2849 establece un procedimiento de ensayo que implica la saturación de la muestra en un proceso de laboratorio que toma un tiempo total de 12h ± 1/4h, en el cual la baldosa se somete a una cocción inicial por el transcurso de una hora, se conserva en el agua, hasta su enfriamiento, por 11h adicionales (ICONTEC, 1997, pág. 10). Citación en el texto del artículo (cuerpo o pies de página), del cual no solo se menciona el autor, sino que se transcribe textualmente parte de su texto. Según Candioti, con este movimiento queda consolidada la epistemología como el saber que organiza y legitima el conocimiento, garantizando su validez. Tal posición de privilegio convertía a la epistemología “en la palabra definitiva; vigila la objetividad del conocimiento y certifica la ‘corrección’ de las inferencias que permiten la aplicación de la teoría al orden de la acción” (Candioti, 2006, pág. 4). Entradas en las referencias del artículo (bibliografía utilizada en el texto): Se relacionan en orden alfabético (no de aparición), con el sistema APA: Caso de norma: ICONTEC. (1997). Baldosas con superficie de grano -Terrazo- (Vol. NTC 2849). Bogotá: Icontec. Caso de libro: Montgomery, D. C., & Peck, E. (1992). Introduction to linear regression analysis. New York: John Wiley and Sons. Caso de revista: Shapiro, S. S., & Wilk, M. (1965). An analysis of variance test for normality. Biometrika, 52-53.

[261]


[262] • El uso del gerundio tiene algunas dificultades. Hay que evitarlo si no se está seguro de las reglas que lo rigen. Igual sucede con otras palabras y expresiones, cuyo significado exacto se desconozca • Cuando se mencionan personas, escribir su nombre completo. No deje segundos nombres o apellidos con inicial: Rodrigo A. Román S, mejor: Rodrigo Antonio Román Sánchez • Todos los nombres y palabras de idioma extranjero deben escribirse como se usan en su idioma, menos en los casos en que haya una castellanización aceptada, caso escáner. Los nombres de países, instituciones y personas deber seguir la grafía oficial que los distingue • El nombre de INSTITUTO TECNOLÓGICO METROPOLITANO irá siempre en negrita con todas las letras en mayúscula • Cuando la oración termina con cierre de paréntesis, raya o comillas, el punto se colocará inmediatamente después de tales signos. Los puntos suspensivos son tres, solamente • Los signos de interrogación en español se colocan tanto en la apertura como en el cierre de la frase. Igual el signo de admiración. La palabra que sigue al signo de interrogación o al de admiración no necesariamente debe comenzar con mayúscula. Ello depende del contexto. El punto de ambos signos sirve de punto, en caso de que la frase que les siga vaya separada por un punto Aquellos trabajos que no cumplan con todos los requisitos en el primer envío, no serán aceptados. Las opiniones y afirmaciones que aparecen en los artículos son responsabilidad exclusiva de los autores.

Revista Tecnológicas


SUSCRIPCIÓN NÓICPIRCSUS Segunda época

ISSN 0123-7799 Indexada en Publindex 2007-2008

SUSCRÍBASE POR FAX O CORREO

Con la suscripción reciba gratis las publicaciones seriadas DESDE LA BIBLIOTECA y MEMORIA

Apellidos: ............................................... Nombre:................................................. Dirección:................................................ Ciudad:.........................País..................... Teléfono residencia:................................... Teléfono oficina:....................................... Correo electrónico:.................................... Web:...................................................... Firma:...................................................... c.c.......................................................... ¡Suscríbase ya! y ahórrese el precio de venta al público • $20.000 un año (2 ediciones) • $36.000 dos años (4 ediciones) • $48.000 tres años (6 ediciones) A partir del número: ___ Forma de pago ________________________________ Cheque No.

________________________________ Banco

Cheque a nombre de Instituto Tecnológico Metropolitano Consignación en las cuentas de ahorros del BANCO POPULAR No. 188720098 o BANCO DE OCCIDENTE No. 440805521

Para mayor información llame al teléfono 440 5121 fax: 440 5101 calle 73 76A-354 Medellín, Colombia www.itm.edu.co

INSTITUTO TECNOLÓGICO METROPOLITANO:



Revista Tecnológicas #23