Issuu on Google+


Segunda ĂŠpoca

Indexada en Publindex 2007-2008


INSTITUTO TECNOLÓGICO METROPOLITANO Institución universitaria adscrita a la Alcaldía de Medellín REVISTA Tecnológicas / Segunda época No. 21, diciembre de 2008 ISSN 0123-7799 Indexada en Publindex 2007-2008 Categoría C Revista dirigida a la comunidad científica de habla hispana interesada en desarrollo científico y tecnológico

Rector

José Marduk SÁNCHEZ CASTAÑEDA

Directora Centro de Investigación Milena PATIÑO VILLA Editor Jairo OSORIO GÓMEZ Secretaría Técnica Silvia JIMÉNEZ GÓMEZ Comité Editorial Milena PATIÑO VILLA Edilson DELGADO TREJOS Héctor CARDONA Andoni IBARRA (España) León OLIVÉ (México) Raúl DOMÍNGUEZ RENDÓN Juan Guillermo RIVERA BERRÍO Álvaro MONTERROZA Diseño, diagramación e impresión

Editorial L. Vieco e Hijas Ltda.

Artículos abiertos a discusión y crítica. Se solicita canje

INSTITUTO TECNOLÓGICO METROPOLITANO

Calle 73 No. 76A 354 - Tel. (57+4) 440 5100 tecnologicas@itm.edu.co www.itm.edu.co


Contenido Editorial ........................................................................................................................................................ 7 Análisis discriminante no métrico y regresión logística en el problema de clasificación

Olga Cecilia Úsuga Manco Carmen Elena Patiño Rodríguez .............................................................................. 13 Metodología para evaluar el difeomorfismo de un atractor caótico usando el filtro de kalman en señales fisiológicas

Carolina Ospina Aguirre Luis David Avendaño Valencia Edilson Delgado Trejos Germán Castellanos Domínguez ............................................................................... 31

Caracterización de señales sísmicas utilizando modelos paramétricos y transformada cepstrum

Hernán Humberto Agudelo López .......................................................................... 49

Análisis de reducción de ruido en señales eeg orientado al reconocimiento de patrones

Cristian Guarnizo Lemus . ............................................................................................................ 67

Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy, para su posterior determinación de la cinética de reacción

Lilia C. Rojas Pérez Luis A. Caicedo Mesa Jaime L. Aguilar Arias Liliana R. Martínez Ramírez . .................................................................................................. 81


Speed control of induction motor using fuzzy recursive least squares technique

Santiago Sánchez Eduardo Giraldo ......................................................................................................................................... 99

Reconocimiento de emociones en el habla Julián David Echeverry Correa Mauricio Morales Pérez ................................................................................................................ 113 Distribución del potencial electrostático en una placa cuadrada utilizando el método de elementos finitos

Jairo Madrigal Argáez Jaime Barbosa Pérez Manuel Julio García .............................................................. 131

Almacenamiento de gas natural Tomás Correa Elkin Castrillón ..................................................................... 145 Combustión con exceso de entalpía Henry Copete López .............................................................. 169 La técnica y el naturalismo metodológico Álvaro Monterroza . ............................................................... 191


Editorial “T

odo cuanto existe es fruto del azar o de la necesidad”, afirmó Demócrito, siete siglos antes de nuestra era. Lo que llamamos ciencia, conocimiento científico, investigación científica son intentos de derrotar el azar, o, al menos, de disminuir su poder. Pero, se pregunta Jorge Wagensberg, “¿es el azar un producto de nuestra ignorancia o un derecho intrínseco de la naturaleza?” Porque “la naturaleza ama ocultarse”, dejó Heráclito de Éfeso, el Oscuro, en el siglo VI a. C. Y tanto y tan bien lo ha amado la naturaleza, que su estado natural es el ocultamiento. Los éxitos de la ciencia por desvelar el ocultamiento de la naturaleza se han conseguido pagando un alto precio. Lo recuerda Koyré: “Hay algo de lo que Newton es responsable (y con él la ciencia moderna en general). Se trata de la división del mundo en dos partes. […] El mundo de la ciencia, el mundo real, se aleja indefinidamente del mundo de la vida que la ciencia ha sido incapaz de explicar. De hecho, estos dos mundos se unen cada día más por la praxis, pero están separados por un abismo en lo que a la teoría se refiere. En esto consiste la tragedia del espíritu moderno que sabe resolver el enigma del universo, pero sólo a costa de reemplazarlo por otro enigma: el enigma de sí mismo”. Por eso, la actividad científica, más tarde o más temprano, acaba planteándose las cuestiones éticas. “Hay que reconocer –escribe Jacques Monod– que no es imposible fundar, por deducción, una ética del conocimiento científico, pues es imposible vivir sin ética y, por consiguiente, es necesario fundar científicamente una axiología”. Esta ética del conocimiento es una exigencia de la investigación, pero no se confunde con ella: “el único objetivo, el valor supremo, el ‘bien soberano’ de la ética del conocimiento no es el bienestar de la humanidad, ni menos su poder temporal o su confort, ni tampoco el socrático ‘conócete a ti mismo’, sino el conocimiento objetivo en sí mismo”.


[]

Ahora bien, ¿es posible semejante ética? El conocimiento objetivo pretende ser objetivo y habitualmente se esfuerza por serlo, pero, ¿cómo fundar sobre él una ética si en el comportamiento real intervienen hechos subjetivos? Ya en 1978, escribía Miguel Ángel Quintanilla “El mito de la neutralidad de la ciencia”, y actualmente, entre otros, Renato Dagnino se pregunta, tan acertada como críticamente, acerca de las reales dimensiones de autonomía social y de neutralidad valorativa que pueden pretender las actividades tecnocientíficas. En las Tesis sobre Feuerbach que escribió en Bruselas, en la primavera de 1845, afirma Carlos Marx que “los filósofos no han hecho más que interpretar de diversos modos el mundo; pero de lo que se trata es de transformarlo”. El mismo Gibbons plantea que un conocimiento socialmente robusto, construido con una mayor presencia social, significa no sólo mejores soluciones sociales, o respuestas más pertinentes a las necesidades sociales, sino que también supone mejores soluciones técnicas, en el sentido de Ortega y Gasset1. Luis Carrizo, estudiando los actuales desafíos de las univer­ sidades, en cuanto a la producción de conocimiento y a las políticas públicas, plantea tres transformaciones necesarias (con los respectivos obstáculos que se deben superar) para conseguir tres tipos de enlace productivo: 1. Diálogo entre los diversos saberes (enlace entre las disciplinas) que supone transformaciones en la formación de los investigadores para promover una perspectiva y una actitud transdisciplinaria en el seno de la academia

1

Resume el filósofo español su propuesta conceptual de técnica afirmando que es “la reforma de la naturaleza [para conseguir] el logro pleno del hombre: su bienestar, su felicidad” Meditación de la técnica y otros ensayos sobre ciencia y filosofía, p.56. Revista de Occidente en Alianza editorial. Madrid, 1998.

Revista Tecnológicas


Revista Tecnológicas

2. Diálogo entre las distintas lógicas de acción (enlace con el sector político) que implica transformaciones en la cultura política para incorporar la investigación social en el diseño de políticas 3. Diálogo entre ciencia y sociedad (enlace con los destinatarios de las políticas) que significa transformaciones en la cultura ciudadana para promover un mayor protagonismo y participación de los beneficiarios de las políticas en las rutas de decisión Concluye Luis Carrizo su artículo con unas palabras de JeanLouis le Moigne: “Todo este planteamiento nos remite a nuestra responsabilidad ética. Edgar Morin nos recuerda sin cesar la frase de Pascal: «Trabajemos en pensar bien: he ahí la fuente de la moral» [Los científicos y los investigadores] también son ciudadanos; también tienen la obligación de preguntarse sobre la legitimidad de los saberes que han aprendido. Esto no quita nada, claro está, a la responsabilidad de los profesores”. Nuestra responsabilidad como académicos investigadores y docentes apenas empieza aquí: ¿Investigamos en lo que “toca” y lo ponemos al servicio de la sociedad oportunamente? ¿La sociedad nos necesita? ¿nuestro entorno quiere que investiguemos? ¿lo que investigamos es legítimo? ¿damos respuestas a los ciudadanos que las buscan? La Declaración de la Conferencia Regional de Educación Superior 2008 establece claramente la naturaleza de bien público que tiene la educación superior y, por tanto, su valor estratégico como instrumento de desarrollo sustentable en la zona. Así lo asume el ITM en su Plan de Desarrollo 2008-2012, que se materializa en las actividades del Centro de Investigación en lo que compete a generación de conocimiento científico y desarrollo tecnológico. El número 21 de la Revista TECNOLÓGICAS es una muestra del esfuerzo del ITM por hacer de la investigación un instrumento estratégico de desarrollo para la región, haciendo visible el conocimiento científico y las propuestas de desarrollo tecnológico que generan investigadores de la Universidad Nacional,

[]


[10]

Universidad de Antioquia, Universidad EAFIT, Universidad Tecnológica de Pereira y, por supuesto, ITM. Esta edición de la revista Tecno Lógicas es una red conceptual que integra el conocimiento científico, el desarrollo tecnológico y las pautas metodológicas que tienen gran influencia en el área de Ciencia, Tecnología y Sociedad, conectando la abstracción del conocimiento científico con sus distintas derivaciones tecnológicas. Olga Cecilia Úsuga y Carmen Elena Patiño muestran los resultados de un proyecto de investigación que realizó un estudio de comparación entre análisis discriminante no métrico y regresión logística para el caso en el que se clasifican más de dos grupos que provienen de distribuciones normales y no normales, bajo diferentes tamaños muestrales. Este tópico dentro de las tareas relacionadas con el reconocimiento de patrones es de gran importancia debido a las dificultades presentes en las tomas de datos requeridas para el entrenamiento de máquinas inteligentes. Carolina Ospina et al plantean una nueva forma de caracterización usando la teoría del caos, para lo que presenta una metodología efectiva de reconstrucción de atractores difeomórficos al original a partir de señales 1-D, usando medidas de predicción. En esta misma área de trabajo, el estudio presentado por Hernán Humberto Agudelo plantea otra forma de caracterización de señales usando modelos paramétricos y la transformada CEPSTRUM en la identificación de procesos aleatorios con aplicaciones particulares sobre señales sísmicas. Uno de los problemas que se presentan en la caracterización de señales es el nivel de influencia que tiene el ruido involucrado en la etapa de adquisición en la discriminación de los diferentes estados funcionales. Cristian Guarnizo presenta un estudio sobre la reducción de ruido de fondo (electrónico) en señales electroencefalográficas (EEG) utilizando la transformada WAVELET, asumiendo que las características extraídas son susceptibles al ruido inherente en la señal y común entre clases. Adicionalmente, permite observar la incidencia en la separación de las muestras en el espacio de características a partir de un clasificador bayesiano lineal.

Revista Tecnológicas


Revista Tecnológicas

Para la caracterización de dinámicas asociadas al control de procesos químicos, Lilia Rojas et al exponen una metodología que permite la determinación de la cinética de reacción de la sacarificación de la yuca. De otra parte, las técnicas de control basadas en modelos difusos y técnicas de dinámica no lineal ofrecen alternativas modernas y efectivas para controlar máquinas rotatorias, como es expuesto en el trabajo de Santiago Sánchez y Eduardo Giraldo. No sólo la dinámica de las máquinas cobra interés en el momento de evaluar el estado funcional de un sistema: Julián David Echeverry y Mauricio Morales presentan un estudio en el que las emociones en el habla son caracterizadas con fines sicológicos usando procesamiento digital de señales de voz. El desarrollo tecnológico se deriva de la materialización del conocimiento científico con fines diversos de aplicación. En el trabajo presentado por Jairo Madrigal et al. se plantea una solución basada en elementos finitos que tiene como objetivo determinar la distribución del potencial electrostático de una placa cuadrada mediante el método de pesaje residual en la formulación débil de la ecuación diferencial de Laplace con condiciones de frontera de Dirichlet. Tomás Correa y Elkin Castrillón abordan un tema de gran pertinencia y actualidad en la sociedad colombiana y latinoamericana: el almacenamiento de gas natural; para satisfacer las demandas del mercado se requieren unidades de almacenamiento de gas en superficie o subterráneos de gran capacidad y de tasas de inyección y producción adecuadas. Por otra parte, la utilización de tecnologías de calentamiento cada vez más eficientes que ayuden a disminuir el consumo de combustible e incrementen la eficiencia térmica de los procesos en aplicaciones industriales gana cada vez más interés. Henry Copete presenta un trabajo en el que se trata el concepto de combustión con exceso de entalpía, las principales propiedades de combustión que se afectan por el precalentamiento de los reactivos, los sistemas más utilizados para precalentar el aire, las ventajas y desventajas de esta tecnología y la descripción de

[11]


[12]

algunas técnicas computacionales empleadas para el estudio de este tipo de combustión. Finalmente, Álvaro Monterroza presenta, de manera profunda, la complementariedad que existe entre la técnica y el naturalismo metodológico. MILENA PATIÑO VILLA

Directora Centro de Investigación

Revista Tecnológicas


Análisis

discriminante no métrico y regresión

logística en el problema de clasificación Olga Cecilia Úsuga Manco1 Carmen Elena Patiño Rodríguez2

Resumen Este artículo muestra los resultados de un proyecto de investigación donde se realizó un estudio de comparación entre análisis discriminante no métrico y regresión logística para el caso en el que se clasifican más de dos grupos que provienen de distribuciones normales y no normales, bajo diferentes tamaños muestrales. Este proceso se llevó a cabo por medio de un estudio de simulación, evaluando los dos procedimientos por medio de la tasa de clasificación errónea. El estudio permitió concluir que bajo distribuciones simétricas los dos procedimientos son similares en cuanto a la tasa de clasificación errónea y bajo distribuciones no simétricas la regresión logística se comporta mejor que el análisis discriminante no métrico.

Palabras clave Análisis discriminante, análisis discriminante no métrico, regresión logística, clasificación.

Docente asistente. Departamento de Ingeniería Industrial. Universidad de Antioquia. Medellín - Colombia. Calle 67 Nº. 53-108, A.A 1226. Teléfono (574) 210 55 75. Fax (574) 263 82 82. Medellín - Colombia. ousuga@udea.edu.co. 2 Docente asistente. Departamento de Ingeniería Industrial. Universidad de Antioquia. Medellín - Colombia. Calle 67 Nº. 53-108, A.A 1226. Teléfono (574) 210 55 75. Fax (574) 263 82 82. Medellín - Colombia. cpatino@udea.edu.co 1

Fecha de recepción: 7 de noviembre de 2008 Fecha de aceptación: 12 de diciembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[14]

Abstract A study of comparison between non-metric discriminant analysis and logistic regression when the classification system has more than two clusters is shown, taking into account normal and non-normal distributions under different sample sizes. This process was carried out by means of a simulation study, evaluating the two procedures by the rate of misclassification. This study is derived from a research project and concluded that symmetrical distributions under the two procedures are similar in terms of the rate of misclassification and non-symmetrical distributions under the logistic regression performs better than the non metric discriminant analysis.

Key words Discriminant analysis, no metric discriminant analysis, logistic regression, classification.

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción Se han realizado estudios de comparación entre análisis discriminante y regresión logística, considerando el análisis discriminante desde el punto de vista lineal, el cual se basa en la combinación lineal de variables que separan de la mejor manera dos clases de objetos o eventos, como son los estudios realizados por Efron, Bradley (1975), Harrell, F.E., y Lee, K.L. (1985), Castrillón, F. (1998), Fan, X. y Wang, L. (1999), Pohar, et al. (2004), Lei, P. y Koehly, L. (2003), Richard’s, et al. (2008). El objetivo de este artículo es presentar una comparación entre la regresión logística y un nuevo procedimiento de clasificación, como el análisis discriminante no métrico, para el caso de más de dos grupos. Según Raveh (1989), una de las ventajas del procedimiento no métrico es que es aplicable a variables cualitativas y cuantitativas y por lo tanto no tiene supuestos sobre distribuciones específicas. Hasta el momento se han realizado pocos estudios en este sentido, sólo para el caso de dos grupos como el estudio realizado por Úsuga (2006). Usualmente estos estudios de comparación se han realizado a la luz de distribuciones como la normal, mostrando que la regresión logística obtiene buenos resultados para el caso en que las distribuciones normales son similares en cuanto a la matriz de varianzas y covarianzas y los vectores de medias. Este artículo, como resultado de un proyecto de investigación, presenta las ventajas de los dos métodos cuando se clasifican más de dos grupos que provienen de distribuciones normales y no normales, de tipo continuo. El desarrollo de este artículo será el siguiente: la sección de materiales y métodos incluye la definición de los dos métodos de clasificación y la descripción de la generación de los datos de entrenamiento y el procedimiento de simulación; la siguiente sección incluye los resultados del procedimiento de comparación entre los dos métodos, una aplicación sencilla del procedimiento y la sección final contiene las conclusiones a la investigación.

[15]


[16]

Análisis discriminante no métrico y regresión logística en el problema de clasificación

2. Materiales

y métodos

2.1 Análisis discriminante no métrico, NDA Raveh (1983,1989) discutió y enfatizó el caso de separación de dos grupos, el cual aplicó a un conjunto de datos con múltiples grupos (3 y 10), sin definir el índice de separación para múltiples grupos. Raveh (1983) declaró que se podría realizar una generalización del coeficiente de discriminación para múltiples grupos en trabajos posteriores, pero éste fue explícitamente realizado por Guttman (1988), quien generalizó el índice de separación para múltiples grupos de Raveh y lo llamo disco (discriminant coefficient, coeficiente discriminante). Disco es más resistente a outliers, observaciones extremas, y es mucho más interpretable estadísticamente que el criterio de Fisher, en el caso de análisis discriminante lineal. Sea X una matriz de datos de dimensión (nxp), en la cual los n individuos están divididos en G grupos diferentes con ng individuos G

en el grupo g, es decir

n = ∑ ng g =1

y cada individuo está descrito por p

variables cuantitativas. La matriz de datos puede ser considerada como una concatenación de submatrices X(g) para g = 1,...,G, donde X(g) = {xij(g)} es una matriz de datos de dimensión (ngxp)

que describe los ng individuos en el grupo g y xij(g) designa el valor del carácter j en el individuo i que pertenece al grupo g. Sea Xi(g) = {xil(g),...,xip(g)} un vector columna que representa el individuo i en el grupo g,

ng

x. j ( g ) =

∑x i =1

ij

ng

(g)

es la media del carácter j en el grupo g,

X(g) = {xil(g),...,xip(g)} es el vector de la media muestral total. A continuación se presenta el coeficiente discriminante de Guttman-Raveh llamado disco y su interpretación.

2.1.1 Disco Sea Z una variable aleatoria y Zi(g), un valor medido en la obserng

vación i del grupo g y sea z (g ) = ∑ z i ( g ) . El coeficiente discriminante i =1

ng

de Guttman-Raveh entre G grupos está definido como:

Revista Tecnológicas


2.1.1 Disco disco y su interpretación.

te discrimínante de Guttman – Raveh llamado

Sea Zvariable una variable y Zvalor , un valor en la observac Sea Z una aleatoriaaleatoria y Z i (g ) , un en la medido observación grupo i del i (g )medido 2.1.1 Disco n

g ( g ) n g zy (Zgi )(g ) , un valor medido en la observación i del grupo Sea Z una variablez ialeatoria (g ) = ¦ discriminante de Guttman – de Raveh entre G– R g y sea zi =n1( gn) g= . El icoeficiente . El coeficiente discriminante Guttman g y zsea un valor medido en la observación i del grupo z g ( ) n 1 g 17] Revista Tecnológicas .i =El coeficiente discriminante de Guttman – Raveh entre [G g y sea z ( g ) = ¦ i n gcomo: i =1 grupos esta definidito

¦

g

G discriminante de Guttman – Raveh entre grupos

esta definidito como:

G G definidito como: grupos esta

¦¦ n Gn zG(g ) − z (h) n z (gn) −g n z (hh )z ( g ) − z (h ) disco = ¦¦ n¦¦ g =1 h =1 disco = z ( g ) − z (h ) disco = ¦¦¦¦ G G z (ng ) −n z (h ) (1) ¦¦¦¦ ¦¦¦¦ z i (g ) − z j (h) G

g

G

g =1 h =1

n G gG =1 h =1g G

h

g

nh

ng

G

i

g =1 h =1 i =1 j =1

]

g

i

g =1 h =1 i =1 j =1

h

ng

(1)

j

(1)

j

g =1 h =1 i =1 j =1

El El numerador numeradores es

nh

ng

nh

] donde , donde una medida )] esmedida [z (g )[−z z(g(h) −)] zes(huna ¦¦ ¦¦[z[z(g()g−) z− (zh)(]h,, )donde ¦¦ ¦¦ ¦¦¦¦ G

G

G

ng

G

ng

nh

nh

El numerador es gg==11 hh==11 i =i = j =j1=1 i = j =1i = j =1 ¦¦ [z (g ) − z (h )] es una medida n n n G G n es una medida de la separación entre los grupos h y g. Eln término n n n [ ( ) ( ) ] , donde [z (gz )(−h)z j del El numerador es z g − z h (h )] e ¦¦h y hi yg . gEl. jtérmino separación entre entreG ¦¦ los z i (¦¦ g ) − zz j ((hg))i−del n la la n separación n ¦¦ G de G de G loshngrupos grupos El término ¦¦ j g =1representa =1 i = j =1 i = j =i 1 El término ¦¦ z ( g ) − z (h ) del del denominador la variación total i =1 j =1 entre j =1 [z (g ) − z (h )] ≤ satisface la z ( g ) − z (h ) , la función i =1disco

h ) , donde

ng

i=

nh

j =1

i

j

i i

j

j

g

i

i j

ng

nh

g

i =1 j =1

g

h

¦¦ ¦¦ i

j

i

g

i

g

h

h

j

h yporg, medida porladesviaciones h ygrupos total entre los gruposlos medida g ,denominador representa variación totalabsolutas. entre los n n

i =1 j =1 representag =1lah =1variación total entre los grupos y desig , medida por Porh la

g =1 h =1 denominador i = j =1

n g nh grupos h y g , medida por

¦¦ z (

h ydisco dedesigualdad: la [z i separación entre .satisface El término desviaciones lag desigualdad (g ) − z j (h )]absolutas. , laPor función lalas muestras z j (h )disco=0 0≤≤¦¦¦¦ disco ≤ 1z i,(g ) −los con indica que todas siguiente ¦¦ ¦¦ gualdad ,grupos la función disco satisG

Por

h

h

¦¦¦¦

j

j

h

g

hy g .

(1)

h

nh

G

g

nh

G

G

nh

g

la

desigualdad desviaciones absolutas. Por la desigualdad g =1 h =1 i = j =1 g =1 h =1 i =1 j =1 i =1 j =1 la misma media y si disco=1, entonces no existe traslape entre los scores de facetienen la siguiente desigualdad: 0 ≤ disco ≤ 1, con disco = 0 indica que siguiente desigualdad: 0 ≤ disco ≤ 1 , con disco=0 indica que todas las muestras

i

denominador representa la variación total entre los grupos h y g cualquiera los tienen dos grupos. tienende la misma media yla si misma disco=1, entonces existe traslape los scores todas las muestras media no y si disco = 1, entre entonces node cualquiera de los dos grupos. desviaciones absolutas. Por Seatraslape η un vector p-dimensional, y cualquiera considere lade variable aleatoria z i ( g ) = η ' X i (la g ) , el existe entre los scores de los dos grupos. Sea η un vector p-dimensional, y considere la variable aleatoria z i ( g ) = η ' X i ( g ) , el

Sea η un vector p-dimensional, y considere la variable aleatoria

cual representa el score de la observación i en el grupo g en el vector η . cual representa el score de la observación i en el grupo g en el vector η . La

zi(g) = ηXi(g), el cual representa el score de la observación i en el

La

ecuación puede (1) puederepresentarse representarse como una una función del vector de la siguiente ecuación delη ,vector η , de la siguiente grupo g en el(1)vector η. La ecuacióncomo (1) puedefunción representarse como manera: unamanera: función del vector η, de la siguiente manera:

] ( n g nh ¦¦ g − X h )] g =1¦¦¦¦ h =1 η [X ( g ) − X (h )] G

disco(η) =

disco(η) =

G

¦¦ n

G

G

g =1 h =1

G

G

ng

Gg =1 nhg=1 in=1h

g

[

nh η ' X g − X (h )

nh

η [X '

'

i

j =1

(2)

j

(2)

¦¦¦¦ η [X (g ) − X (h )] G

(2)

'

El análisis discriminante ino métricoj propuesto por Raveh (1989) consiste en buscar g =1 h =1 i =1 j =1

el vector η que maximiza disco en (2). Este se llama no métrico, porque, para

El análisis discriminante métrico Raveh por (1989) consiste en buscar [X (g ) − X (hpropuesto )] >por cualquier grupo h y no g tal que ηpropuesto 0 , maximiza el conjunto de El análisis discriminante no métrico Raveh el vector η que enηi(2). se no métrico, (1989) consiste en maximiza buscar elj disco en (2). porque, para (hvector )] ≥ 0 para η' [X i ( g ) − X desigualdades y j= 1,...,llama nh . disco =que 1,...,Este n gmaximiza Éste se llama no de métrico, porque, para cualquier grup h y g, tal ' 2.1.2 Regla clasificación '

cualquier grupo h y g tal que η [X ( g ) − X (h )] > 0 , maximiza el conjunto de

que η[X(g) – (1989) X(h)]describe > 0, maximiza el conjunto degrupos. desigualdades Raveh la regla de clasificación para dos Esta regla puede ( η' [para X i (g ) − X jl,...,n h )] ≥ 0 y para i l,...,n = 1,..., n.g y j = 1,..., n h . η[Xidesigualdades (g) – X (h)] ≥ 0 i = j = ser de la siguiente j fácilmente generalizada a G grupos g h forma. Se considera n scores de discode z i (clasificación g ) , para i = 1,..., n g 2.1.2 Regla

y g = 1,..., G . Se asume que los n1 scores del grupo 1

se espera que sean menores que los n scores del grupo 2, el cual se espera que

2 Raveh (1989) describe la regla de clasificación para dos grupos. Esta regla puede

sean más pequeños que los n3 scores del grupo 3 y así sucesivamente. La regla

ser fácilmente generalizada a G grupos de la siguiente forma. Se considera n scores sugerida es el punto de corte para los dos primeros grupos, 1 y 2, la cual es igual al

) , para 100 de disco z i ( gmuestral y gn =scores, Se asume los n1 scores 1,..., Gel. punto i =(n1,..., g los / n) nde percentil de corte que del segundo y tercer del grupo 1 1

se

grupo que es igual percentil muestral de grupo los n scores, y así 1 + n2 / n) del n (nscores espera seanal menores que los100 2, el cual se 2

espera que

sean más pequeños que los n3 scores del grupo 3 y así sucesivamente. La regla sugerida es el punto de corte para los dos primeros grupos, 1 y 2, la cual es igual al


[18]

Análisis discriminante no métrico y regresión logística en el problema de clasificación

2.1.2 Regla de clasificación

Raveh (1989) describe la regla de clasificación para dos grupos. Esta regla puede ser fácilmente generalizada a G grupos de la siguiente forma. Se considera n score de disco zi(g) para i = 1,...,ng y g = 1,...,G. Se asume que scores del grupo 1 se espera que sean sucesivamente. Si los losnG grupos no tienen sobrelapamiento en sus sco 1 menores que los n2 scores del grupo 2, el cual se espera que sean más de clasificación está dada por 3ely punto de corte de La losregla grupos g y ( g + 1) pequeños que los n3 scores del grupo así sucesivamente. sugerida es el punto de corte para dos primeros grupos, 1 y 2, la (maxlos i =1,..., n g Z i ( g ) + min i =1,... n g +1 Z i ( g + 1)) cual es igual al percentil muestral 100(n1/n) de los n scores, el punto , 2 de corte del segundo y tercer grupo es igual al percentil muestral 100(n1 + n2/n) de los n scores, y así sucesivamente. Si los G grupos el cual la tasa de error aparente de mala G gruposque sucesivamente. Si sobrelapamiento losasegura no en tienen en clasificación sus scores, la reglaclasificac no tienen sus sobrelapamiento scores, la regla de estáobservaciones dada por el punto corte loscero. grupos g y (g + sea de clasificación está dada pormuestrales el de punto dede corte de los grupos y (como: g 1) g + 1) como: (max i =1,..., ng Z i ( g ) + min i =1,...ng +1 Z i ( g + 1))

2.2. Regresión logística

2

,

La asegura técnica detasa regresión logística multinomial, MLR, consiste cual que la tasa error aparente de mala mala clasificación el cual elasegura que la de de error aparente de clasificación de en las la estim de las observaciones muestrales sea cero. probabilidad observaciones muestrales de seaque cero.una observación x pertenezca a cada uno de los gr 2.2 Regresión los valores logística de las p variables que conforman la observación.

2.2. Regresión logística La técnica regresión G logística multinomial, MLR, − 1 categorías contra unaconsiste categoría de refere El modelodecompara La técnica logística multinomial, MLR, consiste en la estimación en de la regresión estimación de la probabilidad de que una observación x de la n observaciones es unlosvector plasvariables i , xlos i ) xdonde pertenezca cada uno( yde grupos,xidados valores degrupos, p dadosy yi es probabilidad de que a una observación pertenezca a cada uno decon los variables que conforman la observación. los valores de las p variables que conforman la observación. aleatoria independiente multinomial con valores 1,2,..., G , la cual indica El modelo compara G – 1 categorías contra una categoría de G −n1 categorías contra referencia El modelo compara referencia dadas observaciones (yi, xuna ), donde xi es unde vector con p dadas cual pertenece cada observación. Lacategoría probabilidad condicional de pertene i variables y y es una variable aleatoria independiente multinomial n observaciones ( y i , xii ) donde xi es un vector con p variables y yi es una variable grupo estála dada concada valores 1,2,...,G, cualpor: indica el grupo al cual pertenece cada aleatoriaobservación. independiente multinomial con valores 1,2,..., , la cual indica La probabilidad condicional deGpertenencia de xel agrupo al i cada grupo dada por: cual pertenece cada está observación. La probabilidad condicional de pertenencia de x a cada grupo está dada por:

P ( y = j xi ) = e

α1 j +β1' j xi

e

G

1+ ¦e

α1 j +β1' k xi

k =2

P ( y = j xi ) = G α +β ' x Donde 1 + ¦αe11 1 =j 01k yi β11 = 0 . k =2

Donde α11 = 0 y β11 = 0 .

i

α1 j +β1' j xi

Revista Tecnológicas

La regla de clasificación consiste en que a cada nueva observación con


Revista Tecnológicas

Donde 11 = 0 y b11 = 0. La regla de clasificación consiste en que a cada nueva observación con p variables se le calcula la probabilidad de que esta observación pertenezca a cada uno de los G grupos y luego se asigna al grupo que presentó la mayor probabilidad. La ventaja de MLR es que no requiere supuestos distribucionales y por lo tanto se puede aplicar a distribuciones multivariadas con variables cuantitativas o cualitativas.

2.3 Datos de entrenamiento El estudio de simulación fue llevado a cabo para comparar el poder de separación y localización del análisis discriminante no métrico y la regresión logística multinomial para el caso de más de dos grupos, en este caso de 3,5 y 7 grupos, ya que en estudios anteriores no se ha considerado la influencia de este factor en el comportamiento de los dos procedimientos. La comparación tuvo dos objetivos: a) comparar la bondad de separación por medio de la tasa de clasificación errónea para los datos dados a través de datos de entrenamiento, b) comparar la bondad de clasificación de nuevas observaciones tomadas aleatoriamente de distribuciones conocidas donde las reglas de clasificación son estimadas por medio de datos de entrenamiento. La bondad de clasificación fue medida por medio de la tasa de clasificación errónea para nuevos datos. El análisis discriminante no métrico fue llevado a cabo por medio de una herramienta computacional como los algoritmos genéticos y la regresión logística mediante una función existente en el software estadístico R (2007). El estudio de simulación fue llevado a cabo utilizando cuatro distribuciones: multinormal con matrices de varianza y covarianza iguales y diferentes, Lognormal, Sinh-1 normal y Logit normal, para estas distribuciones se tomaron dos muestras de entrenamiento de tamaños 50, 100 y 200, cada una de 3, 5 y 7 variables para el caso de clasificación de 3,5 y 7 grupos.

[19]


[20]

Análisis discriminante no métrico y regresión logística en el problema de clasificación

Los datos de entrenamiento fueron obtenidos aleatoriamente por medio del software estadístico R a través de funciones como la mvrnorm de la librería MASS, Main Package of Venables and Ripley’s MASS, y otras creadas a partir de algoritmos que generan distribuciones de probabilidad multivariada como las anteriormente indicadas. Para la generación de una distribución multinormal con varianza de 1 y correlación entre variables de 0.5, con vector de medias  = (0,0,0), con tamaño muestral de 100 y para el caso de 3 variables, se utilizó la función de R: mvrnorm, la cual tiene como argumentos el tamaño de la muestra, el vector de medias y la matriz de varianzas-covarianzas. Para evaluar el desempeño de los dos procedimientos se calculó la tasa de error o probabilidad de clasificación errónea, la cual está dada por TCE = NCE/NOBS, donde NCE corresponde al número de clasificaciones erradas por la técnica de validación y NOBS corresponde al número de observaciones en el conjunto de validación. El procedimiento de comparación fue llevado a cabo en cinco pasos: 1. Los datos de entrenamiento fueron seleccionados aleatoriamente de tres, cinco y siete distribuciones, Grupo 1, 2 y 3. Los grupos difirieron en sus parámetros de localización y de dispersión y tamaño de la muestra. 2. El algoritmo de NDA fue aplicado en tres datos de entrenamiento multivariados (p=3, p=5 o p=7) para encontrar la tasa de clasificación errónea. 3. Para el mismo conjunto de datos del paso 2 se aplicó la función de MLR y se encontró el número de clasificaciones erróneas. 4. Nuevos datos fueron generados aleatoriamente de la misma distribución que fue usada en el paso 1. Cada observación multivariada fue clasificada de acuerdo con el punto de corte hallado en el paso 2, para el análisis discriminante no métrico, y en el paso 3 para la regresión logística multinomial,

Revista Tecnológicas


[21]

Revista Tecnológicas

respectivamente. Finalmente se encontró la tasa de clasificación errónea. 5. Los cuatro pasos anteriores se repitieron 1.000 veces y se encontró la tasa promedio de clasificación errónea para el NDA y la MRL.

3. Resultados En la tabla 1 se muestran los resultados para el caso en el que las poblaciones provienen de distribuciones normales con matrices de varianza covarianza iguales para cada uno de los grupos, con varianza de 1 y correlación entre variables de 0.5 y con tamaños muestrales de 100. Los valores de 1 = 0, 2 = 0.5, 3 = 1 indican vectores, 1 = (0,0,0), 2 = (0.5,0.5,0.5), 3 = (1,1,1), y los valores de 1 = 0, 2 = 1, 3 = 2 indican vectores, 1 = (0,0,0), 2 = (1,1,1), 3 = (2,2,2), para el caso de 3 variables. Tabla 1. Tasa promedio de clasificación errónea para distribuciones normales multivariadas con tamaños muestrales de 100

Parámetros de localización 1 = 0, 2 = 0.5, 3 = 1 Número de grupos 3

5

7

Número de variables

1 = 0, 2 = 1, 3 = 2

NDA

MLR

NDA

MLR

3 5

0,5116 0,5033

0,5150 0,5115

0,3703 0,3553

0,3672 0,3560

7

0,4974

0,5107

0,3499

0,3537

3

0,6256

0,6128

0,4420

0,4304

5

0,6244

0,6164

0,4000

0,3960

7

0,6308

0,6168

0,4016

0,3844

3

0,6740

0,6597

0,4805

0,4680

5 7

0,6971 0,6548

0,6497 0,6391

0,4722 0,4605

0,4571 0,4040


[22]

Análisis discriminante no métrico y regresión logística en el problema de clasificación

Estos resultados permiten ver que en general para los parámetros planteados la regresión logística muestra mejor desempeño en el sentido de que presenta menores tasas de clasificación errónea de las observaciones. Aunque bajo el supuesto de distribuciones normales con matrices de varianza covarianza iguales las tasas de clasificación errónea son similares. En la tabla 2 se muestran los resultados para el caso en el que se quiere clasificar 5 grupos que provienen de distribuciones normales con matrices de varianza covarianza iguales, con varianza de 1 y correlación entre variables de 0.5 y con diferentes tamaños muestrales. Los valores de 1 = 0, 2 = 0.5, 3 = 1 indican vectores, 1 = (0,0,0), 2 = (0.5,0.5,0.5), 3 = (1,1,1), y los valores de 1 = 0, 2 = 1, 3 = 2 indican vectores, 1 = (0,0,0), 2 = (1,1,1), 3 = (2,2,2) para el caso de 3 variables. Tabla 2. Tasa promedio de clasificación errónea para clasificar 5 grupos con distribuciones normales multivariadas

Parámetros de localización 1 = 0, 2 = 0.5, 3 = 1 Tamaño muestral 50

100

200

Número de variables 3 5 7 3 5 7 3 5 7

NDA

0,6000 0,6048 0,6344 0,6256 0,6244 0,6308 0,6114 0,6414 0,6312

1 = 0, 2 = 1, 3 = 2

MLR

NDA

MLR

0,608 0,6096 0,6216 0,6128 0,6164 0,6168 0,6094 0,5970 0,6174

0,4392 0,4256 0,3960 0,4420 0,4000 0,4016 0,4488 0,4108 0,4456

0,4400 0,4008 0,3744 0,4304 0,396 0,3844 0,4392 0,4022 0,4064

Los resultados de la tabla 2 muestran un mejor comportamiento de la regresión logística multinomial para los tres tamaños muestrales presentados.

Revista Tecnológicas


[23]

Revista Tecnológicas

En la tabla 3 se muestran los resultados para el caso en el que se desea clasificar 3 grupos de tamaño 100 cada uno que provienen de distribuciones normales con matrices de varianza covarianza diferentes para cada uno de los grupos, la matriz de varianzas y covarianzas para el primer grupo está definida por una varianza de 1 y correlación entre variables de 0.5 y las demás matrices son combinaciones lineales de la primera matriz. Los valores de 1 = 0, 2 = 0.5, 3 = 1 indican vectores, 1 = (0,0,0), 2 = (0.5,0.5,0.5), 3 = (1,1,1), y los valores de 1 = 0, 2 = 1, 3 = 2 indican vectores, 1 = (0,0,0), 2 = (1,1,1), 3 = (2,2,2) para el caso de 3 variables. Tabla 3. Tasa promedio de clasificación errónea para clasificar 3 grupos de tamaño 100 con distribuciones normales multivariadas con matrices de varianza covarianza diferentes

Parámetros de localización 1 = 0, 2 = 0.5, 3 = 1 1 = 0, 2 = 1, 3 = 2 Matrices de

Número

varianza

de

covarianza

variables

∑ 2 = 2 ∑1 , ∑ 3 = 3 ∑

∑ 2 = 2 ∑1 , ∑ 3 = 4 ∑1

∑ 2 = 2 ∑1 , ∑ 3 = 5 ∑1

NDA

MLR

NDA

MLR

3

0.5763

0.5547

0.4675

0.4418

5

0.5566

0.5683

0.4383

0.4466

7

0.5766

0.5433

0.4600

0.4250

3

0.5875

0.5603

0.4787

0.4446

5

0.6183

0.5266

0.4866

0.4150

7

0.5600

0.5283

0.4516

0.4316

3

0.5970

0.5632

0.5128

0.4509

5

0.5733

0.5883

0.4716

0.4533

7

0.5750

0.5500

0.4533

0.4466

Para este caso en el que se consideran observaciones que provienen de distribuciones normales con matrices de varianza covarianza diferentes la regresión logística multinomial presenta mejor desempeño que el análisis discriminante no métrico.


[24]

Análisis discriminante no métrico y regresión logística en el problema de clasificación

En la tabla 4 se muestran los resultados para el caso en el que se desea clasificar 3 grupos con 2 variables que provienen de distribuciones Lognormal aplicando un sistema de transformación sugerido por Johnson (1987) a las componentes individuales de una distribución multivariada. Los tres grupos tuvieron la misma matriz de varianzas y covarianzas, se consideraron 1 = 2 = 1 con diferentes valores de correlación  = 0.1,0.5,0.9. Tabla 4. Tasa promedio de clasificación errónea para distribuciones lognormal Parámetros de localización 1 = 0, 2 = 0.5, 3 = 1 Tamaño muestral

NDA

MLR

50

0,4680

0,4733

0,5180 0,4916 100

200

1 = 0, 2 = 1, 3 = 2 NDA

1 = 0, 2 = 2, 3 = 4

MLR

NDA

MLR

0,3293

0,3620

0,1446

0,1453

0,5166

0,3773

0,4026

0,1906

0,1886

0,5150

0,3566

0,3716

0,1566

0,1433

0,5083

0,5300

0,3750

0,3966

0,1766

0,1616

0,5283

0,5450

0,4050

0,4150

0,2150

0,2083

0,4825

0,5008

0,3458

0,3658

0,1466

0,1241

0,5050

0,5200

0,3866

0,3741

0,1433

0,1325

0,5225

0,5416

0,4125

0,4025

0,2066

0,2275

0,5325

0,5608

0,4091

0,4108

0,2200

0,2008

Estos resultados permiten ver que para los vectores de medias 1 = 0, 2 = 0.5, 3 = 1, el análisis discriminante no métrico obtuvo un mejor desempeño, aunque en los demás vectores de medias el comportamiento de los dos procedimientos fue similar. En la tabla 5 se muestran los resultados para el caso en el que se desea clasificar 3 grupos con 2 variables que provienen de distribuciones Sinh–1 – normal, aplicando un sistema de transformación sugerido por Johnson (1987) a las componentes individuales de una distribución multivariada. Los tres grupos tuvieron la misma matriz de varianzas y covarianzas, se consideraron 1 = 2 = 1 con diferentes valores de correlación  = 0.1,0.5,0.9.

Revista Tecnológicas


[25]

Revista Tecnológicas

Tabla 5. Tasa promedio de clasificación errónea para distribuciones

Sinh–1 – normal

Parámetros de localización 1 = 0, 2 = 0.5, 3 = 1 Tamaño muestral 50

100

200

NDA

1 = 0, 2 = 1, 3 = 2

1 = 0, 2 = 2, 3 = 4

MLR

NDA

MLR

NDA

MLR

0,6026

0,5586

0,4793

0,3926

0,2306

0,1986

0,6180

0,5333

0,5140

0,4133

0,2640

0,1840

0,6153

0,5653

0,4860

0,4653

0,2593

0,2313

0,6353

0,5113

0,5266

0,3980

0,2360

0,1833

0,6000

0,5373

0,5393

0,4420

0,3173

0,2113

0,6440

0,5553

0,5633

0,4700

0,3040

0,2153

0,6290

0,5113

0,5460

0,3600

0,2870

0,1490

0,6406

0,5333

0,5746

0,3736

0,2870

0,1736

0,6333

0,5470

0,5903

0,4106

0,2933

0,2350

Los resultados de esta simulación permiten ver que la regresión logística multinomial tiene mejor desempeño que el análisis discriminante no métrico, además se observa que la tasa de clasificación errónea tiende a disminuir a medida que existe mayor distancia entre los vectores de medias de los grupos ya definidos. En la tabla 6 se muestran los resultados para el caso en el que se desea clasificar 3 grupos con 2 variables que provienen de distribuciones Logit normal aplicando un sistema de transformación sugerido por Johnson (1987) a las componentes individuales de una distribución multivariada. Los tres grupos tuvieron la misma matriz de varianzas y covarianzas, se consideraron 1 = 2 = 1 con diferentes valores de correlación  = 0.1,0.5,0.9.


[26]

Análisis discriminante no métrico y regresión logística en el problema de clasificación

Tabla 6. Tasa promedio de clasificación errónea para distribuciones logit normal Parámetros de localización 1 = 0, 2 = 0.5, 3 = 1 Tamaño muestral 50

100

200

1 = 0, 2 = 1, 3 = 2

1 = 0, 2 = 2, 3 = 4

NDA

MLR

NDA

MLR

NDA

MLR

0,5980

0,6666

0,5833

0,6846

0,5860

0,6586

0,6006

0,6546

0,5780

0,6733

0,5753

0,6326

0,6100

0,6553

0,5760

0,6613

0,5606

0,6346

0,6096

0,6770

0,5950

0,6673

0,5793

0,6773

0,6233

0,6816

0,5800

0,6233

0,5700

0,6333

0,6266

0,6366

0,5883

0,6183

0,6000

0,7116

0,6083

0,6708

0,5950

0,6441

0,5783

0,6925

0,6116

0,6625

0,5950

0,6283

0,5950

0,6975

0,6166

0,6391

0,6066

0,6566

0,5850

0,6950

Estos resultados permiten ver que el análisis discriminante no métrico tiene mejor desempeño que la regresión logística multinomial para el caso en que las observaciones provienen de una distribución Logit normal con los parámetros ya mencionados.

4. Aplicación La aplicación consiste en los factores de riesgo asociados con bajo peso de bebés recién nacidos. Esta base de datos contiene información de 59 bebés que contiene las siguientes variables: • • • • • • •

Edad de la madre Peso de la madre en el último periodo menstrual Estado de fumar durante el embarazo Historia de hipertensión Presencia de irritabilidad uterina Número de controles durante el embarazo Peso del bebé: menos de 2.500 g, menos de 1.500 g y menos de 1.000 g

Revista Tecnológicas


[27]

Revista Tecnológicas

A partir de estas variables se clasificó los bebés de acuerdo con el peso en el nacimiento, como: peso bajo, peso muy bajo y peso extremadamente bajo. Cada uno de estos grupos tiene 8,13 y 38 bebés. Se encontró que disco = 0.9415. La tabla 7 muestra el número de clasificaciones correctas e incorrectas de los bebés por análisis discriminante no métrico y regresión logística. Tabla 7. Número de clasificaciones erróneas de los bebés por NDA y MLR, en paréntesis

Grupo en el cual se clasificó

Grupo actual 1

2

3

1

5 (7)

2 (2)

4 (5)

2

3 (1)

9 (10)

10 (5)

2 (1)

24 (28)

3

5. Conclusiones 1. En general, la regresión logística multinomial presenta un mejor desempeño que el análisis discriminante no métrico comparando numéricamente las tasas de clasificación errónea. 2. Los vectores de medias son un factor importante en el valor de las tasas de clasificación errónea e igualmente la correlación entre las variables de las muestras generadas, ya que entre más correlación exista entre las variables la tasa de clasificación errónea puede incrementarse y si los valores de los vectores de medias son muy cercanos pueden conducir a obtener tasas de clasificación grandes. 3. Los tamaños muestrales son un factor importante en la comparación aunque los comportamientos de los dos procedimientos son similares. 4. En algunos casos las tasas promedio de clasificación errónea son bastante altas para los dos procedimientos lo cual genera inconformidad para la utilización de alguna de ellas. Se podría


[28]

Análisis discriminante no métrico y regresión logística en el problema de clasificación

plantear otra regla de clasificación diferente a la que se propone en el procedimiento de análisis discriminante no métrico. 5. Para distribuciones diferentes a la distribución normal, especialmente aquellas que no tienen relación con la distribución normal permite mostrar la ventaja de la regresión logística sobre el análisis discriminante no métrico. 6. En aquellos casos donde la tasa de clasificación errónea para los dos procedimientos es similar el análisis discriminante no métrico tiene ventaja con respecto a la regresión logística en el sentido de la interpretación de los resultados, ya que el procedimiento no métrico se interpreta en términos lineales y la regresión logística no.

Referencias

bibliográficas

Castrillón, Francisco (1998). “Comparación de la discriminación normal lineal y Cuadrática con la regresión logística para clasificar vectores en dos poblaciones”. Medellín. Tesis Magíster en Estadística. Facultad de Ciencias. Universidad Nacional de Colombia, Sede Medellín. Efron, Bradley (1975). “The Efficiency of Logistic Regression Compared to Normal Discriminant Analysis”. En Journal of the American Statistical Association, Nro. 70, pp. 892-898. Fan, X. y Wang, L. (1999), “Comparing Linear Discriminant Function with Logistic Regression for the Two-Group Classification Problem”, En Journal of Experimental Education, Vol. 67, Nro. 3, 265-286. Guttman, L, (1998), “Eta, disco, odisco and F”, En Psychometrika, Nro, 53, Pp, 393-405. Harrell, F.E., y Lee, K.L. (1985). A comparison of the discrimination of discriminant analysis and logistic regression under multivariate normality. En P.K. Sen (Ed.): Biostatistics in biomedical: Public Health and Envirommental Sciences. pp. 333-343. North-Holland: Elsevier Science Publishers. Johnson, M. (1989). Multivariate statistical simulation. United States: Jhon Wiley & Sons. 230 p. Lei, P. y Koehly, L. (2003). “Linear Discriminant Analysis Versus Logistic Regression: A Comparison of Classification Errors in the Two-Group

Revista Tecnológicas


Revista Tecnológicas Case”. En The Journal of Experimental Education, Vol. 72, Nro 1, pp. 25-49. Pohar, M., Blas, M., y Turk, S. (2004), “Comparison of Logisitic Regression and Linear Discriminant Analysis: A Simulation Study”. En Metodoloski zvezki, Vol. 1, Nro. 1, pp, 143-161. Raveh, A, (1983), “Preference structure analysis: A nonmetric approach” ,en Patter Recognition, Nro. 16, Pp. 253-259. Raveh, A, (1989), “A Nonmetric Approach to Linear Discriminant Analysis”, En Journal of the American Statistical Association, Nro. 84, pp, 176183. R Development Core Team (2007). R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. ISBN 3-900051-07-0, URL http://www.R-project.org. Richard’s, et.al. (2008), “Técnicas estadísticas de clasificación: un estudio comparativo y aplicado”. En Psicothema. Vol. 20, Nro. 4. pp. 863-871. Úsuga, O, (2006). ‘Comparación entre análisis discriminante no métrico y regresión logística’. Tesis de grado. Universidad Nacional de Colombia, Sede Medellín.

[29]


Metodología

para evaluar el difeomorfismo de

un atractor caótico usando el filtro de kalman en señales fisiológicas Carolina Ospina Aguirre1 Luis David Avendaño Valencia2 Edilson Delgado Trejos3 Germán Castellanos Domínguez4

Resumen Para la caracterización de señales fisiológicas, las cuales contienen estructuras fuertemente no lineales, es común usar procedimientos derivados de técnicas fractales que hacen parte del análisis de complejidad. En este trabajo se propone una función de evaluación basada en el filtro de Kalman para predecir puntos de un atractor reconstruido en el espacio de estados y medir la capacidad de esos puntos para reconstruir la señal en el tiempo, y así, evaluar la calidad de ese atractor a partir de una señal unidimensional. Se propone el uso de medidas estadísticas como Kullback–Leibler, Kolmogorov–Smirnov y Hellinger para determinar la diferencia entre la estructura estadística embebida en los Ingeniera Electrónica. Estudiante de maestría en Ingeniería con énfasis en Automatización Industrial. Universidad Nacional de Colombia Sede Manizales. Email: cospinaa@unal.edu.co 2 Ingeniero Electrónico. Estudiante de maestría en Ingeniería con énfasis en Automatización Industrial. Universidad Nacional de Colombia Sede Manizales. Email: ldavendanov@unal.edu.co 3 Ingeniero Electrónico. M. Sc. en Automatización Industrial. Ph. D. en ingeniería LI Automática. Académico Investigador del Centro de Investigación, INSTITUTO TECNOLÓGICO METROPOLITANO. Email: edilsondelgado@itm.edu.co 4 Ingeniero en Telecomunicaciones. Ph. D. En Ingeniería. Profesor asociado al Departamento de Ingeniería Eléctrica, Electrónica y Computación de la Universidad Nacional de Colombia Sede Manizales. Email: cgcastellanosd@unal.edu.co 1

Fecha de recepción: 7 de noviembre de 2008 Fecha de aceptación: 16 de enero de 2009

Revista Tecnológicas No. 21, diciembre de 2008


[32]

puntos que fueron resultado de la predicción usando el atractor reconstruido y los puntos correspondientes de la señal original. Los resultados fueron obtenidos sobre la reconstrucción de atractores provenientes de señales ECG usando la base de datos del MIT-BIH y señales EEG obtenidas en la Clínica para Epilepsia de la Universidad de Bonn. Así, fue posible evaluar la capacidad de predicción correspondiente a los atractores reconstruidos a partir de los registros, con lo que se puede concluir que un atractor con alta capacidad de predicción en el tiempo implica buenas propiedades de embebimiento en el espacio de estados.

Palabras clave Embebimiento, dinámica no lineal, atractores y filtro de Kalman.

Abstract In order to characterize physiological signals, which may have highly nonlinear structures, it’s common to use methodologies derived from fractal techniques that make part of complexity analysis. This work proposes is proposed an evaluation function based on measuring the capacity of prediction of a neural network trained with Kalman filter to predict points in a reconstructed state space attractor, so measuring the quality of the attractor from a one-dimensional signal. We propose use of statistic measures such as Kullback –Leibler, Kolmogorov-Smirnov and Hellinger to determine difference between the embedded statistic structure in the predicted points and the original signal points. Results were obtained on attractor reconstruction from ECG signals of MIT-BIH database and EEG signals obtained from Clinic for Epileptologie Epileptologie Bonn University database. In this way, it was possible to evaluate the prediction capacity corresponding to reconstruct attractors from records, from which we concluded that an attractor with high capacity of time series prediction implies good embedding properties in state space.

Key words Embedding, dynamics nonlinear, attactors and filter of Kalman.

Revista Tecnológicas


Revista Tecnológicas

I. Introducción El análisis lineal atribuye el comportamiento irregular de un sistema a la naturaleza aleatoria de la señal de entrada, sin embargo, las entradas aleatorias no son las únicas fuentes posibles de irregularidad, ya que pueden atribuirse a estructuras no lineales impuestas en el modelo dinámico. Los métodos de dinámica no lineal que usualmente se utilizan para caracterizar señales fisiológicas basan su estudio en el atractor reconstruido en el espacio de estados a partir de la serie de tiempo que representa la dinámica del sistema biológico. La reconstrucción del espacio de estados se basa en el teorema de embebimiento (Casdagli et al., 1991), el cual establece que dadas las mediciones muestreadas de la señal proveniente de un sistema, se puede reconstruir un espacio de estados difeomórfico al espacio de estados original, aunque desconocido, compuesto por todas las variables dinámicas. En (Chen et al., 2006) se presenta un trabajo sobre registros magnetocardiográficos (MCG), donde se expone una metodología basada en la ley de embebimiento de Takens (Takens, 1981) y el método de reconstrucción de espacio de fase propuesto por Packard (Crutchfield et al., 1980), con el fin de obtener el atractor caótico correspondiente a la fuerza de inducción magnética cardíaca. En (Alasty et al., 2008) se presenta un algoritmo para sincronizar dos sistemas caóticos diferentes, usando una combinación entre el filtro extendido de Kalman y técnicas de control en modo deslizante. Los resultados de simulación muestran el buen comportamiento del algoritmo en la sincronización de sistemas caóticos en presencia de ambientes ruidosos. En (Hunt et al., 2007) se presenta un método iterativo llamado asimilación de datos para resolver el problema de estimar estados de un sistema dinámico usando tanto las observaciones presentes como las pasadas del sistema, junto a un modelo de evolución en el tiempo. Se usa el modelo para predecir el estado actual, usando estimaciones a priori de los estados como la condición inicial (lo cual incorpora información de datos pasados), de forma que se usan datos actuales para corregir la predicción

[33]


[34]

Metodología para evaluar el difeomorfismo de un atractor caótico...

anterior de la estimación del estado actual. Los algoritmos genéticos (GA) han sido ampliamente usados para el ajuste de parámetros tomando en cuenta una función de costo adecuada, por ejemplo, en (Babovic et al., 2001), un método basado en algoritmos evolutivos fue desarrollado para encontrar los parámetros de embebimiento óptimos y aplicar la predicción de series de tiempo caóticas como función de costo para construir el modelo no lineal de la base de datos como se propone en (Babovic & Sannasiraj, 2002). En este estudio, se propone el uso del filtro de Kalman para predecir puntos en el atractor reconstruido, de forma que se construye una función de evaluación que cuantifica la capacidad de predicción de un atractor con el fin de valorar el ajuste de los parámetros de embebimiento. La comparación entre el atractor original y el predicho se realiza mediante medidas estadísticas. Así, se propone una metodología que facilitará la reconstrucción de atractores difeomórficos a los que se reconstruirían si se tuviera el modelo matemático de los sistemas fisiológicos subyacentes, a partir de series de tiempo unidimensionales.

II. Materiales

y métodos

A. Bases de datos

1) Señales electrocardiográficas: La base de datos MIT-BIH contiene 50 registros ECG de 2 canales, los cuales fueron digitalizados a 360 muestras por segundo, 11 bits de resolución y rango de 10 mV. La población muestral corresponde a 25 hombres entre 32 y 89 años y 25 mujeres con edades entre 23 y 89 años. En muchos registros, la señal superior (primer canal) es una modificación de la rama delantera II (MLII). La señal baja (segundo canal) es usualmente una modificación delantera de V 1 (ocasionalmente V 2 ó V 5) (Mark & Moody, 1991).

2) Señales electroencefalográficas: Los datos utilizados para las pruebas fueron recolectados por La Clínica para Epilepsia de la Universidad de Bonn (Andrzejak et al., 2001). La base de

Revista Tecnológicas


[35]

Revista Tecnológicas

datos consta de cinco conjuntos (denotados A-E) compuestos por 100 segmentos de EEG de un canal. Los conjuntos A y B consisten de segmentos tomados de registros EEG superficiales (cuero cabelludo) en cinco personas saludables usando el esquema estándar de localización de electrodos 10-20. Los voluntarios se encontraban relajados en estado de vigilia con los ojos abiertos (A) y los ojos cerrados (B), respectivamente. Los conjuntos C, D y E se originan de registros EEG de diagnóstico prequirúrgico. Los segmentos en el conjunto D fueron registrados dentro de la zona epileptopatogénica, y los del conjunto C, de la formación hipocampal del hemisferio opuesto del cerebro. Mientras que los conjuntos C y D contienen solamente actividad medida durante los intervalos inter ictales, el conjunto E contiene solamente actividad ictal. Todas las señales EEG fueron registradas con un sistema de adquisición de 128 canales, utilizando una referencia común promediada. Los datos fueron digitalizados a 173.61 Hz con una resolución de 12 bits.

B. Embebimiento y difeomorfismo A partir de una serie de tiempo yk, es posible reconstruir n n puntos de un atractor X = {xk }k=1 , con la expresión: Xk = [yk yk+τ ... yk+(m–1) τ]

(1)

donde m es la dimensión de embebimiento y τ el tiempo de retardo. La reconstrucción del atractor mediante (1) permite conocer las propiedades dinámicas del sistema que ha dado origen a la serie de tiempo yk. Luego, bajo condiciones generales, el espacio de vectores xk generado por la dinámica contiene toda la información de la señal unidimensional yk. El mapeo entre yk y xk es suave e invertible. Esta propiedad indica su difeomorfismo y el mapeo su embebimiento. El teorema de embebimiento establece que con la serie de datos unidimensional de un sistema dinámico es posible reconstruir un


[36]

Metodología para evaluar el difeomorfismo de un atractor caótico...

espacio de estados difeomórfico al que se construiría si se tuvieran todas las variables dinámicas. Así, difeomorfismo significa que las propiedades cualitativas del atractor generado son iguales a las del original (Grassberger & Procaccia, 1983).

C. Filtro de Kalman La evolución del atractor X se define a través de un mapeo xk–1 = f(xk) que es desconocido. Con el fin de conocer el comportamiento futuro del atractor, es necesario conocer el mapeo f(.) junto con los parámetros del atractor m y τ . Suponiendo que se tienen las cantidades m y τ, la función f(.) puede ser reemplazada por un valor estimado fˆ (x,w ) dependiente del vector de parámetros w. El filtro extendido de Kalman (EFK) ha sido frecuentemente usado como una técnica para desarrollar estimaciones recursivas, ya que este algoritmo sólo provee una aproximación de la estimación no lineal óptima. En Haykin (2001), se presenta un filtro alternativo con un rendimiento superior al del EKF conocido como filtro de Kalman unscented (UKF). La estimación de los parámetros con el UKF consiste en realizar el aprendizaje de un mapeo no lineal fˆ (x,wˆ ) , donde w corresponde al conjunto de parámetros desconocidos. El UKF puede ser utilizado para estimar los parámetros al llevar este problema dentro de la siguiente representación en espacio de estados Haykin (2001). Wk+1 = Wk + k ; yk = f(xk, Wk) vk

(2)

Donde, Wk corresponde a un proceso estacionario con matriz de transición de estados identidad, alimentado por un ruido de proceso □N(O,R). La salida deseada y yk corresponde a una observación no . lineal de Wk considerando un ruido de medición vk.

D. Distancias estadísticas 1) Distancia de Kolmogorov-Smirnov (DKS): Con esta distancia se busca la mayor desviación entre la función de distribución de la señal de prueba yp y la señal estimada ŷ. Aunque también indica

Revista Tecnológicas


[37]

Revista Tecnológicas

el grado de concordancia entre la distribución de probabilidad de la señal original y la distribución de la estimada. Esta medida está dada por:

Dks = max[|(Fy(y) – Fx(x))|]

(3)

Donde Fx(x) y Fy(y) son las funciones de distribución de yp y de ŷ, respectivamente.

2) Divergencia de Kullback–Leibler (DKL): Valora la diferencia entre dos distribuciones de probabilidad: desde una distribución de probabilidad verdadera P hasta una distribución de probabilidad arbitraria Q. En este caso P es la distribución de probabilidad de la señal yp denotada como P(x) y Q es la distribución de probabilidad de la señal ŷ denotada como Q(x) y la divergencia puede ser expresada como: DKL = ∫ P ( x )ln

P( x ) dx Q( x )

(4)

3) Distancia de Hellinger (DH): A diferencia de las demás, esta distancia es considerada matemáticamente como una métrica y está dada por: 2

DH = ∫  f X ( x ) − fY ( y )  dx

(5)

E. Procedimiento Para la realización de las pruebas se tomó un conjunto de entrenamiento compuesto por 50 registros ECG y 50 registros EEG, de los cuales fueron considerados los primeros 1200 puntos de cada señal, y se notan como y (t ) . La función f(.) está dada por un perceptrón multicapa recurrente (RMPL) con configuración m – 8R – 7R – 1 siendo m (la dimensión de embebimiento) el número de capas de entrada, 8R y 7R las capas ocultas y una capa de salida con funciones de activación sigmoidales. El entrenamiento se realiza en 10 épocas. El procedimiento propuesto para la


[38]

Metodología para evaluar el difeomorfismo de un atractor caótico...

estimación de los parámetros m y τ consiste en la estimación de la función fˆ (x,w ) para un m y τ dados y evaluación de la capacidad de predicción de esta función. Este procedimiento se realiza para diferentes valores de m y τ, hasta encontrar un valor para el cual se maximice la capacidad de predicción de f(.) sobre el atractor. El procedimiento se describe a continuación: 1) Inicialización: La serie de tiempo {y k }k =1 se separa en un N conjunto de entrenamiento y e = {y k }k =1 y un conjunto de prueba N

e

y p = {y k }k =N N

e

2) Selección de parámetros: Se seleccionan los parámetros m y τ. 3) Estimación: Mediante el UKF se estiman los parámetros wˆ del mapeo fˆ (x,w ) sobre el atractor reconstruido usando (1) a partir del conjunto de entrenamiento ye. 4) Predicción: A partir del mapeo estimado fˆ (x,w ) se predicen los valores futuros yˆ de y en el intervalo [Ne ,N]. 5) Evaluación de desempeño: Se mide la símilaridad entre la señal de prueba yp y la estimada ŷ mediante las medidas de Kolmogorov-Smirnov, Kullback-Leiber y Hellinger (Hurtado & Barbat, 1999).

III. Resultados

y discusión

Inicialmente, se presentan los resultados de la metodología propuesta aplicada a una señal conocida (i.e., señal de Lorenz) para verificar la capacidad de predicción del atractor reconstruido. Las pruebas mostraron que una mala elección de los parámetros de embebimiento genera grandes diferencias entre la señal predicha ŷ y la señal de Lorenz yp. Para la señal de Lorenz se encontró que la pareja (m, τ) adecuada es (3, 2). En las siguientes figuras se muestra en rojo la señal de prueba yp y en azul la señal predicha ŷ y se observa en la figura 1 que con un valor de τ erróneo la señal predicha ŷ es altamente afectada. Cuando el número de épocas es muy pequeño los resultados no son buenos como se aprecia en la

Revista Tecnológicas


[39]

Revista Tecnológicas

figura 2, ya que experimentalmente se encontró que el transitorio que tienen las señales empieza a desaparecer después de 5 épocas. Se requirieron 10 épocas para la convergencia del algoritmo. 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8

1200

1400

1600

1800

2000

Figura 1. Señal predicha para m = 3, τ = 5, épocas = 10 0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 1000 1100 1200 1300 1400 1500 1600 1700 1800 1900 2000

Figura 2. Señal predicha para m = 3, τ = 2, épocas = 2


[40]

Metodología para evaluar el difeomorfismo de un atractor caótico...

0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 1100 1200 1300 1400 1500 1600 1700 1800 1900 2000

Figura 3. Señal predicha para m = 3, τ = 2, épocas = 10

Partiendo de que se conoce que la pareja (m, τ) adecuada para una señal de Lorenz es (3, 2), se buscó en los datos obtenidos al calcular las diferentes distancias estadísticas para la señal de Lorenz, información que permitiera obtener un criterio para determinar dicha pareja. En la figura 4 se muestran los valores de la media de cada una de las distancias calculadas cuando varía el parámetro m y τ se mantiene constante. En la figura 5 se muestran los valores de las distancias asociadas a cada valor de m con τ fijo (τ = 2). Después de realizar una comparación entre la información proveniente de las tres medidas estadísticas (figuras 4 y 5) se pueden resaltar los siguientes aspectos: • La media de las 3 medidas estadísticas y del MSE presentan su primer máximo en el mismo valor 2 • El valor máximo de las distancias KL y KS se presentan en 3. • El primer pico del MSE se presenta en 3 • El valor mínimo de la distancia H se presenta en 3

Revista Tecnológicas


[41]

Revista Tecnológicas

Los resultados experimentales obtenidos en este trabajo, sugieren los siguientes criterios para determinar los parámetros de embebimiento adecuados para reconstruir un atractor difeomórfico al original: • El valor de τ adecuado es el que la media de las 3 distancias estadísticas y el MSE presentan su valor más alto. • El valor de m apropiado es el que para el τ encontrado como correcto las distancias KL y KS tienen sus valores máximos, la distancia H tiene su valor mínimo y el MSE su primer valor máximo. Media DH

Media DKL

0.4

0.12

0.3

0.1

0.2

0.08

0.1

0.06

0 0

2

4

6

8

10

Media DKS

8

0.04 0

2

4

6

8

10

8

10

Media MSE

0.025 0.02

6

0.015 4

0.01

2 0 0

0.005 2

4

6

8

10

0

0

2

4

6

Figura 4. Media de las distancias calculadas para cada valor de τ de lorenz

en la señal


dología para evaluar el difeomorfismo de un atractor caótico usando el filtro de Kal Metodología para evaluar el difeomorfismo de un atractor caótico... [42] ñales fisiológicas H

0.4

KL

0.25 0.2

0.3

0.15 0.2 0.1 0.1 0

0.05 0

2

4

6

8

10

0

0

2

4

Ks

6

8

10

6

8

10

MSE

25

0.2

20

0.15

15 0.1 10 0.05

5 0

0

2

4

6

8

10

0

0

2

4

Figura 5. Valores de lasdedistancias para y los diferentes valores de m = 2diferentes Figura 5. V alores las distancias para τ = 2τy los valores de m en la señal de lorenz

señal de Lorenz

Considerando los criterios mencionados anteriormente se calcularon los parámetros de embebimiento correctos para atractor de una señal ECG y una EEG siderando losreconstruir criterios elmencionados anteriormente se, empleando calcularon los parám la señal de lorenz. En las figuras 6 y 7, se muestran los resultados una señal para EEG. reconstruir el atractor de una señal ECG mbebimientopara correctos

, empleando la señal de lorenz. En las Figuras 6 y 7, se muestran los resul

una señal EEG. Media DH EEG

Media KL EEG

1.6

0.45

1.4

0.4

1.2

0.35

1

0.3

0.8

0.25

0.6

0.2

0.4

0.15

0.2

0

2

4

6

8

10

0.1

Revista Tecnológicas 0

2

4

6

8

10

12


[43]

Revista Tecnológicas

Media DH EEG

Media KL EEG

1.6

0.45

1.4

0.4

1.2

0.35

1

0.3

0.8

0.25

0.6

0.2

0.4

0.15

0.2

0

2

4

6

8

10

0.1

0

2

4

Media Ks EEG

8

10

12

Media MSE EEG

0.1

0.06

0.09

0.05

0.08

0.04

0.07

0.03

0.06

0.02

0.05

0.01

0.04 0.03

6

0

2

4

6

8

10

0

12

0

2

4

6

8

10

Figura 6. Medias de las distancias calculadas para cada valor de τ en una señal eeg

DH

KL

5

1.5

4 1

3 2

0.5

1 0

0

2

4

6

8

10

KS

0.25

0

0.15

0.15

0.1

0.1

0.05

0

2

4

2

4

6

8

10

0

2

4

6

8

10

0.2

0.2

0.05

0

6

8

10

0


ogía para evaluar el difeomorfismo de un atractor caótico usando el filtro de Kalman Metodología para evaluar el difeomorfismo de un atractor caótico... [44] es fisiológicas DH

KL

5

1.5

4 1

3 2

0.5

1 0

0

2

4

6

8

0

10

KS

0.25

0.15

0.15

0.1

0.1

0.05

0

2

4

2

4

6

8

0

10

6

8

10

6

8

10

MSE

0.2

0.2

0.05

0

0

2

4

Figura 7. Valores de 7.las distancias para para diferentes valores de m para una τ =τ3= y3 ylos Figura Valores de las distancias los diferentes valores de m para una señal eeg

señal EEG

Figuras 6 y 7

De las figuras 6 y 7 se puede decir que τ = 3 y m = 2. En las figuras 8 y 9, se muestran los resultados para una señal se puede = 2 . obtenidos, se puede τ = 3en ylosmcriterios ECG . De las decir cuales,que con base decir que τ = 2 y m = 2.

Figuras 8 y 9, se muestran los resultados para una señal ECG. De las cuales

e a los criterios obtenidos se puede decir que τ = 2 y m = 2 Media DH

7

Media KL

3

6 2.5

5 4

2

3 2

0.12 0.11

0

2

4

6

Media KS

8

10

1.5

0.05 0.04

0.1 0.03

0

2

4

6

Media MSE

8

10

Revista Tecnológicas


[45]

Revista Tecnológicas

Media DH

7

Media KL

3

6 2.5

5 4

2

3 2

0

2

4

6

8

10

Media KS

0.12

1.5

0

2

6

8

10

8

10

Media MSE

0.05

0.11

4

0.04

0.1 0.03 0.09 0.02

0.08 0

2

4

6

8

10

0.01

0

2

4

6

Figura 8. Medias de las distancias calculadas para cada valor de τ en una señal ecg

DH

KL

6

2.2

5

2

4

1.8

3

1.6

2

1.4

1

0

2

4

6

8

10

0

KS

2

4

6 MSE

0.2

0.025

0.15

0.02

0.1

0.015

8

10


[46]

Metodología para evaluar el difeomorfismo de un atractor caótico...

DH

KL

6

2.2

5

2

4

1.8

3

1.6

2

1.4

1

0

2

4

6

8

10

0

2

4

KS 0.025

0.15

0.02

0.1

0.015

0.05

0.01

0

2

4

8

10

6

8

10

MSE

0.2

0

6

6

8

10

0.005

0

2

4

Figura 9. Valores de las distancias para τ = 2 y los diferentes valores de m para una señal ecg

Señal

m

EEG

2

ECG

2

Señal

τ

3 2

m τ

Tabla 1. Valores de (m, τ) encontrados con la metodología implementada, para las señales fisiológicas

EEG

2

3

ECG

2

2

Revista Tecnológicas


Revista Tecnológicas

IV. Conclusiones Se obtuvo un criterio para medir la calidad de predicción de un atractor basado en medidas estadísticas con el fin de evaluar el difeomorfismo de atractores obtenidos a partir de señales unidimensionales provenientes de sistemas dinámicos, de los cuales no se conoce ningún modelo matemático consistente, como es el caso de la mayoría de los sistemas fisiológicos. Así, con base en los resultados de este trabajo se puede afirmar que el buen ajuste de los parámetros de embebimiento asegura que el atractor reconstruido captura la información intrínseca del sistema dinámico. Los sistemas de representación basados en el análisis caótico sobre señales muestreadas, demostraron tener alta capacidad para contener en el modelo no lineal la información inherente a la dinámica real de los objetos de estudio, por lo tanto, el procedimiento propuesto en este artículo se constituye una herramienta efectiva para la obtención de los parámetros de embebimiento usando como función de costo la calidad del difeomorfismo de los atractores.

V. Agradecimientos Este trabajo se enmarca en el proyecto “Técnicas de computación de alto rendimiento en la interpretación automatizada de imágenes médicas y bioseñales” financiado por la DIMA y la Vicerrectoría de investigaciones de la Universidad Nacional de Colombia, con código 20201004224. Adicionalmente, los autores quieren agradecer al centro de investigación del INSTITUTO TECNOLÓGICO METROPOLITANO.

Bibliografía A. Alasty, M. Behzad & H. Salarieh, (2008). Chaos synchronization in noisy environment using nonlinear filtering and sliding mode control. Chaos, Solitons and Fractals. 1295-1304. R. G. Andrzejak, P. David, C. E. Elger., K. Lehnertz, F. Mormann & C. Rieke, (2001). Indications of nonlinear deterministic and finite dimen-

[47]


[48]

Metodolog铆a para evaluar el difeomorfismo de un atractor ca贸tico...

sional structures in time series of brain electrical activity: Dependence on recording region and brain state. Physical Review E. V. Babovic, M. Keijzer, & M. Stefansson. (2001). Chaos theory, optimal embedding and evolutionary algorithms. Danish Technical Research Council (STVF), Tech. Rep. 9800463. V. Babovic & S. A. Sannasiraj. (2002). Error forecasting in a wave prediction model using local linear model. In The Eighth Workshop on Ocean Models for the APEC Region, Hong Kong, China, August. M. Casdagli, T. Sauer & J. Yorke. (1991). Embedology. Journal of Statistical Physics, 579-616. B. Chen, S. Jiang, M. Luo, F. Yang, P. Yiand & L. Wang. (2006). Analysis of chaos attractors of MCG-recordings. In Proceedings of the 28th IEEE EMBS Annual International Conference, 6153-6156. J. P. Crutchfield, J. D. Farmer, N. H. Packard & R. S. Shaw. 1980. Geometry from a time series. Physical Review Letters. 712-716. P. Grassberger and I. Procaccia. (1983). Measuring the strangeness of strange attractors. Physica. 189-208 S. Haykin. (2001). Kalman Filtering and Neural Networks. Wiley Interscience. B. R. Hunt, E. J. Kostelich & I. Szunyogh. (2007). Efficient data assimilation for spatiotemporal chaos: A local ensemble transform kalman filter. Physica D. 112-126. J. E. Hurtado & A. H. Barbat. (1999). Stochastic Analysis of Multivariate Systems in Computacional Mechanics and Engineering. CIMNE. ch. Advanced topics in random processes. 173-194. R. G. Mark & G. B. Moody. (1991). The MIT-BIH arrhythmia database on CD-ROM and software for use with it. In Computers in Cardiology. 185188. F. Takens.(1981). Dynamical Systems and Turbulence, Lecture Notes in Mathematics. Springer-Verlag. Detecting strange attractors in turbulence. 366-381.

Revista Tecnol贸gicas


Caracterización

de señales sísmicas utilizando

modelos paramétricos y transformada cepstrum Hernán Humberto Agudelo López1

Resumen En este trabajo se plantea una metodología para la extracción de características de señales sísmicas que permite identificar entre los diferentes tipos de sismos de origen volcánico que son estudiados por el Observatorio Vulcanológico y Sismológico de Manizales (OVSM). Este proceso se lleva a cabo sobre una representación conjunta en los dominios del tiempo y la frecuencia conocida como superficie de ajuste. Se comparan los modelos paramétricos autorregresivos (AR, ARMA) y la transformada cepstrum en la identificación de procesos aleatorios. Se aplican diferentes criterios en la selección del orden del modelo paramétrico y se estudia el efecto de diferentes métodos de normalización sobre las características extraídas. Se emplea un clasificador bayesiano en la tarea de reconocimiento. Se obtienen porcentajes de reconocimiento del 99.8% entre dos clases de señales volcánicas.

Palabras clave Superficie de ajuste, modelos paramétricos, transformada cepstrum.

1

Estudiante de Ingeniería Electrónica. Pertenece al Grupo de Investigación y Desarrollo en Comunicaciones y Hardware Reconfigurable de la Universidad Tecnológica de Pereira. E-mail: hh@utp.edu.co

Fecha de recepción: 7 de noviembre de 2008 Fecha de aceptación: 15 de diciembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[50]

Abstract This work proposes a methodology for the extraction of features from seismic signals that allows to identify different types of volcanic earthquakes that have been studied in the Volcanological and Seismological Observatory of Manizales (OVSM). This process is made through a joint representation on time and frequency known as adjustment surface. Autoregressive parametric models (AR, ARMA) and the cepstrum transform are compared on the identification of random processes. Different criteria for the selection of the parametric models order are used and the effect of some normalization methods over the characteristics is studied. Recognition rates of 99.8% between two kinds of volcanic signals are obtained.

Key words Adjustment surface, parametric models, cepstrum transform.

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción Los procesos geofísicos propios de las placas tectónicas a gran escala y la actividad del hombre a menor escala, generan variaciones en el movimiento y actividad de la superficie terrestre; esta actividad se traduce en ondas sísmicas que se propagan a través de la corteza terrestre (Kennett, 2001). Las señales sísmicas son estudiadas como procesos aleatorios no estacionarios (Benbrahim, Daoudi, Benjelloun, & Ibenbrahim, 2005), de origen tanto volcánico como tectónico; éstas se originan a partir del flujo de magma a través de la estructura interna de los volcanes, del desplazamiento de las placas internas de la corteza terrestre, o el desprendimiento de materiales como roca, hielo y lodo de las laderas de las montañas. El estudio de las ondas sísmicas, actividad de la que se encarga la sismología al recopilar, caracterizar y estudiar los eventos volcánicos y sísmicos, utilizando entre otros, las señales sísmicas adquiridas por instrumentos de medida especiales conocidos como sismógrafos, es fundamental para definir planes de prevención y cuidado en zonas de alto riesgo. Es de particular interés dentro de la sismología y la vulcanología poder definir la naturaleza de las señales sísmicas a fin de estudiar los fenómenos físicos asociados a la ocurrencia de las mismas (Londoño, 2002). En la actualidad el proceso de caracterización y etiquetado de los eventos sísmicos observados en las estaciones pertenecientes a la Red Sismológica Nacional de Colombia (RSNC), es realizado de forma manual por expertos adscritos a los observatorios que componen la Red. Esta caracterización se lleva a cabo sobre la observación temporal de la señal o sobre la identificación de componentes frecuenciales fundamentales de los registros sismográficos (Londoño, 2002). La metodología propuesta en este trabajo propone realizar un análisis en los dominios conjuntos del tiempo y la frecuencia. De otro lado, los modelos paramétricos han sido utilizados previamente para obtener características de señales sísmicas. En investigaciones realizadas anteriormente (Orozco, García,

[51]


[52]

Caracterización de señales sísmicas utilizando modelos paramétricos...

Duin, & G. Castellanos, 2006) se han obtenido altos porcentajes de discriminación mediante el empleo de clasificadores robustos. En otros trabajos, han sido utilizadas técnicas de representación como la transformada wavelet y espectrogramas (Benbrahim, Daoudi, Benjelloun, & Ibenbrahim, 2005), coeficientes de predicción lineal LPC (Scarpetta, Giudicepietro, Petrosino, Pezzo, Martini, & Marinaro, 2005), y análisis del contenido espectral de las señales calculado mediante la función de autocorrelación, y medidas estadísticas sobre las señales mismas (Langer, Falsaperla, b, & Thompson, 2006). Se desarrolla en este trabajo una metodología para la extracción de características en señales sísmicas que permite identificar entre dos tipos de sismos de origen volcánico. Se comparan los modelos paramétricos y transformadas tiempo-frecuencia en el procesamiento de las señales sísmicas. Este trabajo aporta nuevas características reveladas a partir de la metodología de caracterización para la identificación de tipos de sismos.

2. Materiales

y métodos

2.1 Datos de entrenamiento La base de datos principal utilizada es una colección de registros sísmicos del Observatorio Vulcanológico y Sismológico de Manizales (OVSM). Consta de 622 datos clasificados como sismos Largo Periodo (LP), y 487 registros etiquetados como Vulcano-Tectónicos (VT), digitalizados con una frecuencia de muestreo de 100.16 Hz. Estos registros fueron medidos en la estación Olleta, sismógrafo ubicado aproximadamente a 4 km del cráter principal del Volcán Nevado del Ruiz, sobre 4.630 m.s.n.m. Así mismo se utilizó una base de datos de prueba consistente en 294 señales sísmicas etiquetadas como LP y 150 como VT registradas a la misma frecuencia de la base de datos principal en la estación sismológica Cráter en el volcán Galeras. Estos registros pertenecen al Observatorio Vulcanológico y Sismológico de Pasto (OVSP).

Revista Tecnológicas


[53]

Revista Tecnológicas

2.2 Modelos paramétricos Los modelos paramétricos permiten representar un sistema físico, en este caso un sistema geofísico, como la relación existente entre la entrada y la salida en forma de función de transferencia. Los diferentes modelos existentes determinan los elementos de dicha función, como los parámetros de entrada, de salida, o de entradas exógenas. Se utilizaron los modelos paramétricos Autorregresivos (AR) y Autorregresivos de Media Móvil (ARMA) (Ojeda, 2004). En general, se puede definir un modelo paramétrico como:

ŷi = (xi ; ) + i

i = 1, 2,...,n,

donde ŷ es la salida del sistema, n es el número de parámetros del modelo y (xi ; ) es una función que depende de las condiciones xi y del parámetro de interés . Es necesario aclarar que i representa la parte aleatoria del sistema. El modelo AR es un modelo de sólo polos que permite describir el valor actual de una serie de tiempo como una combinación lineal de los valores anteriores de dicha serie (Yao & Qiwei, 2005). Matemáticamente se puede describir como:

yt = b1 yt −1 + b2 yt − 2 + b3 yt −3 +… + bp yt − p + ε t

(1)

donde y t es la salida actual del sistema en el tiempo t, {b1, b2,..., bn} son los coeficientes, et es la parte aleatoria del sistema de dis­tribución normal o gaussiana y p es el orden del modelo paramétrico. Para describir el modelo ARMA es necesario hablar del modelo de Media Móvil (MA). Éste se caracteriza por ser un modelo de sólo ceros, el cual expresa la salida del sistema como la combinación lineal de las entradas actual y pasadas (Yao & Qiwei, 2005). Es así como el modelo ARMA es la unión de los dos modelos anteriores, lo que lleva a representar el sistema como una función de polos y ceros (Ver Ecu.).


[54]

Caracterización de señales sísmicas utilizando modelos paramétricos...

yt = b1 yt −1 + b2 yt − 2 + b3 yt −3 +…+ bp yt − p + xt + a1 xt −1 + a2 xt − 2 + a3 xt −3 +…+ aq xt − q

bp yt − p + xt + a1 xt −1 + a2 xt − 2 + a3 xt −3 +…+ aq xt − q

(2)

En este caso {a1, a2,..., am} son los parámetros asociados a las entradas anteriores y la entrada actual, {b1, b2,..., bn} son los parámetros asociados a los valores pasados de la serie de tiempo, p es el número de polos y q es el número de ceros del modelo. La parte aleatoria de este modelo la determinan las entradas de la ecuación xt–q (Yao & Qiwei, 2005), que pueden ser de distribución normal o ruido blanco gaussiano con media cero y varianza σ2.

2.3 Transformada cepstrum Un sistema se puede representar como la convolución entre una entrada (fuente) y una función de transferencia (filtro). La transformada cepstrum es una transformación homomórfica que permite separar la fuente del filtro que representa el sistema. Esta transformación permite convertir la convolución

Y[n] = x[n]*h[n]

(3)

en una suma ^ Ŷ[n] = x[n] + ĥ[n]

(4)

Hallando un N para el cual el cepstrum del filtro h[N] sea cero, es posible recuperar aproximadamente la excitación e[n] y viceversa. En general el cepstrum de una señal es la transformada de Fourier del logaritmo (con fase instantánea o no envolvente) de la señal estudiada, razón por la cual en ocasiones se le conoce como el espectro del espectro. Existen dos tipos de transformadas cepstrum, la real y la compleja, las que comparten el concepto de la transformada en sí (Huang, Acero, & Hon, 2001). En la figura 1 se muestra algorítmicamente el procedimiento de cálculo de la transformada cepstrum real y compleja (Childers, Skinner, & Kemerait, 1977). Matemáticamente están expresadas así:

Revista Tecnológicas


así: (Childers,elSkinner, gorítmicamente procedimiento de 1977). cálculoMatemáticamente de la transformada real y mpleja & Kemerait, estáncepstrum expresadas rmada cepstrum mpleja (Childers,real Skinner, & Kemerait, 1977). Matemáticamente están expresadas : Transformada cepstrum real í: 1 π ansformada cepstrum [55] RevistacTecnológicas n] = 5 [real ln | X1(e jωπ ) | e jω n d ωjω ³ jω n − π 2π c[n] = X e e d ω 5 ln | ( ) | ansformada cepstrum real 2π π ³−π 1 c[n] = cepstrum ln | X real (e jω ) | e jω n d ω 5 Transformada rmada cepstrum compleja 2π ³−π π Transformada cepstrum compleja1 c[n] = ln | X (e jω ) | e jω n d ω 5 (5) ³ − π 1 π 2π jω jω n ansformada cepstrum xcompleja 6 [ n] = ln X (1e )πe d ω jω jω n Transformada compleja 2π ³x−[πncepstrum X e e d ω 6 ]= ln ( ) ³ ansformada cepstrum compleja 1 2π π −π (6) x[n] = 6 ln X (e jω )e jω n d ω ³ es necesario utilizar el logaritmo complejo − π 2π Donde es necesario utilizar el logaritmo π complejo 1 utilizar ω Donde es necesario x[n] = 6 ln X (ele jlogaritmo )e jω n d ω complejo ³ jω jω j ω − π nde es necesarioXutilizar el^X logaritmo (e ) = ln (ejω ) =2π lncomplejo | X j(ωe ) | + jθ (ωj)ω 7 X 7 X (e ) = ln X (e ) = ln | X (e ) | + jθ (ω ) (7)

nde necesario utilizar complejo (e jωel) =logaritmo al sees define X (e jω ) = ln | X (e jω ) | + jθ (ω ) En X el cual selndefine En el cual se define X (θe (jωω))==ln e j(ωe)jω=) º¼ln | X (ejωjω ) | + jθ (ω ) argXª¬(X el cual se define θ (ω ) = arg ª¬ X (e ) º¼ el cual se define

7 (8)

7 8

8

θ (ω ) = arg ª¬ X (e jω ) º¼

Segmento estacionario de la señal

8

Segmento estacionario θ (ω ) = arg ª¬ X (e jω ) º¼ de la señal

|FFT| |FFT|2 log log Ajuste de la fase instantánea

|FFT|2 |FFT| Cepstrum real de la señal

Cepstrum Complejo de la señal

Figura Métodos de cálculo de las transformadas ura 1. Métodos de cálculo de las 1.transformadas cepstrum real y compleja. cepstrum real y compleja Figura 1. Métodos de cálculo de las transformadas cepstrum real y compleja.

Figura 1. Métodos de cálculo de las transformadas cepstrum real y compleja.

Figura 1. Métodos de cálculo de las transformadas cepstrum real y compleja.

8


[56]

Caracterización de señales sísmicas utilizando modelos paramétricos...

2.4 Selección de ventana de estacionariedad Debido a su naturaleza, las señales sísmicas son procesos aleatorios y altamente no estacionarios. Es necesario, para el uso de modelos paramétricos y la transformada cepstrum, calcular un tamaño de ventana en la cual la señal cumpla con condiciones de estacionariedad, ya que estas técnicas de tratamiento de señales modelan adecuadamente series de tiempo estacionarias. Una alternativa es aplicar el test de estacionariedad runtest, que permite estimar segmentos de tiempo de las señales que cumplen con condiciones de cuasi estacionariedad (Shanmugan, 1988).

2.5 Selección de orden de los modelos paramétricos Uno de los aspectos más importantes del uso de modelos paramétricos es la selección del número de parámetros. En general, si se selecciona un modelo con orden muy bajo, se obtiene un espectro altamente suavizado. Por otra parte, si el orden se selecciona muy alto, se corre el riesgo de introducir falsos picos de bajo nivel en el espectro. En el caso del modelo autorregresivo, el valor cuadrático medio del error residual constituye un indicador de desempeño. La característica de este error residual es que decrece a medida que el orden del modelo AR incrementa. Se puede monitorear la tasa de decremento y finalizar el proceso de actualización del orden cuando la tasa de decremento se vuelva relativamente lenta (Proakis & Manolakis, 2000). Diversos métodos se han descrito para la selección del orden del modelo autorregresivo, entre los cuales el más conocido es el criterio de información de Akaike (AIC). Este criterio se basa en seleccionar el orden que minimiza la expresión

AIC ( p ) = ln(σˆω2 p ) +

2p , N

(9)

donde σˆ ω p es la varianza estimada del error lineal de predicción y p es el orden del modelo paramétrico. Este índice de desempeño está basado en la minimización del error cuadrático medio para un 2

Revista Tecnológicas


[57]

Revista Tecnológicas

predictor de un paso. Nótese que el término σˆ ω p decrece y por lo 2 tanto ln(σˆ ω p ) decrece también a medida que el orden del modelo AR se incrementa. Sin embargo, 2p / N se incrementa en razón de p. Debido a esto, el mínimo valor es obtenido para algún valor p. Otro criterio muy utilizado a la hora de modelar sistemas físicos con modelos paramétricos es el criterio de información de Bayes (BIC). Este permite una mejor estimación del orden del modelo autorregresivo dado que está basado en seleccionar el orden que minimiza el largo de la descripción, donde BIC se define según: 2

BIC ( p ) = Nln(σˆω2 p ) + pln( N )

(10)

Estos criterios también están definidos para el modelo autorregresivo de media móvil. En general se define la función:

ψ ( p, q ) = log(σˆω2 p ( p, q )) + ( p + q )C ( N ) / N

(11)

donde σˆ ω p es la varianza estimada del error lineal de predicción, p es el número de polos y q es el numero de ceros del modelo. C(N) es una función de penalidad que para el caso de BIC es log(n) y para AIC es 2 (Potscher & Srinivasan, 1994). Un método un poco más heurístico y computacionalmente más costoso se basa en hallar el orden para el cual el error de estimación del modelo sea mínimo. En este se busca variar el orden de los modelos paramétricos y estimar la señal, comparándola con la señal original punto a punto con el objetivo de minimizar el error cuadrático medio entre ambas. 2

2.6 Superficies de ajuste Uno de los métodos utilizados para analizar señales aleatorias es utilizar representaciones en diferentes dimensiones, siendo las representaciones tiempo-frecuencia las más usadas, ya que permiten estudiar la dinámica frecuencial de la señal en el tiempo. Estas representaciones se obtienen al mapear, por medio del uso de kernels o núcleos, una señal en una dimensión (tiempo) en un


Las superficies o matrices de ajuste son similares a las representaciones tiempofrecuencia. Consistendeen generar una representación Caracterización señales sísmicas utilizando modelos paramétricos...tiempo-frecuencia, no sobre la [58] señal misma, sino sobre una estimación de esta (Orozco & Castellanos, 2007). En la dimensiones (tiempo-frecuencia) (Chen &de Ling, Figura 2 seespacio muestradeeldos algoritmo de construcción de una superficie ajuste, y en la

2002). Las superficies o matrices de ajuste son similares a las estudiadas representaciones en este trabajo,tiempo-frecuencia. calculadas a partir de la estimación Consisten en generar de unalas señales representación tiempo-frecuencia, no sobre la señal misma, sino obtenida de los modelos paramétricos AR y ARMA de cada segmento estacionario sobre una estimación de esta (Orozco & Castellanos, 2007). En la por medio del uso2 se demuestra la transformada dedeFourier enventanada. En dicha figura se figura el algoritmo construcción de una superficie de ajuste, y en la figura 3 se muestran las superficies de ajuste puede observar que ambas representaciones permiten diferenciar las dos señales, de dos señales sísmicas de las clases estudiadas en este trabajo, es decir, que son discriminantes. calculadas a partir de la estimación de las señales obtenida de los

Figura 3 se muestran las superficies de ajuste de dos señales sísmicas de las clases

Tamaño de la ventana

Figura 2. Algoritmo de construcción de una superficie de ajuste Figura 2. Algoritmo de construcción de una superficie de ajuste.

Revista Tecnológicas


Revista Tecnológicas

Figura 3. Superficies de ajuste de señales sísmicas

[59]


[60]

Caracterización de señales sísmicas utilizando modelos paramétricos...

modelos paramétricos AR y ARMA de cada segmento estacionario por medio del uso de la transformada de Fourier enventanada. En dicha figura se puede observar que ambas representaciones permiten diferenciar las dos señales, es decir, que son discriminantes.

2.7 Extracción de características De la representación tiempo-frecuencia conseguida a partir de las superficies de ajuste es necesario extraer un conjunto de características discriminantes. Fueron extraídas 67 características, entre las que se encuentran la media, varianza, desviación estándar, kurtosis y asimetría, todas extraídas sobre los marginales del tiempo, de la frecuencia, y sobre los coeficientes de los modelos, su primera y segunda derivada (Echeverry, 2006). Se calculó de igual forma una medida de la energía contenida en la superficie utilizando los criterios de Teager (Zhou, Hansen, & Kaiser) y Shannon, de donde se extrajeron las mismas medidas estadísticas antes mencionadas. Así mismo se calculó el parámetro de perturbación sobre la media por filas de la superficie.

2.8 Normalización Es sabido que uno de los procesos más utilizados en el tratamiento de señales y en la caracterización de las mismas es la normalización. En ocasiones, este proceso genera pérdida de información importante para los procesos de discriminación (Orozco A., 2008), razón por la cual se probó la metodología sin normalizar y normalizando las características obtenidas. El criterio de normalización utilizado fue el Min-Max definido como una transformación lineal del rango de entrada original en un nuevo rango de datos especificado (Álvarez López, 2004). Dicha transformación se realiza mediante

 y - min1  y' =   (max2 - min2 )+ min 2  max1 - min1 

(12)

Revista Tecnológicas


[61]

Revista Tecnológicas

donde min1, max1 son los valores mínimo y máximo de la serie original, min2, max2 son los nuevos valores mínimo y máximo (típicamente 0 y 1), y es el valor original y y’ el nuevo valor.

2.9 Metodología En la figura 4 se muestra la metodología que se plantea en este trabajo. Señal sísmica

Transformada cepstrum

Modelos paramétricos

Representación tiempofrecuencia

Construcción de superficie de ajuste

Extracción de características

Normalización

Características discriminantes de la señal sísmica

Figura 4. Metodología de caracterización planteada


[62]

Caracterización de señales sísmicas utilizando modelos paramétricos...

3. Resultados Inicialmente se calcularon los tamaños de las ventanas en las cuales las diferentes clases estudiadas cumplen con condiciones de estacionariedad usando el método runtest (Shanmugan, 1988). Estos intervalos son de 0.7962 segundos (equivalentes a 80 muestras) para la clase LP y de 0.6957 segundos (equivalentes a 70 muestras) para la clase VT. Con el fin de estandarizar el tamaño de la ventana de análisis, de manera que fuera independiente del tipo de señal, de los intervalos encontrados se utilizó el de la clase LP dado que por ser el más extenso, permite incorporar uno o más segmentos estacionarios de la otra clase de análisis. Posteriormente se determinó el orden de los modelos AR y ARMA. Se utilizaron los criterios de Akaike (AIC), Bayes (BIC) y el criterio de mínimo error de estimación. Para el modelo AR se obtuvo un orden óptimo de 7 polos por medio del criterio de Bayes y el de mínimo error de estimación. En el modelo ARMA se utilizaron los criterios de Bayes y el criterio de mínimo error de estimación. Se determinó que 5 polos y 4 ceros constituían el orden óptimo para este modelo. Con estos elementos se procedió a probar la metodología planteada con las bases de datos de entrenamiento descritas en la sección 2.1. Se traslaparon los intervalos de estacionariedad en 6%. Esta metodología fue validada utilizando un clasificador Bayesiano y validación leave one out, la cual permite una estimación no sesgada del error del clasificador. En la tabla 1 se muestran los resultados de clasificación de obtenidos con las señales del Volcán Nevado del Ruiz para todas las metodologías y clases. Clase VT LP

Total

Modelos paramétricos y superficies de ajuste

AR

99.9% 99,2% 99,6%

ARMA

99.9% 98.6% 99.3%

Transformada CEPSTRUM Real 99,4% 98,9% 99,1%

Compleja 99,6% 99.9% 99,8%

Tabla 1. Resultados de validación de la metodología planteada con las señales del volcán nevado del ruiz

Revista Tecnológicas


[63]

Revista Tecnológicas

En la tabla 2 se muestran los resultados de clasificación con las señales del Volcán Galeras descritas en la sección 2.1.

Clase

Modelos paramétricos y

VT LP

Total

superficies de ajuste

AR

ARMA

44,7% 98,3% 71,5%

99,9% 95,9% 98,0%

Transformada CEPSTRUM Real 99,3% 98,6% 99,0%

Compleja 98,7% 99,9% 99,3%

Tabla 2. Resultados de validación de la metodología planteada con las señales del volcán galeras

En la tabla 3 se muestra un consolidado de los resultados que permite comparar entre los diferentes métodos de procesamiento en ambas bases de datos. Método

Paramétricos

Cepstrum

Base de datos

Normalización

AR

ARMA

Real

Complejo

Volcán Nevado del Ruiz

Ninguna

88,8%

97,5%

95,0%

96.2%

Min-max

99,6%

99,3%

99,1%

99,8%

Ninguna

90.0%

97,8%

93,8%

94.5%

Min-max

71,5%

98,0%

99,0%

99,3%

Volcán galeras

Tabla 3. Resultados de validación consolidados

Los mejores resultados fueron obtenidos utilizando la transformada cepstrum compleja.

4. Discusión En el estado del arte sobre clasificación de señales sísmicas se ha dado mayor relevancia al uso de clasificadores robustos y no a la tarea de definir una metodología clara de caracterización de dichas


[64]

Caracterización de señales sísmicas utilizando modelos paramétricos...

señales (Álvarez & Henao, 2007) (Benbrahim, Daoudi, Benjelloun, & Ibenbrahim, 2005) (Langer, Falsaperla, b, & Thompson, 2006). Este trabajo se centra en este tema. Se determinó la utilidad del modelo paramétrico autorregresivo de media móvil y de la transformada cepstrum para reconstruir las señales sísmicas de las clases objeto de estudio. Aunque el modelo autorregresivo ha sido utilizado para calcular la estimación de la densidad espectral de potencia, lo que ha permitido extraer características que luego fueron clasificadas usando procesos gaussianos (Álvarez & Henao, 2007) para obtener resultados acierto del 94%, no se tuvo en cuenta la no estacionariedad de la señal y la necesidad de determinar intervalos que cumplan con esta condición para poder aplicar modelos paramétricos lineales. Para trabajos futuros, se utilizarán clasificadores de mayor desempeño como máquinas de soporte vectorial o procesos gaussianos, buscando mejores resultados de clasificación. Así mismo se busca estudiar otras representaciones tiempo-frecuencia como las transformadas Wavelet y Cohen y se hace necesario explorar procesos de selección de características como PCA o LDA.

5. Conclusiones • La representación tiempo-frecuencia que se obtiene a partir de las superficies de ajuste permiten estudiar de forma adecuada la dinámica de las señales sísmicas en el tiempo y la frecuencia de forma conjunta. • Las características más discriminantes entre las clases de sismos estudiadas fueron las obtenidas a partir de la representación tiempo-frecuencia generada con la transformada cepstrum. • Los resultados obtenidos con los modelos paramétricos autorregresivo y autorregresivo de media móvil son muy cercanos a los obtenidos con la transformada cepstrum, probando que permiten también obtener características altamente discriminantes entre clases.

Revista Tecnológicas


Revista Tecnológicas

• Se obtuvo una tasa de discriminación del 99.8% utilizando la transformada cepstrum y de 99.6% para el modelo paramétrico AR.

6. Agradecimientos

El autor agradece al Observatorio Sismológico y Vulcanológico de Manizales (INGEOMINAS) por la base de datos facilitada y la colaboración prestada a lo largo del proyecto de investigación. Este trabajo se desarrolló en el Grupo de Investigación y Desarrollo en Comunicaciones y Hardware Reconfigurable en el marco del proyecto de investigación “CLASIFICACIÓN AUTOMATIZADA DE EVENTOS SÍSMICOS”, financiado por la Universidad Tecnológica de Pereira con código 9-07-04.

7. Bibliografía Álvarez López, M. A. (2004). Reconocimiento de voz sobre diccionarios reducidos usando Modelos Ocultos de Markov. Tesis de grado. Universidad Nacional de Colombia Sede Manizales. Álvarez, M., & Henao, R. (2007). Clasificación De Eventos Sísmicos Empleando Procesos Gaussianos. Scientia et Technica. Benbrahim, M., Daoudi, A., Benjelloun, K., & Ibenbrahim, A. A. (2005). Discrimination of Seismic Signals Using Artificial Neural Networks. Transactions On Engineering, Computing And Technology. Chen, V. C., & Ling, H. (2002). Time-frequency transforms for radar imaging and signal analysis. Boston: Artech House. Childers, D. G., Skinner, D. P., & Kemerait, R. C. (1977). The Cepstrum - A Guide to Processing. Proceedings of the IEEE, Vol. 65. Echeverry, J. D. (2006). Caracterización acústica de bioseñales empleando transformadas tiempo frecuencia y modelado paramétrico. Pereira: Universidad Tecnológica de Pereira. Fan, J., & Yao, Q. (2005). Nonlinear Time Series: Nonparametric and Parametric Methods. Springer. Huang, X., Acero, A., & Hon, H.-W. (2001). Spoken language processing. Prentice Hall.

[65]


[66]

Caracterización de señales sísmicas utilizando modelos paramétricos...

Kennett, B. L. (2001). The Seismic Wavefield. Cambridge University Press. Langer, H., Falsaperla, S., b, T. P., & Thompson, G. (2006). Automatic classification and a-posteriori analysis of seismic event identification at Soufrie’re Hills volcano, Montserrat. Journal of Volcanology and Geothermal Research. Londoño, J. M. (2002). Manual de Sismología y Volcánica Básica. Observatorio Vulcanologico de Manizales. Ojeda, M. M. (2004). La Modelación Estadística. Foro de Matemáticas del Sureste, (p. 76). Orozco, A. (2008). Clasificación de patrones provenientes de señales de actividad biológica no-estacionaria. Aplicación a la cirujía de la enfermedad de Parkinson. Valencia, España: Universidad Politécnica de Valencia. Orozco, A., & Castellanos, G. (2007). Análisis de señales y sistemas. Pereira: Universidad Tecnológica de Pereira. Orozco, M., García, M. E., Duin, R. P., & G. Castellanos, C. (2006). Dissimilarity-Based Classification Of Seismic Signals At Nevado Del Ruiz Volcano. Earth Sciences Research Journal. Potscher, B. M., & Srinivasan, S. (1994). A comparision of order estimation procedures for ARMA models. Statistica Sinica 4, 29-50. Proakis, J., & Manolakis, D. (2000). Tratamiento Digital de Señales. Prentice Hall. Scarpetta, S., Giudicepietro, F., Petrosino, E. C., Pezzo, E. D., Martini, M., & Marinaro, M. (2005). Automatic Classification of Seismic Signals at Mt. Vesuvius Volcano, Italy, Using Neural Networks. Bulletin of the Seismological Society of America. Shanmugan, K. S. (1988). Random Signals: Detection Estimation and Data Analysis. Wiley. Stoica, Petre, & L., M. R. (1997). Introduction to Spectral Analysis. Prentice Hall. Yao, J., & Qiwei, F. (2005). Nonlinear Time Series: Nonparametric and Parametric Methods. Springer. Zhou, G., Hansen, J. H., & Kaiser, J. F. (n.d.). A new nonlinear feature for stress classification. Robust speech processing laboratory - Duke University.

Revista Tecnológicas


Análisis

de reducción de ruido en señales eeg

orientado al reconocimiento de patrones Cristian Guarnizo Lemus1

Resumen En este artículo se presenta un estudio sobre la reducción de ruido de fondo (electrónico) en señales electroencefalográficas (EEG) utilizando la transformada wavelet, asumiendo que las características extraídas son susceptibles al ruido inherente en la señal y común entre clases. Adicionalmente se observa la incidencia en la separación de las muestras en el espacio de características a partir de un clasificador bayesiano lineal. Se obtiene un incremento del 1% en la media del porcentaje de acierto, al realizar la reducción de ruido en la identificación de dos estados funcionales.

Palabras clave Wavelet, EEG, reducción de ruido.

Abstract A study on background noise reduction (denoising) on EEG signals using wavelet transform is presented, assuming that extracted features are susceptible to common noise within classes; besides, the feature space separability is compared using a linear Bayesian classifier. An increment of 1% in the average recognition

1

Ingeniero Electricista. Universidad Tecnológica de Pereira, Maestría en Ingeniería Eléctrica. Docente Ocasional ITM Institución Universitaria.

Fecha de recepción: 6 de noviembre de 2008 Fecha de aceptación: 11 de diciembre de 2008 Revista Tecnológicas No. 21, diciembre de 2008


[68]

rate is reached performing noise reduction in the identification of two functional states.

Key words Wavelet, EEG, denoising.

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción En todo proceso de adquisición de señales biológicas, las mediciones tomadas poseen cierto grado de distorsión o se alteran debido a varios factores, como, ruido térmico, interferencia electromagnética o movimientos del paciente (Donoho & Johnstone, 1992). Debido a que el ruido es un factor común en las señales adquiridas hace que las muestras de diferentes clases posean cierta similitud en su comportamiento estadístico, por esta razón en general en los procesos de reconocimiento de patrones se utiliza una etapa de preprocesamiento. La mayoría de los métodos actuales para la reducción de ruido en bioseñales se basan en la transformada wavelet, debido que fácilmente puede representar (realzar) los eventos fisiológicos de interés en el dominio tiempo-escala, además que son adecuadas para procesar señales de naturaleza no estacionaria. En (Messer, Agzarian, & Abbott, 2001) se presenta un análisis de reducción de ruido en señales fonocardiográficas variando cada parámetro involucrado en el preprocesamiento (onda wavelet, tipo de umbralización, valor del umbral y escalamiento del umbral), se analiza la relación señal a ruido de las señales procesadas. El mayor problema en este método es que se debe agregar ruido a una señal que inherentemente contiene perturbaciones de otras fuentes, solo para verificar que el método reduce ese ruido agregado. Un trabajo similar al anterior pero aplicado sobre señales EEG es propuesto en (Prasad, Siddaiah, & Rao, 2008). Los trabajos de reducción de ruido en EEG son muy específicos, en los cuales se trata de eliminar artefactos visibles en la señal, como la perturbación generada por el movimiento de los ojos (Senthil, Arumuganathan, Sivakumar, & Vimal, 2008) (Krishnaveni, Jayaraman, Aravind, Hariharasudhan, & Ramadoss, 2006). En las señales EEG se han propuesto diferentes métodos de caracterización basados en la transformada wavelet para la posterior identificación de los estados funcionales (Subasi, 2007) (Ting,

[69]


[70]

Análisis de reducción de ruido en señales eeg orientado al reconocimiento de patrones

Guo-zheng, Bang-hua, & Hong, 2008) (Jahankhani, Kodogiannis, & Revett, 2006), pero no se hace un estudio de la reducción del ruido y como este afecta el análisis futuro de las señales. En (Jahankhani, Kodogiannis, & Revett, 2006) se obtiene un porcentaje de acierto de 97% en la clasificación de dos estados funcionales utilizando la combinación de 16 clasificadores basados en redes neuronales. De igual manera en (Subasi, 2007) se obtiene un porcentaje de acierto de 94.5% utilizando mezclas de expertos. En los trabajos anteriores se obtuvieron más muestras de la base de datos original al segmentar los registros originales, de esa forma se obtiene un conjunto de datos formado por 1000 muestras para entrenamiento y 600 para la validación en la identificación de dos estados funcionales.

2. Materiales

y métodos

En la reducción de ruido generalmente se observa la relación señal a ruido (SNR) de la señal resultante, como medida de desempeño del método de preprocesamiento. En las tareas de reconocimiento de patrones se busca obtener un espacio de características en el que las clases estén claramente separadas, esta última depende de la calidad de las señales y del método de caracterización. Por esta razón se pretende obtener una mejor separación entre clases reduciendo la componente de ruido común en todas las señales.

2.1 Datos de entrenamiento La base de datos utilizada en este experimento está disponible públicamente, y es descrita en (Andrzejak, 2001). La base de datos completa está compuesta por 5 conjuntos (A-E) donde cada uno contiene 100 segmentos de EEG de un solo canal. Los conjuntos A y B están compuestos de señales superficiales de EEG tomadas de voluntarios saludables. Ambos conjuntos tienen grabaciones de los voluntarios en estado despierto, pero en el conjunto A tienen los ojos abiertos. Los conjuntos C, D y E son grabaciones de 5

Revista Tecnológicas


[71]

Revista Tecnológicas

pacientes que posteriormente se les diagnosticó quirúrgicamente tener zona epileptógena. Todas las señales EEG fueron registradas con un sistema de amplificación de 128 canales, los datos fueron digitalizados con una resolución de 12 bits y muestreados a 173.61 Hz. En este trabajo se utiliza los conjuntos de datos A y E como en (Subasi, 2007).

2.2 Reducción de ruido con wavelets La reducción de ruido de fondo trata de disminuir el ruido inherente en la adquisición de la señal. Se pretende reducir el ruido de fondo empleando técnicas basadas en la transformada wavelet discreta (DWT), las cuales han mostrado una estimación mejor de la señal sin ruido y posteriormente observar si el acierto en la identificación de las diferentes clases se incrementa o disminuye. En la reducción de ruido de fondo se busca encontrar una aproximación cercana a los valores xn de yn dado el siguiente modelo: yn = xn + n

n = 1,...,N

(0.1)

donde x es la señal sin perturbaciones,  es un proceso aleatorio blanco Gaussiano con media = 0, N es la longitud de la señal. La transformada wavelet tiene propiedades (momentos de desvanecimiento) en sus funciones base que hacen posible obtener una muy buena aproximación de señales que contienen ruido aditivo. Si las funciones base de la DWT son ortonormales, entonces la transformada del ruido blanco Gaussiano n corresponde a otro proceso de estructura blanca Gaussiana n, de la misma amplitud de n (Jansen, 2001), entonces W{yn} = W{xn} + W{n} Al resolver (0.2) para xn, se obtiene

(0.2)


[72]

Análisis de reducción de ruido en señales eeg orientado al reconocimiento de patrones

En general, el valor de n no se conoce, así que a la componente del ruido se le asigna un valor , tal que xn  W–1 {W{yn} – } La remoción del ruido mediante la técnica de reducción de ruido (denoising), consiste en eliminar la contribución correspondiente al valor estimado , de cada uno de los coeficientes wavelet en W{yn}. La primera forma consiste en emplear el procedimiento de limitación por nivel o umbralización, la cual puede estar motivada por las siguientes razones (Jansen, 2001): • La propiedad de no correlación de la DWT genera una señal poco densa; la mayoría de los coeficientes libres de ruido son cero o cercanos a cero. • El ruido está distribuido de igual forma en todos los coe­ ficientes. • Se supone que la potencia del ruido es mucho menor que la de la señal útil, de modo que se puede distinguir, para la señal útil, el aporte de los coeficientes wavelet. El valor de umbral corresponde a un compromiso entre la cercanía del ajuste y el suavizado: un valor pequeño da como resultado una señal de salida con forma cercana a la de la entrada, de tal manera, que la remoción de ruido es insuficiente. Por el contrario, un valor de umbral muy alto produce una señal de salida con muchos coeficientes wavelet iguales a cero; esto es, con demasiada distorsión y pérdida de la información (Jansen, 2001).

2.3 Funciones de umbralización Los valores de los coeficientes son modificados a partir del valor del umbral, empleando unas funciones de limitación, las propuestas en (Johnstone, 1992) se presentan a continuación: Umbral fijo: Los coeficientes wavelet más pequeños están dominados por el ruido, mientras que los coeficientes con valores

Revista Tecnológicas


[73]

Revista Tecnológicas

absolutos grandes poseen más información de la señal que del ruido. Por esto, los coeficientes más pequeños según el valor absoluto y que están por debajo del umbral fijo , se reemplazan por cero, de la siguiente manera: 0,

dˆkl = 

d kl < λ

d l , d kl ≥ λ   k

donde d kl es el coeficiente de detalle wavelet k del nivel l. El limitador de umbral fijo se usa cuando se desea obtener el código wavelet, lo más corto posible. Las secuencias largas de ceros que usualmente se obtienen en el vector limitado de la descomposición wavelet, se codifican eficientemente. Aunque esta función de umbralización es buena para reproducir señales con discontinuidades o cambios abruptos, también produce artefactos en la señal reconstruida debido a la discontinuidad presente en el valor del umbral , por este motivo se propone la siguiente función de umbralización. Umbral flexible: En este caso, se reducen todos los coeficientes hacia el origen, de la siguiente forma:  0, d kl < λ  l ˆ dk =  l l l sgn (d k ) d k − λ , d k ≥ λ

(

)

donde sgn es la función signo. El problema de esta función es que la señal reconstruida presentará una diferencia menor en amplitud a la señal original.

2.4 Valor del umbral Para determinar el valor del umbral en general se emplean 4 estimadores estadísticos que buscan un umbral para el cual los valores menores a éste pertenezcan al ruido. Universal: El valor del umbral depende de la cantidad de muestras de la señal: λ = 2log( N )


[74]

Análisis de reducción de ruido en señales eeg orientado al reconocimiento de patrones

Estimador de riesgo no sesgado de Stein (SURE): El valor del umbral se encuentra minimizando una función de riesgo

λ = NV (kmin ) Donde NV(k) es un vector de datos (coeficientes) al cuadrado, organizado en orden ascendente. El riesgo en el índice k está dado por: N − 2k + ∑ j =1 NV ( j ) + ( N − k ) NV ( N − k ) k

R(k ) =

n

Se selecciona para calcular el valor del umbral el índice kmin que minimice el riesgo del vector de riegos R(k). SURE Heurístico: Se selecciona el menor valor de los umbrales estimados por los dos métodos anteriores. Este umbral es el más conservativo con respecto a la señal, retiene más ruido. Minimax: Se basa en la regla de Minimax, definida para una serie de datos como:

λ = 0.3936 + 0.1829 (log( N ) / log(2) ) 2.5 Escalamiento El valor del umbral se puede ponderar de acuerdo con los valores de los coeficientes por escala, de esta forma el umbral puede ser dependiente del nivel de ruido encontrado por nivel. Existen tres formas en las cuales se puede ponderar el valor del umbral determinado por alguno de los estimadores anteriores: Global (one): A todos los coeficientes de todos los niveles se les aplica el valor del umbral sin ponderar. Ponderación primer nivel (sln): Se calcula el nivel de ruido de los coeficientes de detalle del primer nivel de descomposición a partir de la siguiente ecuación:

σˆ =

( )

mediana d k1 0.6745

Revista Tecnológicas


[75]

Revista Tecnológicas

Donde σˆ es el nivel del ruido estimado, el valor del umbral se pondera entonces: ˆ λ * = σλ

Ponderación por nivel (mln): En este caso el valor del umbral se pondera por escala a partir de la estimación nivel de la escala. Ponderación por niveldel (mln): Enruido esteen caso el valor del umbral

se pondera por escala a partir de la estimación del nivel de ruido en la escala. puede observar en la Figura 1. Un esquema para la reducción de ruido empleando la transformada wavelet se puede observar en la figura 1.

Un esquema para la reducción de ruido empleando la transformada wavelet se

1. Esquema de reducción de ruido. FiguraFigura 1. Esquema de reducción de ruido

2.6 Caracterización

2.6 Caracterización

La caracterización se realizasecalculando la transformada wavelet con 3 niveles de La caracterización realiza calculando la transformada

descomposición, a cada muestra en el espacio wavelet, se le calculan wavelet con tres niveles detransformada descomposición, a cada muestra

transformada en el espacio wavelet, se de le descomposición calculan los siguientes los siguientes parámetros o medidas por nivel (XU, 2004): parámetros o medidas por nivel de descomposición (XU, 2004): µnl El mnl

=

K

1 K l 2 ¦2( dk ) = ∑ 2(dkkl=1) k =1

E l 1 =K mnl

2 k =1

( )( ) = Δ C C ∆ (C C( ) )

= max d kl

= max d kl

SVD

SVD = Donde

1 K l ¦ dk ∑Kdklk =1

μnl 1 =K

T

T

μ nl es la media normalizada, E l es la energía y mnl es el máximo absoluto de

los coeficientes de la escala l, SVD es la raíz cuadrada de los valores propios de la


[76]

Análisis de reducción de ruido en señales eeg orientado al reconocimiento de patrones

Donde µ nl es la media normalizada, El es la energía y mnl es el máximo absoluto de los coeficientes de la escala l, SVD es la raíz cuadrada de los valores propios de la matriz CTC. La matriz C se obtiene indexando en filas los coeficientes de los diferentes niveles de descomposición como se muestra en la figura 2.

d1 d2 d3 Figura 2. Construcción de la matriz C, región gris compuesta de ceros

3. Resultados

y discusión

Primero se selecciona la base wavelet para caracterizar las señales EEG, debido a que se pretende observar cómo cambia el espacio de características al reducir el ruido en las señales, se selecciona la base que entregue el mejor porcentaje de acierto. Los valores de clasificación de las características se obtienen utilizando un clasificador bayesiano lineal con validación cruzada de cinco particiones. Los mejores porcentajes por familia wavelet se pueden observar en la tabla 1. Tabla 1. Porcentaje de acierto para diferentes bases wavelet Base DWT

A

E

Total

Db1

100.00±0.00

90.00±7.91

95.00±3.95

Coif1

100.00±0.00

84.00±5.48

92.00±2.74

Sym10

100.00±0.00

86.00±4.18

93.00±2.09

Posteriormente se realiza el denoising de todas las señales y se obtienen los porcentajes de acierto para cada caso variando la base wavelet (Coiflet 1-5, Daubechies 1-10 y Symlet 2-10), la función de

Revista Tecnológicas


[77]

Revista Tecnológicas En la Figura 3 se puede observar la variación delescalamiento porcentaje de acierto al variar la umbralización, el valor del umbral y el del umbral

(576 función pruebas diferentes). umbral y escalamiento, respectivamente. base, de umbralización,

En la figura 3 se puede observar la variación del porcentaje de acierto al variar la base, función de umbralización, umbral y escalamiento, respectivamente.

(a)

(c)

(b)

(d)

Figura 3. Boxplot de cada parámetro en la reducción de ruido. (a) Base wavelet. (b) Función de Figura 3. Boxplot de cada parámetro en la reducción de ruido. (a) Base wavelet. umbralización. (c) Umbral. (d) Escalamiento.

(b) Función de umbralización. (c) Umbral. (d) Escalamiento De la figura 3, se observa que el cambio de la base no influye en el comportamiento del clasificador. El tipo umbralización presenta menores porcentajes De la figura 3, sedeobserva que elflexible cambio de la base no influye en de

el comportamiento del clasificador. Elen tipo de umbralización acierto que la fija. El parámetro que influye el porcentaje de acierto flexible al reducir el presenta menores porcentajes de acierto que la fija. El parámetro


[78]

Análisis de reducción de ruido en señales eeg orientado al reconocimiento de patrones

que influye en el porcentaje de acierto al reducir el ruido en las señales es el tipo de escalamiento, si el escalamiento es global o ponderado por el primer nivel se obtienen porcentajes más altos. En la tabla 2 se muestran los porcentajes de acierto que superarán en la media a aquel entregado sin realizar un preprocesamiento sobre la señal. Tabla 2. Porcentaje de acierto con mayor tendencia al filtrar Método

A

E

Total

Db1, HSURE, fijo, sln.

100.00±0.00

92.00±2.74

96.00±1.37

Db1, minimax, flexible, sln.

100.00±0.00

92.00±5.70

96.00±2.85

Db1, universal, flexible, sln.

100.00±0.00

91.00±7.42

95.50±3.71

A partir de la tabla anterior se observa que al realizar la reducción de ruido se obtiene una mejora del 1% en la tendencia de central de los porcentajes de acierto. Las características extraídas son lo suficientemente robustas para la representación de las señales EEG de la base de datos utilizada debido que no se ven influenciadas por el ruido inherente en las señales, esto se refleja en los resultados obtenidos al realizar o no el filtrado sobre las señales. En comparación con el trabajo de (Subasi, 2007) donde se obtiene un porcentaje de acierto de 94.5% utilizando mezclas de expertos, en este trabajo se presenta un mayor porcentaje de acierto utilizando un clasificador más sencillo.

Revista Tecnológicas


Revista Tecnológicas

4. Conclusiones En la reducción de ruido utilizando la transformada wavelet, el parámetro que influye en el porcentaje de acierto es el tipo de escalamiento utilizado. No es necesario realizar la reducción de ruido empleando el método de caracterización propuesto, debido a que los resultados presentados con ruido y sin reducción de éste no presentan una diferencia significativa.

Bibliografía Andrzejak, R. G. (2001). Indications of nonlinear deterministic and finite dimensional structures in time series of brain electrical activity: Dependence on recording region and brain state. PHYSICAL REVIEW E. Donoho, D., & Johnstone, I. (1992). Ideal spatial adaptation by wavelet shrinkage. Biometrika, 425-455. Jahankhani, P., Kodogiannis, V., & Revett, K. (2006). EEG Signal Classification Using Wavelet Feature Extraction and Neural Networks. IEEE John Vincent Atanasoff 2006 International Symposium on Modern Computing. Jansen, M. (2001). Lecture notes in Statistics: Noise reduction by wavelet thresholding. Springer Verlag. Krishnaveni, V., Jayaraman, S., Aravind, S., Hariharasudhan, V., & Ramadoss, K. (2006). Automatic Identification and Removal of Ocular Artifacts from EEG using Wavelet Transform. MEASUREMENT SCIENCE REVIEW, 45-57. Messer, S. R., Agzarian, J., & Abbott, D. (2001). Optimal wavelet denoising for phonocardiograms. Microelectronics journal, 931-941. Prasad, V., Siddaiah, P., & Rao, P. (2008). Denoising of Biological Signals Using Different Wavelet Based Methods and Their Comparison. Asian Journal of Information Technology, 146-149. Senthil, P., Arumuganathan, R., Sivakumar, K., & Vimal, C. (2008). A Wavelet based Statistical Method for De-Noising of Ocular Artifacts in EEG Signals. IJCSNS International Journal of Computer Science and Network Security, 87-92.

[79]


[80]

An谩lisis de reducci贸n de ruido en se帽ales eeg orientado al reconocimiento de patrones

Subasi, A. (2007). EEG signal classification using wavelet feature extraction and a mixture of expert model. Expert Systems with Applications, 1084-1093. Ting, W., Guo-zheng, Y., Bang-hua, Y., & Hong, S. (2007). EEG feature extraction based on wavelet packet decomposition for brain computer interface. Measurement, 618-625. Zhang, X., Yang, Y., & Xu, X. (2004). Clinical detection and movement recognition of neuro signals. Journal of Zheijang University SCIENCE.

Revista Tecnol贸gicas


Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy, para su posterior determinación de la cinética de reacción Lilia C. Rojas Pérez1 Luis A. Caicedo Mesa2 Jaime L. Aguilar Arias3 Liliana R. Martínez Ramírez4

Resumen En este trabajo se evaluaron los ensayos para la obtención de azúcares fermentables a partir de materias amiláceas, en este caso particular yuca, los cuales comprendieron el seguimiento de la reacción de hidrólisis enzimática para la posterior determinación de la cinética de reacción (formación de producto en función del tiempo). En una primera etapa se consideró el proceso convencional que consta de licuefacción y sacarificación, a cargo de una alfa-amilasa y una gluco-amilasa comerciales respectivamente. Y en una segunda etapa la acción bifuncional de una única enzima comercial, analizándose por separado las dos partes constitutivas de la yuca: el parénquima interno y el parénquima externo. La 1 2 3 4

Ingeniera Química. Universidad Nacional de Colombia. e-mail: lcrojasp@unal.edu.co Ingeniero Químico M. Sc., D. Sc., Universidad Nacional de Colombia. Profesor. e-mail: lacaicedom@unal.edu.co Ingeniero Químico M. Sc., Universidad Nacional de Colombia. Profesor. e-mail: jlaguilara@unal.edu.do Ingeniera Química. Universidad Nacional de Colombia. e-mail: lrmartinezr@unal.edu.co

Fecha de recepción: 10 de octubre de 2008 Fecha de aceptación: 12 de diciembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[82]

materia prima se caracterizó en cuanto a su composición, porcentaje de humedad, proteína y por último contenido de almidón en base seca.

Palabras clave Yuca, parénquima interno, parénquima externo, hidrólisis enzimática, proceso convencional, proceso Low-energy.

Abstract This work evaluated the attempts to obtaining fermentable sugars took from starchy materials; in this particular case starch, which cover the tracing of the reaction of enzymatic hydrolysis for the subsequent determination of the kinetic reaction (formation of product in function of time); the first step considered the conventional process that consists in liquefaction and saccharification, in uncharged to a commercial alpha-amylase and gluco-amylase respectively, the second step was the action bi-functional by only one commercial enzyme, this was analyzed separating the two constitutive parts of the starch: the inside parenchyma and the extern parenchyma. Finally the raw material was distinguished as far as its composition, moistness percent, protein and for last contend of starch in dry low.

Key words Starch, inside parenchyma, extern parenchyma, enzymatic hydrolysis, conventional process, Low-energy process.

Revista Tecnológicas


Revista Tecnológicas

1. Introducción En el marco actual de la creciente producción de biocombustibles por vía fermentativa, de la obtención de este producto por materias primas agrícolas de alta producción en Colombia, y de la reciente aprobación de la Ley 693 de 2001 en el territorio colombiano, se ha tenido en cuenta para la producción de etanol carburante como materia prima no sólo la caña de azúcar sino, también, el almidón de yuca. La yuca es un cultivo abundante en los trópicos como alimento suplementario básico; pero mucho de lo producido es inutilizado debido a su contenido de cianuro (Roble et al., 2003). La yuca es una planta que presenta buena resistencia a las enfermedades, a las plagas, tolerancia a los suelos y condiciones climáticas adversas (Romero L., 1988). Para una planta de etanol con una capacidad anual de 33,4 millones de galones de etanol desnaturalizado (95% de etanol anhidro y 5% de gasolina en volumen) se necesitan alrededor de 780.000 toneladas de tubérculos de yuca fresca como materia prima, los cuales requieren por lo menos de 20.000 hectáreas de plantaciones de yuca (Zhang et al., 2003). En este trabajo se evaluará la conversión de almidón a azúcares fermentables a través de dos procesos: el primero convencional y el segundo denominado low-energy, innovador en su género al permitir el contacto enzima-sustrato sin requerimientos energéticos, o sea a temperatura ambiente, empleándose enzimas comerciales. El orden para facilitar la producción de etanol a partir del almidón de yuca es el pre-tratamiento del almidón, consiste en realizar una gelatinización, licuefacción y sacarificación, lo que toma lugar previamente a la fermentación. (Russell et al., 1986). Se han realizado estudios similares para el proceso convencional; Nellaiah et al., (1988) evaluaron la hidrólisis de una alfa-amilasa termostable Termamyl por 1,5 h a 90º C y de una amiloglucosidasa (AMG) por 20 h a 37º C y encontraron conversión del 86%. Similarmente Rhee et al., (1984) evaluaron estas dos enzimas con una concentración de sustrato de 30% w/v, reportando después de 5 horas rendimientos promedio de 75% Equivalente de Dextrosa. De manera semejante, Ejiofor

[83]


[84]

Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy

et al., (1996) encontraron que el 80,7% de hidrolizado era glucosa, utilizando enzimas comerciales. Pero existe otra metodología que consiste en el no empleo de enzimas comerciales a través del uso directo de microorganimos, de esta forma se busca reducir el costo de las amilo-glucosidasas y el tiempo de fermentación evitando el paso de la sacarificación (Amutha et al., 2001), del Rosario et al., (1984) emplearon Aspergillus awamori y Saccharomyces cerevisiae en un fermentador airlift y un fermentador tower respectivamente, reportan eficiencias del 88% de sacarificación y una concentración de 5,3% de alcohol en la segunda etapa. Sarathi et al., (1996) utilizaron un cultivo mezclado por Endomycopsis fibuligera NRRL 76 y Zymomonas mobilis ZM4 los cuales fermentaron (22,5 w/v) de almidón de yuca más eficientemente hasta 10,5% v/v de etanol. En otras investigaciones se ha evaluado la hidrólisis enzimática de yuca por celulasas y gluco-amilasas en el contexto de alta eficiencia. Si se hidroliza la celulosa el rendimiento de unidades D-glucosa se incrementa según estudios de Kumakura et al., (1983)., por ejemplo Kosugi et al., (2008) reportan que la pulpa de yuca contiene aproximadamente 60% de almidón y 20% de fibra de celulosa; para convertir efectivamente los componentes hasta etanol, hidrolizaron la celulosa a través de Trichoderma reesei cellulase y luego fermentaron con Saccharomyces cerevisiae Kyokai no. 7, ellos utilizaron relaciones de pulpa de yuca de 5% y 10%, con lo cual se obtuvo 91% y 80% del rendimiento teórico, respectivamente. De esta forma se hace necesario desarrollar un estudio para la evaluación del proceso de obtención de azúcares fermentables mediante la hidrólisis enzimática de tres variedades colombianas de yuca, por dos procesos diferentes con tres enzimas comerciales, discriminando las dos partes constitutivas de la raíz: parénquima externo y parénquima interno, lo que permitirá establecer el efecto global del rendimiento del proceso al hidrolizarse por separado.

Revista Tecnológicas


[85]

Revista Tecnológicas

2. Materiales,

metodología y métodos de análisis

2.1 Materiales La materia prima fue yuca en tres variedades diferentes provenientes de los llanos orientales de Colombia (CantaclaroMeta). Como catalizadores de la reacción se evaluaron tres enzimas comerciales, una alfa-amilasa, una gluco-amilasa y una enzima de acción bifuncional. Las primeras dos enzimas actúan por separado en el proceso denominado convencional, el cual comprende una etapa de licuefacción y una etapa de sacarificación. Y la tercera enzima es considera para el proceso innovador denominado: low-energy.

2.2 Tratamiento de la yuca Las tres variedades de yuca fueron caracterizadas en sus tres partes principales: periderma o cascarilla, parénquima cortical o interno y parénquima externo (figura 1); realizando un lavado para retirar la tierra y material proveniente del cultivo, luego se retiró y se pesó cada una de sus partes. Posteriormente se determinó el contenido de humedad de una porción representativa del parénquima interno y externo, a través de una mufla a 30º C hasta conseguir peso constante. Luego se procedió a moler la yuca en húmedo, para disponerla en un secador de bandejas; una vez seca la yuca se tomaron porciones de ésta para molerla en un molino de cuchillas hasta un tamaño de partícula de 400 µm, aproximadamente, y se realizó un análisis de tamizado con mallas que comprendieron de la número 20 a la 50. La yuca se caracterizó en base seca en cuanto su contenido de proteína por el método Kjeldahl y el contenido de almidón mediante hidrólisis ácida por 2,5 horas en ebullición y reflujo constante; posteriormente, se neutralizó y se procesaron las muestras por el método DNS (determinación de azúcares reductores) para, finalmente, correlacionar este valor con el contenido de almidón.


[86]

Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy

Figura 1. Corte transversal de la raíz de yuca

2.3 Hidrólisis enzimática Para la hidrólisis de yuca se realizaron 12 ensayos en total, como se observa en la tabla 1. A su vez, para el parénquima interno se estableció una relación de sólidos: agua de (25:75) y para el parénquima externo de (30:70). Tabla 1. Definición y nomenclatura de los ensayos

Ensayo

Variedad I

Variedad II

P. P. P. P. Interno Externo Interno Externo

Variedad III P. Interno

P. Externo

Proc. Convencional

1

2

3

4

5

6

Proc. Low-Energy

7

8

9

10

11

12

2.3.1 Proceso Convencional En el proceso convencional se consideró la etapa de licuefacción y sacarificación por separado, a cargo de una alfa-amilasa y una gluco-amilasa comerciales, respectivamente. Para la hidrólisis enzimática se procedió a realizar primero una etapa de gelatinización en un rango de temperatura entre 50-65º C (Badui D., 2006) y agitación manual; posteriormente, se adecuó un reactor enchaquetado con una tapa de tres bocas, un motor con turbina

Revista Tecnológicas


Revista Tecnológicas

Rushton y un baño termostatado Julabo. En la primera etapa de hidrólisis, conocida como licuefacción, se ajustó la agitación, el pH con una solución de H2SO4 1 N y la temperatura, luego de esto se adicionó la proporción de alfa-amilasa correspondiente; estas últimas tres variables según lo especificado por la ficha técnica. El seguimiento se realizó cualitativamente (reacción con solución de yodo) y se extrajeron muestras a diferentes intervalos de tiempo, para la primera etapa fueron de aproximadamente 10 min. y para la segunda etapa de 1 hora, datos que posteriormente se analizaron por el método DNS. La etapa de licuefacción se dio por terminada cuando la prueba de solución de yodo fue negativa. Finalmente para la última etapa denominada sacarificación se volvió a ajustar la agitación, el pH, temperatura y se adicionó la gluco-amilasa comercial, según lo recomendado por la ficha técnica. Igualmente se tomarán muestras a diferentes tiempos inactivando la actividad enzimática en un baño de hielo, para posterior determinación de la formación del producto mediante el método DNS (Miller, 1959).

2.3.2 Proceso Low-energy La enzima comercial de acción bifuncional permite realizar la etapa de licuefacción y sacarificación simultáneamente a temperatura ambiente (requerimientos energéticos bajos). El procedimiento para realizar el seguimiento a esta reacción comprendió una etapa de gelatinización previa al contacto enzima-sustrato, luego se adecuó la agitación y el pH, según lo especificado en la ficha técnica y finalmente se adicionó la enzima y se tomaron muestras a diferentes tiempos (inactivándolas) para luego ser analizadas empleando el método DNS.

2.4 Seguimiento cualitativo y cuantitativo de la reacción 2.4.1 Seguimiento cualitativo (solución de yodo) El seguimiento cualitativo de la hidrólisis enzimática de yuca correspondió al análisis del complejo almidón-yodo que se establece con la cadena de amilosa evidenciándose una coloración azul

[87]


Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy

intensa; cuando esta coloración cambia es resultado negativo de la prueba y por tanto se puede dar por terminada la primera etapa del proceso convencional correspondiente a la licuefacción.

2.4.2 Seguimiento cuantitativo (método DNS) Cuantificar la formación del producto a través del tiempo se realizó mediante el método analítico DNS, el cual consistió en hacer reaccionar las muestras problema a diferentes diluciones con el ácido 3,5-dinitrosalicílico; el producto se analizó con la densidad óptica del color producido en un espectrofotómetro Spectronic 20 a 540 nm, reportándose diferentes valores de absorbancias, los cuales se correlacionaron con la curva de calibración ajustada a este equipo (figura 2). Absorbancia

[88]

1 y = 0,7804x - 0,0125 R2 = 0,9936

0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0

0,2

0,4

0,6

0,8

1

1,2

Concentración de Azúcares reductores (g/L) Serie1

Figura 2. Curva de calibración para azúcares reductores

2.5 Ajuste de curvas cinéticas (análisis de datos experimentales) Para ajustar curvas representativas al avance de reacción se procedió a utilizar el programa Statgraphics Centurion, que permite analizar datos experimentales estadísticamente, modelando en primera medida una regresión lineal de la cual se desprende una

Revista Tecnológicas


[89]

Revista Tecnológicas

comparación de modelos alternativos, donde se arrojan valores de correlación ordenados de mayor a menor (con los posibles modelos matemáticos que se ajustan a los datos), de aquí se procede a escoger la mejor tendencia para los datos ajustados, obteniéndose la ecuación que relaciona la concentración o g azúcar/g sólidos en función del tiempo, además se cuenta con parámetros, tales como coeficiente de correlación (r) el cual es un número entre –1 y +1 y mide la fuerza de la relación entre dos variables y el P-valor que se utiliza para determinar si dos variables están relacionadas significativamente la una con la otra. Los pares de variables para los cuales el P-valor es menor que 0.05 exhiben una correlación estadísticamente significativa a un nivel de 5% de significancia. Los modelos pueden también ser usados como una herramienta en el diseño de biorreactores, debido a la información que proveen por la simulación del proceso (Morales et al., 2008).

3. Resultados

y análisis de resultados

3.1 Caracterización de la yuca Luego del análisis de la composición de la yuca se estableció que presenta porcentajes de cáscara, parénquima interno y externo equivalente entre las variedades, los resultados se presentan en la tabla 2, con un promedio de 3,51% para la cáscara, 81,35% para el parénquima interno y 14,85% para el parénquima externo. El valor promedio para el contenido de humedad, almidón y proteína es mayor en las tres variedades para el parénquima externo sobre el parénquima interno; los resultados se presentan en la tabla 3. Tabla 2. Composición de la yuca Parte

Variedad I

Variedad II

Variedad III

Cáscara (%) Parénquima Externo (%)

3,73

3,29

3,51

14,91

15,40

14,24

81,25

80,82

82,01

Parénquima Interno (%)


[90]

Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy

Tabla 3. Contenido de humedad, almidón y proteína de la yuca Variedad I

Variedad II

Variedad III

Contenido

P. Interno

P. Externo

P. Interno

P. Externo

Humedad (%)

60,72

73,41

58,32

65,94

59,96

71,76

Almidón (%)

79,43

74,48

83,69

88,66

73,10

76,29

Proteína (%)

1,30

4,10

1,00

2,30

1,40

4,90

P. P. Interno Externo

3.2 Hidrólisis enzimática 3.2.1 Proceso convencional Los modelos ajustados para establecer la cinética de reacción por medio del programa estadístico, correspondieron a ecuaciones no lineales de los tipos mostrados en la tabla 4. A su vez se observa en la tabla 5 el valor de los parámetros evaluados como el coeficiente de regresión y el P-valor. Al evaluar el coeficiente de regresión se encontró un promedio de 0,933 para el proceso convencional, valor aceptable al ser cercano al valor absoluto de 1. En cuanto al parámetro P-valor se hallaron valores tolerables al encontrarse por debajo de 0,05, lo que representa un 95% de confiabilidad; finalmente las curvas encontradas son características del avance de reacción enzimática (figura 3) ejemplo del ensayo No. 4. Tabla 4. Modelos ajustados vs. ecuaciones representativas5 Modelo

Ecuación representativa

1 A + B × Ln(t )

1. Reciprocal Y-log X

CAR =

2. Double squared

CAR = A + B × t 2 →

5

Resultados tomados del programa estadístico Statgraphics Centurion

Revista Tecnológicas


[91]

Revista Tecnológicas

Tabla 4 (continuación) Ecuación representativa 1

Modelo

CAR =

3. Double reciprocal

CAR =

3. Double reciprocal

1

A+

B t

A+

B t

4. S-curve

B· § CAR = ¸ B ¨ A +  exp CAR = exp A + © t ¹ t  

5. Squareroot rootXX 5. Square

CARCAR = A +=B A × +t

6. Reciprocal rootroot X X 6. ReciprocalY-square Y-square

1 CARCAR = = A+ B× t

4. S-curve

B× t 1

A+ B× t

Ensayo 4 Concentración AR = 1/(0,00461188 + 0,00906102/tiempo)

Concentración AR (g/L)

180 160 140 120

GZYME 480

100 80 60 40 20 0 0

0,5

1

1,5

2

2,5 3 tiempo (h)

3,5

4

4,5

Figura 3. Concentración de azúcares reductores vs. tiempo

5

Figura 3. Concentración de Azúcares Reductores vs. tiempo


Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy

Tabla 5. Relación de modelos y parámetros ajustados a las curvas representativas encontradas

Ensa-

ceso

yo

Convencional

Pro-

 

Low-energy

[92]

6

Variable depen-

Mode-

diente

lo6

Constante

A

Coefi-

Constante

B

ciente

correla-

PValor

ción

1

Concentración AR (g/L)

1

0,00823 -0,00108 -0,727

0,001

2

g AR/g sólidos

2

0,03627 0,01072

0,987

0,102

3

Concentración AR (g/L)

3

0,00411 0,00311

0,902

0,009

4

Concentración AR (g/L)

3

0,00461 0,00906

0,995

0,000

5

Concentración AR (g/L)

3

0,00296 0,00946

0,987

0,000

6

4

5,21865 -0,59847

0,993

0,001

  7

Concentración AR (g/L) g AR/g sólidos

3

    4,08629 4,98505

  0,771

  0,015

8

g AR/g sólidos

5

0,03981 0,09207

0,895

0,007

9

g AR/g sólidos

6

3,66100 -0,66990 -0,665

0,072

10

g AR/g sólidos

3

5,09223 2,13685

0,667

0,219

11

g AR/g sólidos

1

2,50860 -0,25992 -0,709

0,049

12

g AR/g sólidos

3

6,95764 2,46197

0,481

0,334

Modelos relacionados con la tabla 4.

Revista Tecnológicas


Revista Tecnológicas

3.2.2 Proceso Low-energy Para el proceso low-energy se observa que tanto las ecuaciones y sus parámetros no se ajustaron significativamente al comportamiento propio de una cinética enzimática (figura 4) presentándose el Ensayo 8, el promedio del coeficiente de regresión correspondió a 0,698, valor bastante alejado del límite de confianza; y el 66,67% de los ensayos presentaron un P-valor bastante desviado (> a 0,05) del aceptable estadísticamente. La explicación a que estos modelos no se ajustaron a curvas estadísticamente representativas de cinéticas de reacción, puede verse sujeta a dos hechos, el primero de ellos contempla la posibilidad de que la velocidad de reacción es lenta para la enzima de acción bifuncional empleada en este proceso, por esto al tiempo promedio dejado para reacción (6,73 h) aún no se ha alcanzado el fin de la hidrólisis y, por tanto, no se pueden ajustar modelos significativos de una cinética enzimática hasta el punto evaluado en los ensayos. Como segundo hecho, puede contemplarse la posibilidad de que esta enzima presenta una inhibición por producto y al no verse éste retirado del sistema no permite continuar con el avance de la reacción, de esta manera no se alcanza tampoco el fin de la hidrólisis. En estudios desarrollados por Poosaran et al., (1986) se realizó una sacarificación y fermentación simultánea empleándose enzimas comerciales, aunque se evaluó en el proceso convencional, demostraron rendimientos del 95% y 90% del teórico, empleando Zymomonas mobilis ZM4 y Saccharomyces uvarum ATCC 26602, respectivamente. Esto podría aplicarse tanto a la parte de la sacarificación en el proceso convencional como a la hidrólisis completa para el proceso Low-energy.

[93]


[94]

Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy

Ensayo 8 g azucares sobre g solidos = 0,0398128 + 0,0920655*sqrt(tiempo)

g azúcares/g sólidos

0,3 0,25 0,2 0,15 0,1 0,05 0 0

1

2

3

4 5 tiempo (h)

6

7

8

Figura 4. Gramos azúcar/gramos sólidos vs. tiempo

Figura 4.deGramos azúcar/gramos sólidos vs. tiempo 3.3 Rendimientos reacción

Como observayenparámetros la “Fig. 5-a”ajustados el rendimiento global promedio Tabla 5. Relación dese modelos a las curvas representativas encontra

Ensayo 1 2 3 4 5 6 7 8 9 10 11 12

alcanzado en el proceso convencional correspondió a 76,75%, siendo mayor para el parénquima interno que para el externo; en Constante Constante ♠ Variable cuanto aldependiente rendimiento promedio alcanzado para las dos etapas, Modelo A B se encontró un valor mayor para la primera de ellas: licuefacción Concentración AR (g/L) 1 0,00823 -0,00108 (51,86%) sobre la etapa de sacarificación (24,89%). Y, a su vez, para g AR/g sólidos 0,03627para la primera 0,01072 las dos partes constitutivas de la 2yuca se encontró Concentración (g/L) etapa mayor elAR rendimiento para3el parénquima interno que para 0,00411 0,00311 el externo. Mientras que para la3 segunda 0,00461 etapa el resultado fue Concentración AR (g/L) 0,00906 al contrario. Concentración AR (g/L) 3 0,00296 0,00946 Finalmente, para el proceso low-energy, como se observa en la Concentración AR (g/L) 4 5,21865 -0,59847 “Fig. 5-b”, se alcanzó un rendimiento global promedio de 38,75%, siendo mayor para el parénquima interno que para el externo.

g AR/g sólidos g AR/g sólidos g AR/g sólidos g AR/g sólidos g AR/g sólidos g AR/g sólidos

3 5 6 3 1 3

4,08629 4,98505 0,03981 0,09207 3,66100 -0,66990 5,09223 2,13685 2,50860 -0,25992 6,95764 2,46197 Revista Tecnológicas

Coeficie correlac -0,727 0,987 0,902 0,995 0,987 0,993

0,771 0,895 -0,665 0,667 -0,709 0,481


etapa mayor el rendimiento para el parénquima interno que para el externo. Mientras que para la segunda etapa el resultado fue al contrario. Finalmente, para el proceso low-energy como se observa en la “Fig. 5-b” se alcanzó un Revista Tecnológicas rendimiento global promedio de 38,75%, siendo mayor para el parénquima interno que para[95 el] externo.

Figura Rendimientos promedio para las diferentes etapas y partes de la yuca Figura 5. R5. endimientos promedio para las diferentes etapas y partes de la yuca a) Proceso convencional b) Comparativo proceso convencional vs. Low-energy a) Proceso convencional b) Comparativo proceso convencional vs. low-energy

9


[96]

Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy

4. Conclusiones El efecto global de la hidrólisis de yuca, al tratarse por separado el parénquima interno y externo de la misma, arroja diferencias en la producción de azúcares fermentables. En el proceso convencional para el parénquima interno se encontró mayor rendimiento en la etapa de licuefacción y para el externo mayor rendimiento en la etapa de sacarificación, lo que evaluado como un todo nos reduce eficiencias en el proceso. Comparando los dos procesos se encontró mayor rendimiento para el proceso convencional, pero se recomienda no descartar el proceso low-energy antes de investigar y evaluar mayores tiempos de reacción de los ajustados en este trabajo y si se presenta inhibición por producto realizar la etapa de hidrólisis simultáneamente con la etapa de fermentación y/o ajustar cinéticas representativas de este comportamiento. En cuanto al porcentaje de humedad, contenido de almidón y proteína en base seca, se presentaron valores mayores para el parénquima externo que para el interno. En cuanto a las curvas representativas obtenidas para modelar las cinéticas se encontró que para el proceso convencional el coeficiente de regresión promedio fue estadísticamente aceptable (0,933) y el P-valor estuvo por debajo del valor tolerable (<0,05) encontrándose de esta manera que las curvas y ecuaciones allí encontradas se ajustaron adecuadamente al modelo de una cinética enzimática. Mientras que el resultado arrojado para el análisis de datos experimentales del proceso low-energy, demuestra que la velocidad de reacción para esta enzima de acción bifuncional es lenta o presenta inhibición por producto. Como se mostró en la bibliografía consultada se puede incrementar la eficiencia de la hidrólisis enzimática, hidrolizando no solamente el almidón sino también la celulosa presente en la fibra de la yuca, esto debe evaluarse en próximos trabajos, especialmente en la parte del parénquima externo.

Revista Tecnológicas


Revista Tecnológicas

Bibliografía [1] Romero G., L., (1988). Estudio preliminar para la producción de etanol a partir de una variedad de yuca, Trabajo dirigido de grado en Ingeniería Química, Universidad Nacional de Colombia, Bogotá. [2] Rodríguez, A., Rodríguez G., (2003). Propuesta de acondicionamiento de la planta piloto de producción de bioetanol de la Universidad Autónoma de Colombia para emplear variedades de yuca de los llanos orientales, Trabajo dirigido de grado en Ingeniería Química, Universidad América, Bogotá. [3] Pardo, M., Rivera, P., (2001). Diseño de un bioreactor piloto para hidrólisis enzimática de almidones. Trabajo dirigido de grado en Ingeniería Química, Universidad Nacional de Colombia, Bogotá. [5] Keith J. Laidler, (1958) The chemical kinetics of enzyme action. Oxford. [6] Badui D., S., (2006). Química de los alimentos. México. Pearson Education, Cuarta edición. [7] Amutha R., Gunasekaran P., (2001). Production of Ethanol from Liquefied Cassava Starch Using Co-Immobilized Cells of Zymomonas mobilis and Saccharomyces diastaticus. Journal of Bioscience and Bioengineering, vol. 92, No. 6, 560-564. [8] del Rosario E., Wong R., (1984). Conversion of dextrinized cassava starch into ethanol using cultures of Aspergillus awamori and Saccharomyces cerevisiae. Enzyme Microb. Technol., vol. 6, 60-64. [9] Ejiofor A., Chisti Y., Moo-Young M., (1996). Culture of Saccharomyces cerevisiae on hydrolyzed waste cassava starch for production of bakingquality yeast. Enzyme and Microbial Technology. 519-525. [10] Kosugi A., Kondo A., Ueda M., Murata Y., Vaithanomsat P., Thanapase W., Arai T., Mori Y., (2008). Production of ethanol from cassava pulp via fermentation with a surface-engineered yeast strain displaying glucoamylase. Renewable Energy. 1-5. [11] Kumakura M., Kaetsu I., (1983). Pretreatment of starch raw materials and their enzymatic hydrolysis by immobilized glucoamylase. Enzyme Microb. Technol., vol. 5, 199-203. [12] Miller G., (1959). Use of Dinitrosalicylic acid reagent for determination of reducing sugar. Analytical chemistry Vol. 31 No. 3. 426-428.

[97]


[98]

Evaluación de la sacarificación de yuca mediante el proceso convencional y el proceso low-energy

[13] Monsalve J., Medina V., Ruíz A., (2006). Producción de etanol a partir de cáscara de banano y de almidón de yuca. Dyna, Año 79, Nro. 150. 21-27. [14] Morales S., Álvarez H., Sánchez C. (2008). Dynamic models for the production of glucose syrups from cassava starch”. Food and bioproducts processing. 25-30. [15] Nellaiah H., Karunakaran T., Gunasekaran E. (1988). Ethanol Fermentation of Cassava Starch by Zymomonas mobilis NRRL B-4286. Biomass. 201-207. [16] Poosaran N., Heyes R., Rogers P., (1985). Ethanol Production from Cassava Starch Using a Highly Productive Strain of Zymomonas mobilis and Saccharomyces uvarum ATCC 26602. Biomass. 171-183. [17] Rhee S., Lee G., Han Y., Mohd Z., Yusof I., Han M., Lee K., (1984). Ethanol production from cassava and sago starch using Zymomonas movilis” Biotechnology Letters, vol. 6 No. 9 615-620. [18] Roble N., Ogbonna J., Tanaka H., (2003). A novel circulating loop bioreactor with cells immobilized in loofa (Luffa cylindrica) sponge for the bioconversion of raw cassava starch to ethanol. Appl. Microbiol. Biotechnol. 671-678. [19] Russell I., Crumplen C., Jones R., Stewart G., (1986). Efficiency of genetically engineered yeast in the production of ethanol from dextrinized cassava starch. Biotechnology Letters, vol. 8 No. 3. 169-174. [20] Vljaya O., Reddy S., Basappa S., (1996). Direct fermentation of cassava starch to ethanol by mixed cultures of Endomycopsis fibuligera and Zymomonas mobius: synergism and limitations. Biotechnology Letters Volume 18. 1315-1318. [21] Zhang C., Han W., Jing X,, Pu G., Wang G., (2003). Life cycle economic analysis of fuel ethanol derived from cassava in southwest China. Renewable and Sustainable Energy Reviews. 353-366.

Revista Tecnológicas


Speed

control of induction motor using fuzzy

recursive least squares technique Santiago Sánchez1 Eduardo Giraldo2

Resumen Este artículo presenta el diseño de un controlador adaptativo, el sistema de control emplea lógica difusa adaptativa, modos deslizantes y es entrenado con la técnica de mínimos cuadrados recursivos. El problema de la variación de parámetros es resuelto con el controlador adaptativo; se utiliza un regulador interno PI con el cual se produce que el control de velocidad del motor de inducción sea realizado por medio de las corrientes de estator en vez de los voltajes. Se usa el modelo del motor en el sistema de coordenadas de flujo orientado del rotor para el desarrollo y prueba del sistema de control.

Palabras clave Control adaptativo, lógica difusa, motor de inducción.

Abstract A simple adaptive controller design is presented in this paper, the control system uses the adaptive fuzzy logic, sliding modes and is trained with the recursive least squares technique. The problem

1

2

M.Sc. Ingeniería Eléctrica, Instituto Tecnológico Metropolitano, Docente Investigador, santiagosanchez@itm.edu.co. M.Sc. Ingeniería Eléctrica, Universidad Tecnológica de Pereira, Profesor Auxiliar, egiraldos@ohm.utp.edu.co

Fecha de recepción: 6 de noviembre de 2008 Fecha de aceptación: 12 de diciembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[100]

of parameter variation is solved with the adaptive controller; the use of an internal PI regulator produces that the speed control of the induction motor be achieved by the stator currents instead the input voltage. The rotor-flux oriented coordinated system model is used to develop and test the control system.

Key words Adaptive control, fuzzy logic, induction motor.

Revista Tecnol贸gicas


Revista Tecnol贸gicas

1. Introduction The induction motor (IM) has great variety of applications in industrial process when is used as fans or pumps, heating and air conditioning (Spiegel et al., 2003). The low cost and reliability makes preferable the use of the IM front other type of motor (Leonhard, 2001). The control of IM has a wide variety of techniques, actually the researchers focus their works in the method of vector control or field oriented control, in order to estimate the parameters of the machine Chiasson (2005) describes a polynomial method, Alogne et al. (2001) present a methodology with least squares and genetic algorithms by means off-line identification, alternative methods of identification use stochastic optimization (Ursem et al., 2004), Koubaa (2004) uses the identification procedure with the simple recursive least squares technique, the method is based on the steady state equations of the IM. A standstill on-line parameter estimation is proposed by Fang et al. (2005). The IM dynamic system is highly nonlinear, and has a coupling between flux and torque which makes difficult apply the conventional control. Chiasson (1998, 2005) employs the input-output linearization to control the speed and works with the model of field oriented coordinate system to design the controller system, the nonlinear control has the property to consider the whole dynamic of the system (Sastry, 1999). Bose (2002) presents the methods of scalar control, sensorless, vector control and an advanced scalar control technique, known as direct torque control but has a disadvantage at low speed. These and other methods are affected by the parameter variations and to solve this problem, adaptive nonlinear methods such as adaptive fuzzy control, adaptive input-output feedback linearization technique and adaptive sliding mode (Mezouar et al. 2007) have been used over the IM. The adaptive fuzzy control uses the recursive least square training (Wang, 1992) and is developed under consideration of vector control method, Juang et al. (2007) design a PID fuzzy improved and Chiang et al. (2005) increase the perform of the controller with the addition of heuristic

[101]


[102]

Speed control of induction motor using fuzzy recursive least squares technique

optimization to tune the fuzzy system, Kim et al. (2006) made an identification an tune by the combination of fuzzy and genetic algorithm, an online neuro-fuzzy tuning procedure to adjust the PID gains is describe in (Kim et al. 2006) In (Rehman et al., 2007) an adaptive fuzzy controller is designed but a disadvantage of t­­his system is the training based on the gradient rule to update the approximator parameters, this technique is computationally more expensive than the fuzzy adaptive recursive least squares training system proposed. The principal reason to apply the adaptive fuzzy technique is due that the IM model is a nonlinear system and traditional linear controllers fail at the moment to be used in a entire range of speed operation, linear methods require a linearization around an operating point, additionally the linear controllers need a previous knowledge of parameters of the system to regulate appropriately the plant, a reason to avoid the artificial neural network is the difficult train and modeling. The aim of this work is the design of a speed controller for the induction motor using an adaptive fuzzy tuning. The sections describe the induction motor model, the controller design and the results.

2. Induction

motor model

The model of the electric machine uses the rotor-flux field oriented coordinate system described in (Chiasson 2005), in which is clear and simple to design a speed controller. This model reduces the task of work with two axis of the rotor flux and uses a polar coordinate representation. The system in state space representation is presented in equations (1-6), with θ the angular position in rad, ω the angular speed in rad/s, id and iq represents stator currents in the direct and quadrature axis respectively, φd the magnitude of the rotor field flux, while ρ is the angle of the rotor field flux. The electrical and mechanical parameters are Rr, Rs rotor and stator resistances respectively, Ls, Lr y Lm are the stator, rotor and coupled inductances, J is the moment of inertia, f is the

Revista Tecnológicas


[103]

Revista Tecnológicas

viscous damping constant and TL is the load torque. For simplicity is usually used σ=1-Lm/(LsLR) the linkage factor, η=RR/LR the inverse of time constant, np number of poles pair, μ=npLm/(JLR) and γ=L2mRR/(σL2R Ls)+ Rs/(σLs).

dθ =ω dt T dω f = µϕ d iq − ω − L dt J J dϕ d = −ηϕ d + η Lmid dt iq2  η Lm  did u = −γ id −  ϕ + n ω i + η L + d  d p q m dt ϕd σ Ls  σ Ls Lr 

(1)

 L = −γ iq +  m dt  σ Ls Lr iq dρ = n pω + η Lm dt ϕd

(5)

diq

3. Controller

iq id u  + q  n pωϕ d − n pωid − η Lm ϕ d σ Ls 

(2) (3) (4)

(6)

design

This section presents the technique of nonlinear adaptive control and the sliding modes control. The main idea is to design a field oriented vector control scheme, the method lets control the torque of the induction motor with a decoupling between the torque and flux. Note that the electromagnetic torque Te=Jμφdiq is the product of two state variables and at the same time depends of the magnitude of the rotor flux. In field oriented control the flux along of the q-axis should be zero and in this way the flux is aligned along the d-axis. If the condition mentioned before agree and the flux is kept constant then the current iq will control the speed and now the control system looks like a dc machine controller (Chiasson 1998), (Bose 2002).


[104]

Speed control of induction motor using fuzzy recursive least squares technique

The developed method in this work is the direct adaptive fuzzy control, which uses an adaptive fuzzy approximator to approximate the controller, and guarantee that the output error decreases. The control law u is approximated through a training of fuzzy logic systems using recursive least squares (FRLS) and sliding mode (SM), the system is given by (7). (7)

y = f ( x) + g ( x)u

Where y is the output of the system, f ( x) and g ( x) are smooth vector fields. There exist g0 and g1 such that 0 < g 0 ≤ g ( x) < g1 < ∞ , ∂g x ≤ G ( x) for all x ∈ S x . and exist G ( x) ≥ 0 such that g ( x) = ∂x where S x ⊆ ℜn is the space of the state trajectory. Using feedback linearization we have an ideal control law in (8).

u=

1 (− f ( x) + u (t )) g ( x)

(8)

where u (t ) = y m + δ es + es , es = es − e0 and δ > 0. ym is the desired output trajectory, the tracking error is defined by es and e0=ym-y, thus es = es − e0 , such that es = e0 . The goal of the adaptive controller is to learn how to control the plant to carry the tracking error close to zero. The control law u could be expressed like the equation (9).

u = uˆd + du ( x)

(9)

Where uˆd is the controller approximated by FRLS (Wang, 1992, 1994), du ( x) is the bounded approximation error. Then consider the direct adaptive controller (Rehman et al., 2007): (10)

ud = uˆd + usd

In (10) usd = k sgn(es ) is a term of control by sliding modes, where k is the constant that ensures that y, uˆd and usd are bounded, and the error magnitude goes to zero or near to zero.

Revista Tecnológicas


[105]

Revista TecnolĂłgicas

4. Results Induction motor parameters used in simulations are Rs = 0,19 â&#x201E;Ś , Rr = 0,39 â&#x201E;Ś , Lr =4,6 mH Ls = 4,20 mH, Lm = 4,00 mH, np = 2, J = 0,0226 Kgm2, f = 0,00014 Nm/rad/s. Simulation results are shown in Fig. 2, 3 and 4, the load torque is set constant in 5 Nm, the initialization values of the FRLS to adaptive training are set in the same way like the values of the linear recursive least squares algorithm. An internal PI is used such that the stator currents are the control variables. The current by the d axis is kept constant and then the current iq is employed to control the IM and is the other reference of the PI regulator, this can be seen the IM and is the other reference of the PI regulator, this can be seen in the in the resulting system of Fig. 1, we can appreciate the full control resulting system of Fig. 1, wewhere can appreciate full control system implemented; system implemented; the FRLSthe controller uses the tracking where the and FRLSproduce controller usesofthe and produce a part error a part thetracking currenterror reference, the other partof the is produced sliding current reference, by the the other part is controller. produced by the sliding controller.

Fig. 1. System model

Fig. 1. System model.

Fig. 2 presents the speed variation in closed loop, at the beginning thespeed system outputinhas an loop, error atrespect to the speed Fig. 2 presents the variation closed the beginning the system reference which is reduced around 0.1s, this can be also observed output has an error respect to the speed reference which is reduced around 0.1s, in the plot of the tracking error (Fig. 3); due to the parameter this can be also observed in the plot of the tracking error (Fig. 3); due to the

parameter initialization of the adaptive system, the pull up of the motor is lead to final speed (188rad/s) in a smooth way. Fig. 4 shows the stator current variation with a speed change and we can see the rotor flux performance. The stator currents and the rotor flux stand inside the limits of the motor.


[106]

Speed control of induction motor using fuzzy recursive least squares technique

initialization of the adaptive system, the pull up of the motor is lead to final speed (188rad/s) in a smooth way. Fig. 4 shows the stator current variation with a speed change and we can see the rotor flux performance. The stator currents and the rotor flux stand inside the limits of the motor.

Fig. 2. Motor speed and reference speed

Fig. 2. Motor speed and reference speed.

Fig. 5 shows the behavior of a conventional PID and the hybrid fuzzy recursive method is in Fig. 2. The start of the motor is made with the fuzzy controller and the PID, a lower mean square error (MSE) is achieved by the adaptive controller. Table 1 shows this comparison, where performance of the hybrid controller (Fuzzy RLS and SM) is higher than the others controllers. The MSE is computed like (11) with T=7s and T=5s respectively.

Revista Tecnol贸gicas


Fig. 2. Motor speed and reference speed.

[107]

Revista Tecnolรณgicas

Fig. 3. Tracking error

MSE =

1 T

t =T

(11)

โˆซ e dt 2

t =0

Table 1. MSE summary for the controllers Controller

MSE (TL=5Nm)

PID

0,7980

Fuzzy RLS and SM

0,0026

In order to make a comparison of the performance shown in Rehman et al. (2007), when the TL=0 Nm and highlighting that they did not give information of the used induction motor parameters, from the table 2 we can observe that the MSE obtained with the training FRLS algorithm is lower, and the tracking error of Fig. 6 shows a similar behavior to the error of Fig. 3, but has the peak around 3 rad/s. To make comparisons we convert the error from rad/s to rpm and later calculate the MSE. The speed and reference speed in Fig. 7 reach the 188 rad/s.


[108]

Speed control of induction motor using fuzzy recursive least squares technique

Table 2. MSE summary Controller

MSE (TL=0Nm)

Direct adaptive fuzzy

5,0749

Indirect adaptive fuzzy

8,798

Fuzzy RLS and SM

0,7768

5. Conclusion

and discussion

It has been shown a speed controller of the induction motor through a combined technique that employs the fuzzy logic and sliding modes. The intelligent controller implemented in this work gives an advantage over the classical nonlinear and linear control techniques because it considers the parameter variation and therefore controller parameters are estimated in an adaptive form. The adaptive technique makes unnecessary the use of a flux estimator that makes computationally heavy the system. Fig. 3 shows that tracking error tends to zero at the beginning of the implementation controller, which shows the performance of the controller implemented. The fuzzy adaptive controller uses the heuristic and the mathematical model to be implemented; this gives the advantage over other controllers.

Fig. 4. Stator currents and rotor flux

Revista Tecnol贸gicas

Fig. 4 Stator currents and rotor flux.


[109]

Revista Tecnol贸gicas

Fig. 4 Stator currents and rotor flux.

FigFig. . 5. PID speed control 5 PID speed control.

Fig. 6. Tracking error TL=0 Nm

Fig. 6 Tracking error TL=0 Nm.


Fig. 6 Tracking error TL=0 Nm.

[110]

Speed control of induction motor using fuzzy recursive least squares technique

Fig. 7 Speed tracking TL=0 Nm.

Fig. 7. Speed tracking TL= 0 Nm

References Alogne, F. D’Ippolito, F. and Raimondi, F. M. (2001). Least squares and genetic algorithms for parameter identification of induction motor. Control engineering practice. 9. 647-657. Bose, B. K. (2002). Modern Power Electronics and AC Drives. United States of America: Prentice Hall. Chiang, C. L. and Su, C. T. (2005). Tracking control of induction motor using fuzzy phase plane controller with improved genetic algorithm. Electric power system research.73. 239-247. Chiasson, J. (1998). A new approach to dynamic feedback linearization control of an induction motor. IEEE Transactions on Automatic Control, 391-397. Chiasson, J. (2005). Modeling and High Performance Control of Electric Machines. New Jersey: IEEE Press on Power Energy, Wiley-Interscience.

Revista Tecnológicas


Revista Tecnol贸gicas Fang, C. H. Lin, S. K. and Wang S. J. (2005). On-line parameter estimator of an induction motor at standstill. Control engineering practice. 13. 535540. Juang, Y. T. Chang, Y. T. and Huang, C. P. (2008). Design of fuzzy PID controllers using modified triangular membership functions, Information sciences, international jurnal. 178. 1325-1333. Kim, S. M. and Han, W. Y. (2006). Induction motor servo drive using robust PID-like neuro-fuzzy controller. Control engineering practice. 14. 481487. Koubaa, Y. (2004). Recursive identification of induction motor parameters. Simulation modeling practice and theory. 12. 363-381. Leonhard, W. (2001). Control of electrical drives. Third edition. Springer. Mezouar, A. Fellah, M. K. and Hadjeri, S. (2007). Adaptive sliding mode observer for induction motor using two-time-scale approach. Electric power system research. 77. 604-618. Rehman, H. and Nounou, H. N. (2007). Application of fuzzy control to ac machines. Applied soft computing. 899-907. Sastry, S. (1999). Nonlinear Systems, Analysis stability and control. Springer. Spiegel, R.J. Turner, M.W. and McCormick, V.E. (2003). Fuzzy-Logic-based controllers for efficiency optimization of inverter-fed induction motor drives. Fuzzy sats and systems.137. 387-401. Ursem, R.K. and vadstrup, P. (2004). Parameter identification of induction motor using stochastic optimization algorithms. Applied soft computing. 49-64. Wang, L. X. and Mendel, J. M. (1992). Fuzzy basis functions, Universal approximation, and orthogonal least-squares learning. IEEE Transactions on neural networks. 3. 5. September. 807-814. Wang, L. X. (1994). Adaptive Fuzzy Systems and Control. Design and stability. New Jersey. Prentice Hall.

[111]


Reconocimiento de emociones en el habla Julián David Echeverry Correa1 Mauricio Morales Pérez2

Resumen Se presenta en este trabajo una metodología para la caracterización de la señal de voz aplicada al reconocimiento de estados emocionales. Son estudiadas cuatro emociones primarias (alegría, enojo, sorpresa y tristeza) y un estado neutral. Se realizó un análisis en el dominio temporal y un análisis acústico empleando los MFCC (Mel Frequency Cepstral Coefficients). Las pruebas comprueban la efectividad de la metodología en el reconocimiento de las emociones superando el reconocimiento realizado por un grupo de personas. Se obtiene un porcentaje de 94.00% de acierto en el reconocimiento de emociones trabajando sobre la base de SES (Spanish emotional speech).

Palabras clave Reconocimiento de emociones, procesamiento señal de voz,

MFCC.

Abstract A methodology of feature extraction in emotional speech for emotion recognition is proposed. Four primary human emotions, including happiness, anger, surprise and sadness are investigated.

Ingeniero Electrónico, M.Sc. en Ingeniería Eléctrica. Profesor del Programa de Ingeniería Eléctrica. Universidad Tecnológica de Pereira. 2 Ingeniero Electricista. Estudiante Maestría en Ingeniería Eléctrica. Universidad Tecnológica de Pereira. 1

Fecha de recepción: 7 de noviembre de 2008 Fecha de aceptación: 11 de diciembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[114]

In order to recognize emotional states, acoustic MFCC (Mel frequency cepstral coefficients) and time representation features are extracted from voice recordings. Experiments indicate that emotion recognition effectiveness comparable to human listeners can be achieved. Recognition accuracy of 94.00% for emotion detection was obtained from database SES (Spanish emotional speech).

Key words Emotion recognition, signal speech processing, MFCC.

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción Múltiples investigaciones han abordado el tema del procesamiento de la señal de voz con el fin de encontrar patrones que permitan la identificación del locutor, el reconocimiento de palabras o la generación de voz sintetizada. Pero sólo algunas investigaciones se han encaminado al reconocimiento de emociones a partir de la señal de voz. Los primeros estudios sobre la influencia de las emociones en el comportamiento de los seres fueron realizados por Darwin (Darwin, 1873), quien vinculó la expresión sonora de las emociones al instinto, o cuanto menos, a conductas heredadas y por tanto, que pueden aparecer en el individuo de modo totalmente involuntario. Desde ese momento, la expresión emocional ha tendido a ser considerada como el carácter del habla humana más claramente universal y transcultural. La voz está directamente relacionada con los diferentes estados emocionales, ya que éstos producen cambios a nivel fisiológico en el aparato fonador. Por ejemplo una palabra expresada con estado emocional triste presenta baja intensidad y corta duración, en comparación con la misma palabra expresada con un estado emocional alegre o sorprendido. Diferentes investigaciones han encontrado algunos de los componentes del habla que se emplean para la expresión de emociones: el pitch, la calidad de voz y la duración del habla (Scherer, 1979). Se plantea, entonces, el desarrollo de una metodología que permita la extracción de parámetros representativos del habla, empleando para dicha extracción un análisis temporal y acústico de la señal de voz, con el fin de determinar el estado emocional en el que se encuentra un hablante. Dicha metodología pretende ser implementada en dispositivos programables para trabajo en tiempo real, de modo que pueda identificar, reconocer y seguir los cambios emocionales. Entre otras aplicaciones serviría como una herramienta de ayuda en el diagnóstico y tratamiento de enfermedades psicológicas como los trastornos de ansiedad.

[115]


[116]

Reconocimiento de emociones en el habla

2. Metodología Con el fin de realizar el procesamiento de la señal, se emplea la metodología presentada en la figura 1. Señal de voz

Segmentación

Caracterización

Clasificación

Figura 1. Metodología empleada para el procesamiento de la señal de voz

2.1 Segmentación La voz es una señal biológica resultado de un proceso aleatorio con carácter estacionario o no, según la longitud del intervalo de observación. Generalmente se examina en intervalos de tiempo suficientemente cortos (entre 20 y 60 ms) donde sus características estadísticas permanecen invariantes (Ávila & Quintana, 1994). Para definir el intervalo de estacionariedad, la señal fue dividida en intervalos de longitud L sobre los cuales se aplicó el test estadístico run test (Shamugan, 1998) obteniéndose una duración de 30 ms como intervalo óptimo de estacionariedad. La señal fue segmentada por medio de ventanas rectangulares de 30 ms y un traslape del 50% con el fin de reducir pérdida de información por los bordes de las ventanas.

2.2 Caracterización Para la extracción de características se emplearon técnicas que representaran el comportamiento temporal y espectral de la señal, obteniendo parámetros referentes a las componentes del habla relacionadas con la expresión emocional. Las técnicas de extracción empleadas son raw data y MFCC.

2.2.1 Raw Data Raw data, como su nombre lo indica (datos crudos). Este tipo de análisis consiste en trabajar directamente sobre todo el universo de datos en el dominio temporal, es decir, la señal no es llevada a

Revista Tecnológicas


Revista TecnolĂłgicas

[117]

ningĂşn tipo de representaciĂłn o reducciĂłn previa de parĂĄmetros. En la figura 2 se muestra la evoluciĂłn temporal de la palabra /vivirĂĄs/ en diferentes estados emocionales.

Figura 2. EvoluciĂłn temporal palabra /vivirĂĄs/ en diferentes estados emocionales. F igura 2. EvoluciĂłn temporal palabra /vivirĂĄs/ en diferentes estados emocionales

Luego de la segmentaciĂłn, sobre cada una de las tramas de la seĂąal se calcularon Luego de la segmentaciĂłn, sobre cada una de las tramas los siguientes estadĂ­sticos: mediana, mĂĄximo,estadĂ­sticos: mĂ­nimo, desviaciĂłn de la momentos seĂąal se calcularon losmedia, siguientes momentos mediana, mĂĄximo, mĂ­nimo, desviaciĂłn estĂĄndar, varianza, estĂĄndar,media, varianza, asimetrĂ­a y curtosis. asimetrĂ­a y curtosis. TambiĂŠn fueron los conocidos parĂĄmetros conocidos como: de la TambiĂŠn fueron extraĂ­dos losextraĂ­dos parĂĄmetros como: perturbaciĂłn perturbaciĂłn de la amplitud, perturbaciĂłn de la amplitud amplitud, perturbaciĂłn de la amplitud mĂĄxima o Shimmer y coeficiente de mĂĄxima o Shimmer y coeficiente de amplitud. amplitud. Para el cĂĄlculo de la perturbaciĂłn de la amplitud, que es simplemente una medida de la variaciĂłn de la amplitud de la seĂąal Para el cĂĄlculo dedistintas la perturbaciĂłn dese la empleĂł amplitud, es simplemente una medida de para las tramas, la que ecuaciĂłn 1. la variaciĂłn de la amplitud de la seĂąal para las distintas tramas se empleo la 1 N â&#x2C6;&#x2019;1 A ( â&#x2C6;&#x2018; i + 1) â&#x2C6;&#x2019; A(i) ecuaciĂłn 1. N â&#x2C6;&#x2019; 1 i =1 (1) V (p ) = N 1 1 N â&#x2C6;&#x2019;1 1 â&#x2C6;&#x2018; A(i) ÂŚ A(i  1)  A(i) N i =1 N 1 i 1 1 V p

1 N 1 ÂŚ A(i) N i1  Donde A(i) es el valor de la amplitud para la muestra i, N es el nĂşmero de muestras de la trama y V(p) es el valor de la perturbaciĂłn de la amplitud para la trama p.


[118]

Reconocimiento de emociones en el habla

Donde A(i) es el valor de la amplitud para la muestra i, N es el nĂşmero de muestras de la trama y V(p) es el valor de la perturbaciĂłn de la amplitud para la trama p. Para el cĂĄlculo del Shimmer, que es una medida de la variaciĂłn de la amplitud mĂĄxima (pico a pico) de todas las tramas, se empleĂł 1 2.N 1 la ecuaciĂłn ÂŚ A max(i  1)  A max(i) N  1 i N1 1 1 Sh 2 1 i  1)  A max(i ) 1 AN max( ÂŚ (2) N  1 i 1 ÂŚ A max(i ) Sh 2 N i 1N 1  1

ÂŚ A max(i)

N i1  Donde Amax(i) es el valor de la amplitud mĂĄxima de la trama i, N es el nĂşmero Dondedel A Shimmer (i) es el valor la amplitud mĂĄxima de la trama i, N de tramas y Sh es el de mĂĄxima lade seĂąal. Donde Amax (i) es el valor valor demax la amplitud de la trama i, N es el nĂşmero es el nĂşmero de tramas y Sh es el valor del Shimmer de la seĂąal.

de tramas y Sh es el valor del Shimmer de la seĂąal. amplitud es unaestĂĄndar medida relativa de la desviaciĂłn iciente de amplitud El es coeficiente una medidadede la desviaciĂłn de la

estĂĄndar relativa la amplitud, calculado la razĂłn entre d, calculado como la razĂłn entre de la desviaciĂłn estĂĄndar de como la amplitud y el ficiente de amplitud es una medida de la desviaciĂłn estĂĄndar relativa de la desviaciĂłn estĂĄndar de la amplitud y el valor promedio delala omedio de la amplitud como se se muestra en en la ecuaciĂłn 3. 3. amplitud como la ecuaciĂłn ud, calculado como la razĂłn entremuestra la desviaciĂłn estĂĄndar de la amplitud y el

romedio de la amplitud como seNmuestra en la ecuaciĂłn 3. 1 1 2 A(i  1)  A(i )

ÂŚ (3) N i1 3 Ca p

N 1 N  1 1 1 2 ÂŚ A(iA(1i ))  A(i )

ÂŚ N i N1 i 1 3 Ca p

1 N 1 Donde A es el valorDonde de laAamplitud para ÂŚ A(lai) muestra i, N es el nĂşmero de es el valor N i 1de amplitud para la muestra i, N es el nĂşmero de muestras de la del trama y Ca(p) es valor del para coeficiente muestras de la trama y Ca(p) es el valor coeficiente deelamplitud la Donde A es el de valor de la amplitud para la muestra i, N es el nĂşmero de amplitud para la trama p. rama p. Se obtienen un el total de del diezcoeficiente parĂĄmetrosdeentre los momentos muestras de la trama y Ca(p) es valor amplitud para la estadĂ­sticos, la perturbaciĂłn de amplitud y el coeficiente de

trama p. estas caracterĂ­sticas dinĂĄmicasestadĂ­sticos, pues se calcula ienen un total amplitud, de diez parĂĄmetros entre losson momentos la un

valor para cada una de las tramas de la seĂąal y toman el nombre de aciĂłn de amplitud y el coeficiente de que amplitud, estas estudiado caracterĂ­sticas son contornos dinĂĄmicos, ya el parĂĄmetro varĂ­a respecto tienen un total de diez parĂĄmetros entre los momentos estadĂ­sticos, la al tiempo. Elpara Shimmer considera una caracterĂ­stica cas pues se calcula un valor cadase una de las tramas de la seĂąalestĂĄtica y tomanpues baciĂłn de amplitud y el coeficiente de amplitud, estas caracterĂ­sticas son calcula unya valor para toda la seĂąal. bre de contornossedinĂĄmicos quepuntual el parĂĄmetro estudiado varĂ­a respecto al

cas pues se calcula un valor para cada una de las tramas de la seĂąal y toman El Shimmer se considera una caracterĂ­stica estĂĄtica pues se calcula un valor bre contornos parade toda la seĂąal.dinĂĄmicos ya que el parĂĄmetro estudiado varĂ­a respecto al

. El Shimmer se considera una caracterĂ­stica estĂĄtica pues se calcula un valor Revista TecnolĂłgicas fin de trabajar sĂłlo sobre caracterĂ­sticas estĂĄticas se obtiene un vector de l para toda la seĂąal. rĂ­sticas estadĂ­sticas compuesto por la media de cada uno de los contornos de de trabajar sĂłlo sobreUncaracterĂ­sticas obtiene un vector ofin momentos estadĂ­sticos. esquema que estĂĄticas representaseesta metodologĂ­a se de


Revista Tecnológicas

Con el fin de trabajar sólo sobre características estáticas se obtiene un vector de características estadísticas compuesto por la media de cada uno de los contornos de los ocho momentos estadísticos. Un esquema que representa esta metodología se muestra en la figura 3.

Figura 3. Extracción de características estadísticas Figura 3. Extracción de características estadísticas.

Sobre losSobre contornos de perturbación de amplitud y coeficiente de amplitud se extraen los contornos de perturbación de amplitud y coeficiente

amplitud se extraen como características momentos estadíscomodecaracterísticas los momentos estadísticos de:losmedia, mediana, máximo, ticosdesviación de media, mediana, máximo, mínimo, desviación estándar, mínimo, estándar, asimetría y curtosis. asimetría y curtosis.

En total se de un 25 características representan elque comportamiento Enobtuvo total un se grupo obtuvo grupo de 25 que características repre-

sentan el señal. comportamiento temporal señal. de Encaracterísticas el anexo se y su temporal de la En el anexo se encuentradelala totalidad encuentra la totalidad de características y su descripción. descripción.

(Mel frequency coefficients) 2.2.22.2.2 MFCCMFCC (Mel frequency cepstralcepstral coefficients) MFCC está basado en el modelo del sistema auditivo periférico MFCC está basado en el modelo del sistema auditivo periférico (Saha &

(Saha & Yadhunandan, 2004) en el cual la percepción de los contenidos de frecuencia no sigue un comportamiento lineal. Por esto se

Yadhunandan, 2004) en el cual la percepción de los contenidos de frecuencia no sigue un comportamiento lineal. Por esto se hace necesario realizar una medida del contorno de la frecuencia fundamental sobre la escala Mel, que es una escala logarítmica para valores por encima de 1kHz y lineal por debajo de este valor. Para el cálculo de los MFCC fue empleada la función mfcc.m del Auditorytoolbox del software Matlab cuyo algoritmo se describe en la figura 4.

[119]


[120]

Reconocimiento de emociones en el habla

hace necesario realizar una medida del contorno de la frecuencia fundamental sobre la escala Mel, que es una escala logarĂ­tmica para valores por encima de 1kHz y lineal por debajo de este valor. Para el cĂĄlculo de los MFCC fue empleada la funciĂłn mfcc.m del Auditorytoolbox del software Matlab cuyo algoritmo se describe en la figura 4.

Figura 4. Algoritmo para el cĂĄlculo de los MFCC. Figura 4. Algoritmo para el cĂĄlculo de los MFCC

Figura uno 4. Algoritmo el cĂĄlculo de los MFCC. nco de filtros utilizado, cada de los para filtros se encuentra distribuido

En el banco filtros utilizado, uno de de los filtros se encuena la escala Mel (ecuaciĂłn 4),deobteniĂŠndose uncada banco filtros como el

En el banco tra dedistribuido filtros utilizado, cada uno de los filtros se encuentra distribuido conforme a la escala Mel (ecuaciĂłn 4), obteniĂŠndose banco de filtros como el 4), presentado en la figura conforme a launescala Mel (ecuaciĂłn obteniĂŠndose un 5. banco de filtros como el

o en la figura 5.

presentado en la figura 5.

 f mel

f ¡ § 1127.01048 log e ¨1  Hz ¸  4 (4) Š 700 š

 f mel

f ¡ § 1127.01048 log e ¨1  Hz ¸ 4 Š 700 š

Revista TecnolĂłgicas


En el banco de filtros utilizado, cada uno de los filtros se encuentra distribuido conforme a la escala Mel (ecuaciĂłn 4), obteniĂŠndose un banco de filtros como el presentado en la figura 5.

f mel  Revista TecnolĂłgicas

f ¡ § 1127.01048 log e ¨1  Hz ¸ 4 [121] 700 Š š

Figura 5. Banco de filtros pasa banda en la escala Mel Figura 5. Banco de filtros pasa banda en la escala Mel.

Para este trabajo se obtuvieron un total de veinte coeficientes

MFCC por seĂąal, para lo cual se empleĂł un banco de veinte filtros

pasabanda, ademĂĄs se calculĂł la primera y segunda derivada de dichos coeficientes con el fin de obtener vectores de caracterĂ­sticas que representen la dinĂĄmica acĂşstica de la seĂąal de voz. Sobre los vectores de datos correspondientes a los coeficientes MFCC, su primera y segunda derivada se calcularon los siguientes momentos estadĂ­sticos: media, mediana, mĂĄximo, mĂ­nimo, desviaciĂłn estĂĄndar, asimetrĂ­a y curtosis, con el fin de emplearlos como caracterĂ­sticas estĂĄticas. En el anexo se presentan las 24 caracterĂ­sticas y su respectiva descripciĂłn extraĂ­das a partir de los MFCC.

2.3 ClasificaciĂłn A partir de las caracterĂ­sticas escogidas, se procede a la etapa de clasificaciĂłn con el objetivo de validar la metodologĂ­a de caracterizaciĂłn y entrenar un sistema capaz de realizar el reconocimiento automĂĄtico de emociones. Para este caso se empleo un clasificador basado en la teorĂ­a de Bayes, debido a su fĂĄcil implementaciĂłn y poca influencia dentro del proceso, lo que lo hace adecuado para validar la metodologĂ­a de caracterizaciĂłn.


[122]

Reconocimiento de emociones en el habla

El teorema de Bayes establece que la probabilidad de la clase Wi, dado el vector de características X, es igual a la probabilidad a priori de la clase por la función de densidad de probabilidad p(X / Wi) sobre la probabilidad total de las muestras, como se observa en la ecuación 5. p x  P(wi ) wi  =  X p(x )

( )

PW

(5)

Se considera que al tener igual número de señales por clase las probabilidades a priori de cada clase deben ser iguales y con un valor de (0.2). Para la función de densidad de probabilidad se emplea una sola Gaussiana, donde la varianza y la media se calculan de acuerdo con las ecuaciones 6 y 7.

X=

1 N −1 ∑ Xi n i =0

σ2 =

2 1 N −1 2 Xi − X ∑ n i =0

(6) (7)

Con el fin de validar el sistema de identificación, la base de datos es dividida en dos grupos: uno de entrenamiento y otro de prueba. Para este caso, se utilizó el método de validación cruzada leave-one-out, en el cual una sola señal de la base de datos se emplea como prueba y las restantes como entrenamiento; este proceso se repite sucesivamente hasta que todas las señales hayan sido utilizadas para prueba. Las pruebas de validación se realizaron para los dos grupos de características obtenidos mediante raw data y MFCC. En la validación se tuvieron en cuenta todas las posibles combinaciones de cada uno de los grupos de características, con el fin de determinar cuales características presentaban el mejor acierto global de identificación (es decir el acierto promedio de todos los estados emocionales), para el caso de las 25 características obtenidas empleando el raw data se realizó la validación cruzada

Revista Tecnológicas


Revista Tecnológicas

de las 225 posibles combinaciones, así mismo se realizó la validación cruzada de las 224 posibles combinaciones de las características obtenidas con lo MFCC. Por último, luego de obtener las características más discriminantes para el reconocimiento de emociones a partir del análisis temporal y acústico, se realiza una nueva validación utilizando ambos grupos de características discriminantes y todas las posibles combinaciones.

3. Materiales Se trabajó sobre la base de datos SES3, la cual es una base de datos monolocutor de habla emocional en español en la que el locutor, un actor profesional, simula habla en cuatro estados emocionales (triste, alegre, sorprendido, enfadado) y un estado neutro (Montero, Gutiérrez, Palazuelos, Aguilera, & Prado, 1998). Consta de diversas sesiones de grabación, donde cada sesión contiene diversas palabras, frases o párrafos. Los ficheros de voz son archivos *.PCM, grabados a 16 kHz, 16 bits, sin cabecera y en formato Intel (little endian). En total consta de 30 palabras, 14 frases y 4 párrafos con cada uno de los estados emocionales mencionados. Este trabajo se realizó sobre las 30 palabras aisladas en cada uno de los diferentes estados emocionales. En la tabla 1 se muestra la matriz de confusión de la identificación de emociones realizada por receptores humanos sobre la base de datos SES; dicho estudio fue realizado por los creadores y propietarios de la base de datos SES.

3

Esta base de datos es propiedad de la Universidad Politécnica de Madrid, Departamento de Ingeniería Electrónica, Grupo de Tecnología del Habla, ETSI Telecomunicación, Ciudad Universitaria, 28040 Madrid España.

[123]


[124]

Reconocimiento de emociones en el habla

Tabla 1. Matriz de confusión reconocimiento de emociones realizada por receptores humanos sobre la base de datos SES

Salida Entrada

Alegre

Enojado

Neutro

Sorprendido

Triste

Alegre

61.9%

7.9%

3.2%

11.1%

9.5%

76.2%

1.6%

7.9%

3.2%

90.6%

1.6%

4.8%

81.0%

Enojado Neutro

95.2% 3.2%

Sorprendido Triste

6.3%

7.9%

Todos los algoritmos de procesamiento fueron desarrollados sobre el paquete de software Matlab versión 7.0.

4. Resultados Se presentan las matrices de confusión y los respectivos porcentajes de acierto en el reconocimiento de emociones para cada una de las metodologías utilizadas: La combinación de características que presentó mejor resultado empleando raw data se presenta en la tabla 2. Tabla 2. Grupo de características discriminantes para el reconocimiento de emociones empleando raw data

Característica

Definición

Maca

Máximo del cociente de amplitud

Mev

Mediana de la perturbación de la amplitud

Mav

Máximo de la perturbación de la amplitud

Asv

Asimetría de la perturbación de la amplitud

Kuv

Curtosis de la perturbación de la amplitud

Mac

Máximo de la señal

Mic

Mínimo de la señal

Sdc

Desviación estándar de la señal

Sh

Shimmer

Revista Tecnológicas


[125]

Revista Tecnológicas

Los resultados de identificación con las características discriminantes empleando raw data se presentan en la tabla 3. Tabla 3. Matriz de confusión reconocimiento de emociones empleando raw data

Salida Eno-

Triste

Acierto (%)

1

2

83.33

0

4

3

70.00

2

23

0

2

76.66

1

1

0

28

0

93.33

3

1

0

2

24

80.00

Entrada

Alegre

Alegre

25

2

0

Enojado

2

21

Neutro

3

Sorprendido Triste

jado

Neutro

Sorprendido

Acierto global

80.66

La combinación de características que presentó mejor resultado empleando MFCC se presenta en la tabla 4. Tabla 4. Grupo de características discriminantes para el reconocimiento de emociones empleando MFCC

Característica

Definición

Mider

Mínimo de la primera derivada de los MFCC

Sdder

Desviación estándar de la primera derivada de los MFCC

Vader

Varianza de la primera derivada de los MFCC

Asder

Asimetría de la primera derivada de los MFCC

Kuder

Curtosis de la primera derivada de los MFCC

Mder2

Media de la segunda derivada de los MFCC

Mader2

Máximo de la segunda derivada de los MFCC

Mider2

Mínimo de la segunda derivada de los MFCC

Vader2

varianza de la segunda derivada de los MFCC

Asder2

Asimetría de la segunda derivada de los MFCC


[126]

Reconocimiento de emociones en el habla

Los resultados de identificación con las características discriminantes empleando MFCC se presentan en la tabla 5. Tabla 5. Matriz de confusión reconocimiento de emociones empleando MFCC Salida Eno-

Triste

Acierto (%)

1

1

86.67

0

0

4

86.67

1

29

0

0

96.67

1

2

0

26

1

86.67

0

4

0

1

25

83.33

Entrada

Alegre

Alegre

26

2

0

Enojado

0

26

Neutro

0

Sorprendido Triste

jado

Neutro

Sorprendido

Acierto global

88.00

La combinación de características que presentó mejor resultado empleando raw data y MFCC se presenta en la tabla 6. Tabla 6. Grupo de características discriminantes para el reconocimiento de emociones empleando raw data y MFCC

Característica

Definición

Mic

Mínimo de la señal

Sdc

Desviación estándar de la señal

Sh

Shimmer

Vader

Varianza de la primera derivada de los MFCC

Asder

Asimetría de la primera derivada de los MFCC

Mder2

Media de la segunda derivada de los MFCC

Mider2

Mínimo de la segunda derivada de los MFCC

Vader2

Varianza de la segunda derivada de los MFCC

Asder2

Asimetría de la segunda derivada de los MFCC

Los resultados de identificación con las características discriminantes empleando raw data y MFCC se presentan en la tabla 7.

Revista Tecnológicas


[127]

Revista Tecnológicas

Tabla 7. Matriz de confusión reconocimiento de emociones empleando raw data y MFCC

Salida Eno-

Entrada

Alegre

Alegre

28

0

0

Enojado

0

28

0

jado

Neutro

Sorpren-

Triste

Acierto (%)

2

1

93.33

1

1

93.33

dido

Neutro

0

1

29

0

0

96.67

Sorprendido

1

0

0

28

1

93.33

Triste

1

1

0

0

28

93.33

Acierto global

94.00

5. Conclusiones • Se desarrolló una metodología para la identificación de emociones a partir de la señal de voz empleando características acústicas y temporales, la cual presentó altos porcentajes de reconocimiento de los diferentes estados emocionales, la metodología se validó por medio de un clasificador bayesiano, que por su simplicidad y poca influencia dentro del resultado garantiza la robustez de las características y su metodología de extracción. • Al comparar la tablas 1 y 7 se comprueba la efectividad de la metodología empleada superando con un 13.02% la identificación realizada por un grupo de escuchas humanos. Sería entonces factible la implementación de un sistema en tiempo real que sirva como herramienta de apoyo a un especialista en tratamientos de enfermedades relacionadas con desórdenes del comportamiento. • Es importante destacar los altos porcentajes de identificación obtenidos, empleando la técnica de datos crudos; las características a partir de este método contienen información sobre la intensidad, duración, acentos, pausas y calidad de voz,


[128]

Reconocimiento de emociones en el habla

los cuales son componentes importantes en la expresión de emociones.

6. Agradecimientos Este trabajo fue financiado por Colciencias y la Universidad Tecnológica de Pereira, bajo el contrato 1110-370-19600. Los autores agradecen al Grupo de Tecnología del Habla, Departamento de Ingeniería Electrónica, Universidad Politécnica de Madrid, especialmente a Juan Manuel Montero el préstamo de la base de datos SES para el desarrollo de este proyecto.

7. Bibliografía Ávila, E., & Quintana, P. J. (1994). Codificación, sintesís y reconocimiento de voz. Universidad de Gran Canaria. Darwin, C. (1873). La expresion de las emociones en los animales y el hombre. Madrid: Alianza. Montero, J. M., Gutiérrez, J., Palazuelos, S., Aguilera, S., & Prado, J. M. (1998). Emotional Speech Synthesis: From Speech Database to TTS . 5th International Conference on Spoken Language Processing. Saha, G., & Yadhunandan, U. (2004). Modified Mel-Frequency Cepstral Coefficient. Proceedings of the IASTED. IEEE. Scherer, K. (1979). Personality makers in speech. Cambridge University Press, pág. 147. Shamugan, K. (1998). Random Signals: Detection Estimation and Data Analysis. Wiley.

Revista Tecnológicas


[129]

Revista Tecnológicas

8. Anexo Características extraídas empleando raw data Característica

Datos crudos

Perturbación de la amplitud

Coeficiente de amplitud

Definición

Mc

Media de la señal

Mec

Mediana de la señal

Mac

Máximo de la señal

Mic

Mínimo de la señal

Sdc

Desviación estándar de la señal

Vac

Varianza de la señal

Asc

Asimetría de la señal

Kuc

Curtosis de la señal

Mv

Media de la perturbación de la amplitud

Mev

Mediana de la perturbación de la amplitud

Mav

Máximo de la perturbación de la amplitud

Miv

Mínimo de la perturbación de la amplitud

Sdv

Desviación estándar de la perturbación de la amplitud

Vav

Varianza de la perturbación de la amplitud

Asv

Asimetría de la perturbación de la amplitud

Kuv

Curtosis de la perturbación de la amplitud

Sh

Shimmer

Mca

Media del coeficiente de amplitud

Meca

Mediana del coeficiente de amplitud

Maca

Máximo del coeficiente de amplitud

Mica

Mínimo del coeficiente de amplitud

Sdca

Desviación estándar del coeficiente de amplitud

Vaca

varianza del coeficiente de amplitud

Asca

Asimetría del coeficiente de amplitud

Kuca

Curtosis del coeficiente de amplitud


[130]

Reconocimiento de emociones en el habla

Características extraídas empleando MFCC Característica

Coeficientes MFCC

Mmfcc Memfcc Mamfcc Mimfcc Sdmfcc Vamfcc Asmfcc Kumfcc Mder Meder Mader Mider

Primera derivada de los MFCC

Sdder Vader Asder Kuder Mder2 Meder2 Mader2 Mider2

Segunda derivada de los MFCC

Sdder2 Vader2 Asder2 Kuder2

Definición Media de los MFCC Mediana de los MFCC Máximo de los MFCC Mínimo de los MFCC Desviación estándar de los MFCC Varianza de los MFCC Asimetría de los MFCC Curtosis de los MFCC Media de la primera derivada de los MFCC Mediana de la primera derivada de los MFCC Máximo de la primera derivada de los MFCC Mínimo de la primera derivada de los MFCC Desviación estándar de la primera derivada de los MFCC Varianza de la primera derivada de los MFCC Asimetría de la primera derivada de los MFCC Curtosis de la primera derivada de los MFCC Media de la segunda derivada de los MFCC Mediana de la segunda derivada de los MFCC Máximo de la segunda derivada de los MFCC Mínimo de la segunda derivada de los MFCC Desviación estándar de la segunda derivada de los MFCC varianza de la segunda derivada de los MFCC Asimetría de la segunda derivada de los MFCC Curtosis de la segunda derivada de los MFCC

Revista Tecnológicas


Distribución

del potencial electrostático en

una placa cuadrada utilizando el método de elementos finitos Jairo Madrigal Argáez1 Jaime Barbosa Pérez2 Manuel Julio García3

Resumen Este artículo expone la solución al problema de la distribución del potencial electrostático en una placa cuadrada mediante el Método de Elementos Finitos (Finite Elements Method, FEM). En este proceso se implementa el método pesaje residual en la formulación débil de la ecuación diferencial de Laplace con condiciones de frontera de Dirichlet para el potencial electrostático. La solución encontrada se basa en la selección de funciones lineales sobre un dominio discretizado en un número finito de elementos geométricos. La estrategia de solución se basa en la implementación del método de Galerkin en la escogencia de la función solución de la ecuación de Laplace llevada a su representación discreta.

Palabras clave Flujo eléctrico, potencial electrostático, laplace, galerkin, elementos finitos. 1

2

3

Físico, Especialista en óptica técnica. Profesor de física de la facultad de Ciencias Básicas, ITM, Medellín, Colombia. jairomadrigal@itm.edu.co Ingeniero Mecánico. Profesor del departamento de Ingeniería Mecánica, Universidad EAFIT, Medellín, Colombia, jbarbosa@eafit.edu.co. Manuel Julio Garcia Ruiz. Director del grupo de mecánica computación Universidad EAFIT, Medellín, Colombia. mgarcia@eafit.edu.co

Fecha de recepción: 13 de julio de 2008 Fecha de aceptación: 4 de septiembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[132]

Abstract This paper presents the solution to the problem of the distribution of the electrostatic potential in a square plate by means of the Finite Elements Method (FEM). In this process the method is implemented minimo remainder in the weak formulation of the equation differential of Laplace with conditions of border of Dirichlet for the electrostatic potential. The found solution is based on the selection of linear functions on a dominion discreet in a finite number of geometric elements. The solution strategy is based on the implementation of the method of Galerkin in the choosing of the function solution of the equation of Laplace taken to its discreet representation.

Key words Electric flow, electrostatic potential, Laplace solution, Galerkin solution, Finite Elements Method (FEM).

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción El método de elementos finitos es una técnica de aproximación numérica que se viene empleando en la solución de problemas en una amplia gama de ambientes técnicos en ciencia e ingeniería donde soluciones numéricas son requeridas. En este documento se expone el Método de Elementos Finitos (FEM) de sus siglas en ingles, en la solución al problema de la distribución del potencial electrostático en una placa cuadrada con condiciones de frontera. El resultado de la aplicación de esta técnica es comparativamente aceptable con la solución analítica tradicionalmente expuesta en la literatura científica4. El FEM se utiliza para desarrollar un procedimiento que permita ponderar una función solución de mínimo residuo o error, tal que se pueda determinar el comportamiento de una función en una región acotada. La elección de la función solución al problema se determina por el método de Galerkin; posteriormente, para efectos de la solución del problema propuesto, la ecuación del promedio residual es llevada a la forma discreta5 mediante la formulación débil y finalmente evaluada sobre un dominio discretizado en un número finito de elementos triangulares lineales. De esta manera se expone una solución al problema de la distribución del potencial electrostático en una placa cuadrada mediante la solución de la ecuación de Laplace con condiciones de frontera de Dirichlet. Los resultados obtenidos con esta técnica se comparan con la solución analítica y se calcula el error. Este ejercicio se fundamenta en la formulación de la técnica de elementos finitos implementada en el libro Lecture Notes on Numerical Análisis por Manuel García [1] y en el libro The Finite Element Method Using Matlab por Young W. Kwon [3]. 4

5

M. Sadiku. Elementos de Electromagnetismo 2° Edición. Compañía Editorial Continental, S.A. México, 1998. p. 236. Manuel Julio García. Lecture Notes on Numerical Analysis. Department of Mechanical Engineering, EAFIT University Medellin, Colombia. Enero de 2004. p. 64.

[133]


[134]

Distribución del potencial electrostático en una placa cuadrada...

La solución analítica está fundamentada en el libro Elementos de Electromagnetismo de Sadiku [2].

2. Desarrollo

del tema

2.1 Cálculo del potencial electrostático en la región interior El potencial electrostático aparece en la literatura como una propiedad del campo eléctrico donde la derivada direccional del potencial electrostático indica la dirección de tendencia del campo eléctrico. La forma como se relacionan matemáticamente estas dos entidades puede expresarse así:

∇V = − E

(1)

Donde V es una función escalar que representa al potencial electroestático, E es el campo eléctrico y ∇ es el operador gradiente. La escogencia de esta representación se fundamenta en el hecho de que los campos eléctricos gozan de la propiedad de ser irrotacionales, y matemáticamente se conoce que el rotacional del gradiente de una función escalar es siempre cero6

∇ × (∇V ) = 0

(2)

Con estos antecedentes y considerando el hecho de que los campos eléctricos satisfacen la condición del flujo presentada por la ley de Gauss, de la forma: ∇E = − ρ

εr

(3)

Es directo el cálculo de (1) y (3) para obtener una relación entre el potencial electroestático y la densidad de carga, cuyo resultado corresponde a la ecuación de Poisson, como se puede apreciar: 6

M. Sadiku. Elementos de Electromagnetismo 2° Edición. Compañía Editorial Continental, S.A. México, 1998. p. 157.

Revista Tecnológicas


[135]

Revista Tecnológicas

∇ 2V = ρ

εr

(4)

Donde  es la densidad de carga y εr es la permitividad eléctrica del medio. onde ρ es la densidad de carga y εr es la permitividad eléctrica del medio. De acuerdo con la geometría del problema es adecuado hacer una representación deladecuado sistemahacer en coordenadas cartesianas, e acuerdo con la geometría del problema es una representación del sistema en ρ Donde es la densidad de carga y ε es la permitividad eléctrica del medio. correspondientes a la delalaecuación ecuación Poisson oordenadas cartesianas, correspondientes a lardescripción descripción de de de Poisson parapara este tipo tipo de delageometrías, que se expresa de la forma: e geometrías, que seeste expresa forma: De acuerdo con la geometría del problema es adecuado hacer una representación del sistema en coordenadas cartesianas, correspondientes a la descripción de la ecuación de Poisson para este tipo d 2V ( x, y ) dde2Vla( xforma: , y ) ρ ( x, y ) (5) de geometrías, que se expresa + = (5) 2 2

dy ε0 2 d V ( x , y ) d V ( x, y ) ρ ( x , y ) +depropuesto = expresan Las para condiciones frontera as condiciones de frontera el problema en la forma:propuesto se dx 2 dy 2 se para ε 0 el problema dx

2

(5)

expresan en la forma:

V ( x) = 0, ∀x = 0, ∧ ,0 ≤ y ≤ a V ( x) = 0, ∀x = b, ∧ ,0 ≤ y ≤ a (6) V ( x) = 0, ∀x = b, ∧x,0= ≤0, y∧≤,0a≤ y ≤ a (6) V ( y ) = 0V,(∀x0) =≤ 0x, ∀ ≤ b, ∧ , y = 0 V ( y ) = V0,(∀ ≤xb=, ∧b,, ∧ y ,=0 0≤ y ≤ a x)0 =≤0x, ∀ V ( y) = V 0 , ∀0 < x < b, ∧ , y = a V ( y) = V V0(,y∀) 0= <0,x∀<0 b≤, x∧≤, yb,=∧a, y = 0 as cuales corresponden a las condiciones V ( y ) = V0 de < x < bde , ∀0frontera ,a∧Dirichlet. ,y =a Las cuales corresponden las condiciones de frontera de Las condicionesVde se expresan en la forma: ( xfrontera ) = 0, ∀xpara = 0el, ∧problema ,0 ≤ y ≤propuesto a

(6)

Dirichlet. Lasdel cuales a las condiciones de frontera l método pesajecorresponden residual consiste en asumir una función de de Dirichlet. prueba que contiene coeficientes El método del pesaje residual consiste en asumir una función esconocidos a determinar. Para este fin seleccionamos una función de peso u ( x, y ) y se de prueba que contiene coeficientes desconocidos por determinar. ondiciona que el promedio del pesaje residualensobre eluna dominio de lade función El amétodo del pesaje residual consiste asumir unafunción función prueba (cero. Para este fin, seleccionamos de pesosea uque x,contiene y ) y secoeficientes desconocidos a determinar. Para este fin seleccionamos una función de peso u ( x, y ) y se condiciona a que el2 promedio del pesaje residual sobre el dominio 2 · § condiciona adeque promedio del pesaje (x, yresidual ) ρ ( x,sobre V ( x, y )sea d V y ) el dominio de la función sea cero. ¸¸dΩ = 0 )¨¨ eldfunción (7) u ( x, yla + cero.2 − 2

³

ε0 ¹ dy § d 2V ( x, y ) d 2V ( x, y ) ρ ( x, y ) · Ω=0 (7) ³ u (x, y )¨¨ dx 2 + dy 2 − ε 0 una¸¸¹drepresentación plicando la extensión de de la ecuación Ω Green ©al teorema de Gauss se obtiene Ω

©

dx

(7)

7) que permite dividir el dominio en región interior y fronteras. Que se puede representar de la orma: Aplicando la extensión de Green al teorema de se obtiene una representación Aplicando la extensión deGauss Green al teorema de Gauss de sela ecuación (7) que permite dividir el dominio en región interior y fronteras. Que se puede representar de la obtiene una representación de la ecuación (7) que permite dividir § du (xforma: , y ) dV ( x, y ) du ( x, y ) dV (x, y ) · § dV ( x, y ) · (8) el+dominio en región ¸dinterior Ω − ³ u (x,yy )fronteras. ρ ( x, y )dΩ +Que Γ=0 ¸drepresentar ³ ¨¨ dx ³ u¨se puede dn ¹ dx de la forma: dy dy ¸¹ Ω© Ω Γn © § du (x, y ) dV ( x, y ) du ( x, y ) dV (x, y ) · § dV ( x, y ) · (8) ¸¸dΩ − ³ u (x, y )ρ ( x, y )dΩ + ³ u¨ − ³ ¨¨ + ¸ dΓ = 0 dx dyregión dy © dn corresponde ¹ © dx corresponde ¹ delΩdominio, la segundaΓn integral a primeraΩintegral a la interior a fuente de carga en el interior y la tercera integral corresponde al flujo de campo eléctrico en la ontera. La primera integral corresponde a la región interior del dominio, la segunda integral corresponde a la fuente de carga en el interior y la tercera integral corresponde al flujo de campo eléctrico en la a solución al problema se simplifica para el propósito de este informe al considerar que la placa no frontera. resenta fuentes de carga. De esta forma la segunda integral en (8) se hace cero y la ecuación


Las cuales corresponden a las condiciones de frontera de Dirichlet. condiciona a que el promedio del pesaje residual sobre el dominio de la función sea cero. El método del pesaje residual consiste que contiene coeficientes § d 2V (en (x, función ) d 2Vuna x, yasumir y ) ρ ( xde , yprueba )· y )¨¨ este2 fin + seleccionamos dΩ = 0 de peso u ( x, y ) y se (7) − desconocidos a determinar. una ¸¸función 2 ³Ω u (x,Para ε0 ¹ dy © dx condiciona a que el promedio del pesaje residual sobre el dominio de la función sea cero.

[136]

Aplicando extensión de Green 2al teorema de Gauss se obtiene una representación de la ecuación Distribuciónladel potencial electrostático en una placa cuadrada... §dividir ( ) d 2V ( xel, ydominio d V en x, región y ) ρinterior ( x, y ) · y fronteras. Que se puede representar de la (7) que permite ¸¸dΩ = 0 (7) u ( x, y )¨¨ + − forma: ε dx 2 dy 2

³

©

Ω

0

¹

§ du (x, y ) dV ( x, y ) dual( xteorema · , y ) dV (xde , y )Gauss y ) ·la ecuación § dV ( x, de Aplicando se obtiene una representación − ³la¨¨ extensión de Green + ¸¸dΩ − ³ u (x, y )ρ ( x, y )dΩ + ³ u¨ dn ¸dΓ = 0 (8) (8) dx dx dy dy © ¹ (7) que permite dividir el dominio en región interior yΩ fronteras. Que seΓnpuede representar de la ¹ Ω© forma: La primera integral corresponde a la región interior del dominio, la segunda integral corresponde a La primera integral corresponde a la región interior del al (flujo § du (xla, yfuente ) dV (xde, y )carga x, y ) ·de campo eléctrico en la du (en x, yel) interior dV (x, y )y· la tercera integral corresponde § dV (8) ¸ ( ) − ³ ¨¨ + , ρ ( , ) d Γ = 0de carga Ω − Ω + d u x y x y d u ¨ ¸ dominio, la segunda integral corresponde a la fuente ³ ³ frontera.dx dn ¹ dx dy dy ¸¹ Ω© Ω Γn ©

en el interior y la tercera integral corresponde al flujo de campo

La solución al problema se simplifica para el propósito de este informe al considerar que la placa no eléctrico en la frontera. La primera integral corresponde a laDeregión interiorladel dominio, la segunda a presenta fuentes de carga. esta forma segunda integral en (8)integral se hacecorresponde cero y la ecuación la fuentediferencial de carga en el interior y la tercera integral corresponde al flujo de campo eléctrico en la (4) se convierte entonces en la ecuación de Laplace, cuya representación en la La solución al problema se simplifica para el propósito de esteforma frontera.débil es:

informe al considerar que la placa no presenta fuentes de carga.

La solución problema elintegral propósito considerar la placa no Dealesta forma se hace la ecuación · informe § du (sex,simplifica ) dVsegunda (x, ypara ) + du (x, y ) dV (dexen (cero yla , este y ) (8) x, y ) ·y que §aldV ¸¸dΩen+ (8)u¨se hace cero presenta fuentes −de ¨¨carga. De esta forma la segunda integral ¸dΓy= la0 ecuación (9) diferencial (4) convierte entonces en¹la ecuación cuya dx se dx en la ecuación dy dnde Laplace, ¹ Ω© Γn ©representación diferencial (4) se convierte entonces dedyLaplace, cuya en la forma débil es: representación en la forma débil es:

³

³

§ du (x, y ) dV (x, y ) du (x, y ) dV ( x, y ) · § dV (x, y ) · ¸¸dΩ + ³ u¨ − ³ ¨¨ + ¸dΓ = 0 dx dx dy dy dn ¹ ¹ Ω© Γn ©

(9) (9)

La discretización del dominio en (9) se desarrolla usando elementos finitos bidimensionales triangulares lineales, para los cuales las variables de interpolación son lineales en x y y en la forma de:

ω = ω (x, y ) = a1 + a2 x + a3 y

(10 - a)

o

a1    ω = ω (x, y ) = [1 x y ]a2  a   3

(10 - b)

La aproximación de la solución depende de la selección de la función de prueba. En este proceso se deben determinar entonces los coeficientes desconocidos ai para lo cual la función de interpolación (10 - a) debe representar las variables nodales en los tres nodos del elemento triangular. Sustituyendo los valores de las coordenadas cartesianas de los nodos se obtiene: ω1  1 x1 y1  a1      ω e = ω 2  = 1 x2 y2  a2  ω  1 x y  a   3   3 3  3 

(11)

Revista Tecnológicas


se deben determinar entonces los coeficientes desconocidos ai para lo cual la función de interpolación (10 - a) debe representar las variables nodales en los tres nodos del elemento triangular. Sustituyendo los valores de las coordenadas cartesianas de los nodos se obtiene:

­ω1 ½ ª1 x1 y1 º ­a1 ½ [137] ° ° ° (11) ω e = ®ω 2 ¾ = ««1 x2 y2 »» ®a2 ¾ °ω ° «1 x y » °a ° ¯ 3 ¿ ¬ 3 3 ¼¯ 3 ¿ Desde donde es posible determinar los valores de las constantes Desde donde es a posible determinar los valores de las constantes ai i. Para un elemento triangular la matriz del elemento es calculada Para un elemento de la triangular forma: la matriz del elemento es calculada de la forma: Revista Tecnológicas°

[K ] = ³ §¨¨ du(dxx, y ) dV dx(x, y ) + du(dyx, y ) dV dy(x, y ) ·¸¸dΩ © ¹ e

e

(12) (12)

e

Ωe

a partir de funciones descritos en a partirdel detipo funciones del(11) tipo descritos en (11).

Donde Ke es la matriz que contiene las pendientes de los planos

Donde Ke es la matriz que contiene las pendientes de los planos evaluadas en cada nodo del 7 evaluadas en cada nodo del elemento triangular7. elemento triangular .

Cada elemento triangular posee nodos asociados con los otros

Cada elemento triangular nodos en asociados con los otros en cuya elementos delposee dominio cuya expansión delelementos dominiodel se dominio construye expansión del dominio se construye una matriz ‘A’ global del sistema que tiene dimensiones n × n una matriz ‘A’ global del sistema que tiene dimensiones n x n siendo siendo n el número de nodos en el dominio.

n el número de nodos en el dominio.

El método de Galerkin selecciona u y V de enfunciones. el mis­­- La El método de Galerkin selecciona las funciones u y V las en funciones el mismo espacio moabstracta espaciode delafunciones. Laesrepresentación representación ecuación (12) expresada como: abstracta de la ecuación (12) es expresada como: a (V , u ) = "(u ) a(V , u ) = (u )

(13)

(13)

Cuya expansión a todo el conjunto de funciones en el dominio puede generalizarse de la manera Cuya expansión a todo el conjunto de funciones en el dominio siguiente:

puede generalizarse de la manera siguiente:

7

AV , u Hyocoong. = ", u The Finite Element Method Using Matlab. 1997. Pag 90 (14) Kwon, Young W;AV Bang, , u = ", u (14)

(14)

AVacuerdo , u = ", u con las propiedades del producto interno (14)(14) puede De De acuerdo con las propiedades del producto interno (14) puede rescribirse en la forma: De acuerdo con las rescribirse propiedades delen producto interno (14) puede rescribirse en la forma: la forma: De acuerdo con las propiedades del producto interno (14) puede rescribirse en la forma:

AV−−"", u, u ==00 AV

(15) (15) (15)

AV − ", u = 0 (15) Ya que u es solución del sistema, en consecuencia Ya que u es solución del sistema, en consecuencia la solución no trivial queda de la forma: Ya que u es solución del sistema, en consecuencia la solución no trivial queda de la forma: la solución nodeltrivial de la la forma: Ya que u es solución sistema,queda en consecuencia solución no trivial queda de la forma: AV − " = 0 (16) AV − " = 0 (16) AV − " = 0 (16) (16) El segundo término de (16) corresponde al término de los flujos que entran a la región por la El segundo término de (16) corresponde al término de los flujos que entran a la región por la frontera de(9) (9) estarían descritos lasalcondiciones condiciones defrontera frontera VonNewman, Newman, tratados El segundo término de (16) corresponde término dedelos flujos que entran a la región por la enen frontera de yyestarían descritos enen las dedeElement Von nono tratados 7 Kwon, Young W; Bang, Hyocoong. The Finite Method Using Matlab. 1997. frontera de (9) y estarían descritos en las condiciones de frontera de Von Newman, no tratados en este documento debido a que no se consideran fuentes externas de campo eléctrico. Así al término este documento debido Pag. a que90. no se consideran fuentes externas de campo eléctrico. Así al término este documento a quelas nocondiciones se considerandede fuentes externas de campoy yeléctrico. Asísealsetérmino restante de (16) (16) debido aplican las condiciones frontera Dirichlet finalmente resuelveel el restante de sese aplican frontera dedeDirichlet finalmente resuelve restantededeecuaciones (16) se aplican las para condiciones de el frontera de Dirichlet yen finalmente sedonde resuelve el sistema lineales conseguir valor del potencial los nodos este valor sistema de ecuaciones lineales para conseguir el valor del potencial en los nodos donde este valor es es sistema de ecuaciones lineales para conseguir el valor del potencial en los nodos donde este valor es desconocidoyyordenar ordenarelelarreglo arreglodedevalores valoresdedemanera maneraque queelelvalor valordeldelpotencial potencialseaseaasignado asignado desconocido al al desconocido y ordenar el arreglo de valores de manera que el valor del potencial sea asignado al nodo correspondiente. nodo correspondiente. nodo correspondiente.

Los resultados resultados obtenidospueden puedenapreciarse apreciarsegráficamente gráficamente en lafigura figura(1). (1). Enésta, ésta,el elrelieve relievedede la Los Los resultadosobtenidos obtenidos pueden apreciarse gráficamente enenla lafigura (1). EnEn ésta, el relieve de la la región y el colorido representan el valor del potencial. En primera instancia no parece haber gran región y el colorido representan el valor del potencial. En primera instancia no parece haber gran región y el colorido representan el valor del potencial. En primera instancia no parece haber gran discrepancia entre lasfiguras figurasizquierda izquierdayyderecha, yderecha, derecha, aparte detres tres picos solución analítica. discrepancia aparte picos la lasolución analítica. discrepanciaentre entrelas las figuras izquierda aparte dedetres picos en en laen solución analítica.


[138]

Distribución del potencial electrostático en una placa cuadrada...

AV , u = ", u

(14)

De acuerdo conEl lassegundo propiedades del producto interno (14) puedealrescribirse forma: término de (16) corresponde término en delalos flujos

que entran a la región por la frontera de (9) y estarían descritos AV − ", ude=frontera 0 (15) en las condiciones de Von Newman, no tratados en este documento debido a que no se consideran fuentes externas Ya que u esdesolución sistema, en consecuencia la restante solución node trivial de la forma: campodel eléctrico. Así al término (16)queda se aplican las condiciones de frontera de Dirichlet y finalmente se resuelve el AV − " = 0 (16) sistema de ecuaciones lineales para conseguir el valor del potencial los nodos donde este valor es desconocido y ordenar el arreglo El segundoentérmino de (16) corresponde al término de los flujos que entran a la región por la dedescritos maneraenque el valor del potencial sea Newman, asignadonoaltratados en frontera dede (9) valores y estarían las condiciones de frontera de Von este documento a que no se consideran fuentes externas de campo eléctrico. Así al término nododebido correspondiente. restante de (16)Los se resultados aplican las condiciones de frontera de Dirichlet y finalmente en se laresuelve el obtenidos pueden apreciarse gráficamente sistema de ecuaciones lineales para conseguir el valor del potencial en los nodos donde este valor es figura (1). En ésta, el relieve de la región y el colorido representan desconocido y ordenar el arreglo de valores de manera que el valor del potencial sea asignado al el valor del potencial. En primera instancia no parece haber gran nodo correspondiente. discrepancia entre las figuras izquierda y derecha, aparte de tres Los resultados obtenidos pueden apreciarse gráficamente en la figura (1). En ésta, el relieve de la picos en la solución analítica.

región y el colorido representan el valor del potencial. En primera instancia no parece haber gran discrepancia entre las figuras izquierda y derecha, aparte de tres picos en la solución analítica.

Figura 1: Distribución del potencial electrostático.

Figura 1. Distribución del potencial electrostático

La solución analítica más usual es determinada mediante la solución de la ecuación diferencial (5). Al evaluar en ésta las condiciones de frontera de Dirichlet descritas en (6) se obtiene

Revista Tecnológicas


[139]

Revista Tecnológicas

La solución analítica más usual es determinada mediante la solución de la ecuación diferencial (5). Al evaluar en ésta las condiciones de frontera de Dirichlet descritas en (6) se obtiene

nπy · §nnπ πxx·¸ senh  n§¨πy  sen ¨ ¸ sen senh    4Vo4Vo∞ ∞ © bb ¹  ©a a ¹ (17) x, y ) = ¦∑ V ( x, yV)(= n π a π   n = 1 , 3 , 5 π n a π n=1,3,5 senh §  · nn⋅⋅ senh ¨ b  ¸ © b ¹

(1

y su representación grafica punto a punto en un dominio más puntual corresponde a la figura (2).

u representación grafica punto a punto en un dominio más puntual corresponde a la figura (2)

Figura Solución analítica Figura 2: 2.Solución Analítica

está por demás resaltar el hecho de que ambas soluciones, esta por demás No resaltar el hecho que ambas soluciones, la FEM y la analítica, s la FEM y la analítica, son aproximaciones numéricas, sin embargo roximaciones numéricas, sin embargo la solución FEM calculada en este ejercicio esta m la solución FEM calculada en este ejercicio está más acorde con las orde con las condiciones iniciales del problema. Los picos que aparece en la parte derecha de ura 1, corresponde a los valores calculados por la ecuación senosoidal 17 para las coordenad rrespondientes a cada nodo del dominio, y como puede apreciarse de la figura 2, la soluci alítica es mas rizada en el extremo mas alejado por efecto de la aproximación senosoidal para or del potencial en esa frontera.

indicativo numérico de las aproximaciones obtenidas por el método en cuestión es dado por


[140]

Distribución del potencial electrostático en una placa cuadrada...

condiciones iniciales del problema. Los picos que aparece en la parte derecha de la figura 1, corresponde a los valores calculados por la ecuación senosoidal 17 para las coordenadas correspondientes a cada nodo del dominio, y como puede apreciarse de la figura 2, la solución analítica es más rizada en el extremo más alejado por efecto de la aproximación senosoidal para el valor del potencial en esa frontera. Un indicativo numérico de las aproximaciones obtenidas por el método en cuestión es dado por el porcentaje de error calculado respecto a la norma. Éste se determina a partir de los valores del potencial electrostático calculado por los dos métodos de solución (FEM y analítico), calculando la norma de la diferencia entre los vectores en comparación dividida por la norma del vector de referencia, que en este caso corresponde a ‘Va’, la solución analítica ya que para efectos del problema se ha considerado la solución FEM como la función de prueba del sistema ‘V’, aquí ‘*’ indica la norma de referencia V − Va * % E (l * ) = Va * Tabla 1. Porcentajes de error entre la solución analítica y solución FEM % Error (l ∞)

18.2759

% Error (l 2)

5.7674

% Error l∞: indica el porcentaje de error con respecto a la norma infinita8. % Error l2: indica el porcentaje de error con respecto a la norma euclidiana.

2.2 Cálculo del gradiente del potencial El gradiente representa la magnitud y la dirección de la máxima rapidez de incremento espacial del potencial escalar V. En la ecuación (1) se puede ver que el gradiente del potencial aumenta en la dirección opuesta a la dirección del campo eléctrico.

8

Manuel Julio García. Lecture Notes on Numerical Analysis. Department of Mecha­ nical Engineering, EAFIT University Medellin, Colombia. Enero de 2004. p. 21.

Revista Tecnológicas


% Error l∞: indica el porcentaje de error con respecto a la norma infinita8. % Error l2: indica el porcentaje de error con respecto a la norma euclidiana.

2.2 Calculo del Gradiente del Potencial Revista Tecnológicas

El gradiente representa la magnitud y la dirección de la máxima rapidez de incremento espacial del potencial escalar V. En la ecuación (1) se puede ver que el gradiente del potencial aumenta en la dirección opuesta a la dirección del campo eléctrico. Para este cálculo se parte de que la función que describe el potencial escalar puede cada región dominio de en Para este calculo se parte de que la función queescribirse describe elen potencial escalar del puede escribirse la forma cada región del dominio de la forma

V ( x, y ) = ¦Vi ( x, y )ω ( x, y )

(18)(18)

i

Y su gradiente en consecuencia Y su gradiente en consecuencia

∇VV ((xx,,yy))== ∇

∂V(x(,xy, )y) ∂∂VV(x( x, ,yy)) i +∂V j i + j ∂∂xx ∂y∂y 



(19) (19)

Reemplazando (17) en (18) se tiene Reemplazando (17) en (18) se tiene

∂ω(x, y ) y )(x, y ) j ∂ω ( x∂, ω x, yV)i = (x∑ ) ∂i (ωx,(yx), y ) i∂x+ ¦iV+i (∑ , yV x, yV)i (x, y ) j ∇V ( x, y∇)V= (¦ i i ∂x ∂y ∂y i i

(20)(20)

El valor la devalor Vi (xdel , y )potencial corresponde al valor del potencial calculado en la sección anteriorcalculado para el nodo El valor de Vi ( x, y ) corresponde en la sección anterior para el nodo i el cual es una constante el cual es una constante calculada en la sección 2.1, de manera que en la ecuación (20) solo queda la sección 2.1, deen manera que(10) en la ecuación (20) sólo calcular la derivada calculada parcial de laen función base descrita la ecuación para cada elemento. De queda calcular la derivada parcial de la función base descrita en allí puede verse que para un elemento lineal triangular la ecuación (10) para cada elemento. De allí puede verse que para ∂ωlineal un elemento i ( x, y ) triangular (21 –a) =a 2

i ∂x ∂ω i (x, y ) = a2 i ∂x ∂ω i (x, y ) y = a3 i ∂y

y

(21 – a) (21 – b)

∂ω i (x, y ) (21 – b) = a3 i ∂y Reemplazando las ecuaciones (21) en la (20) se obtiene: Reemplazando las ecuaciones (21) en la (20) se obtiene:

ω( )  ¦ ( ) ∂x ¦ ( )

∂ Analysis. x, y Department of Mechanical Manuel Julio García. Lecture NotesVon xNumerical (22University – a) Medellin, ,y i = V x, y a i Engineering, EAFIT (22 – a)

Colombia. Enero de 2004. p 21

i

i

¦ Vi (x, y ) i

i

i



2i

 ∂ω ( x, y )  i = ¦ Vi ( x, y ) a3i j ∂y i

(22 – b)

(22 – b)

Ecuaciones que corresponden a la suma direccional de los gradientes de los nodos en cada elemento

triangular en las respectivas coordenadas. A continuación se asigna el valor del promedio del

gradiente del elemento triangular a cada nodo del mismo elemento. Al final cada coordenada nodal

tendrá en número de gradientes asignados como el número de elementos triangulares que compartan

[141]


¦ V ( x, y ) i

[142]

i

 ∂ω ( x, y )  i = ¦Vi ( x, y )a2i i ∂x i

(22 – a)

Distribución del potencial electrostático en una placa cuadrada...

 ∂ω ( x, y )  i = ¦ Vi ( x, y )a3i j (22 – b) ∂y i i Ecuaciones que corresponden a la suma direccional de los gradientes de los nodos en cada elemento triangular en las Ecuaciones que corresponden a la suma direccional de los gradientes de los nodos en cada elemento respectivas coordenadas. A continuación se asigna el valor del triangular en las respectivas coordenadas. A continuación se asigna el valor del promedio del promedio del gradiente del elemento triangular a cada nodo del gradientemismo del elemento triangular cada nodo mismo elemento. final cada coordenada nodal elemento. Al afinal cadadel coordenada nodalAltendrá e número gradientes asignados como el el número elementos triangulares tendrá ende número de gradientes asignados como número de de elementos triangulares que compartan que compartan dicho nodo. Para efectos de determinar el gradiente dicho nodo. Para efectos de determinar el gradiente en cada nodo se calcula el promedio de los en cada nodo se calcula el promedio de los gradientes asignados gradientes asignados a este. a éste. En la parte izquierda de la figura (3) es apreciable la distribución En la parte izquierda de la figura es apreciable la la distribución de los gradientes en el la dominio y de los gradientes en (3) el dominio y en parte derecha se muestra distribución del potencial ilustrado por ilustrado el color por asignado. en la parte derecha se muestra la distribución del potencial el color asignado.

¦ V ( x, y ) i

3

Figura 3: Líneas de Campo Eléctrico y Distribución del Potencial Electrostático Figura 3. Líneas de campo eléctrico y distribución Conclusiones del potencial electrostático

Las diferencias entre la solución analítica y la solución FEM observadas en la tabla (1) donde aparecen los porcentajes de error en los nodos cuyos resultados calculados por ambos métodos no son coincidentes, dan a entender una discrepancia debido a la aproximación senoidal de la función analítica.

Revista Tecnológicas


Revista Tecnológicas

3. Conclusiones Las diferencias entre la solución analítica y la solución FEM observadas en la tabla (1) donde aparecen los porcentajes de error en los nodos cuyos resultados calculados por ambos métodos no son coincidentes, dan a entender una discrepancia debido a la aproximación senoidal de la función analítica. El error calculado se ha realizado con base en dos soluciones que son aproximaciones y que, así la solución FEM esté más acorde con las condiciones iniciales del problema con respecto a la solución analítica que es una función armónica senosoidal, también demuestra que por efectos del pesaje residual o mínimo residuo esto afecta los resultados del sistema. Lo que se puede extraer de este resultado es que el método de los elementos finitos para la solución al problema de la distribución del campo electrostático, arroja resultados consistentes con respecto a otros métodos ampliamente discutidos en la literatura técnica y científica.

Referencias [1] Manuel Julio García Ruiz. Lecture Notes on Numerical Analysis, 2008. Fondo Editorial Universida Eafit. Department of Mechanical Engineering, EAFIT University, Medellin, Colombia. [2] M. Sadiku (1998). Elementos de Electromagnetismo 2° Edición. Compañía Editorial Continental, S.A. México. [3] Kwon, Young W; Bang, Hyocoong. The Finite Element Method Using Matlab. Boca Raton: Crc Press, 1997.

[143]


Almacenamiento de gas

natural1

Tomás Correa2 Elkin Castrillón3

Resumen Las mayores reservas de gas natural en el mundo se encuentran en regiones remotas, alejadas de las grandes ciudades, siendo necesario diferentes alternativas para el transporte y almacenamiento del fluido, a través de gasoductos y barcos metaneros (CNG, LNG). Dependiendo de las distancias y los volúmenes se define cuál es el medio de transporte más viable. En las regiones consumidoras de gas natural existen básicamente tres diferentes mercados; sector residencial y comercial, industrial y generación de electricidad. El sector residencial y comercial es altamente estacional con fuertes picos en el invierno, el de generación de electricidad varía, alcanzando picos en el verano cuando las temperaturas son muy altas; también existen factores externos diferentes al clima, como eventuales fallas o in1

2

3

Este es un estudio exploratorio al almacenamiento del gas natural en el mundo y hace parte del proyecto de Tesis de Maestría sobre Almacenamiento de Gas Natural en Colombia. Ingeniero Mecánico de la Universidad Nacional de Colombia con maestría en ingeniería del gas natural de la Universidad de Oklahoma, USA. Actualmente es docente de tiempo completo del Instituto Tecnológico Metropolitano (ITM). Investigador del GITER (Grupo de Investigaciones en Tecnologías Energéticas). tomascorrea@itm.edu.co Ingeniero en Instrumentación y Control del Politécnico Colombiano Jaime Isaza Cadavid con especialización en Gestión Energética Industrial del ITM. Actualmente es docente de tiempo completo del Instituto Tecnológico Metropolitano (ITM). Investigador del GITER (Grupo de Investigaciones en Tecnologías Energéticas). elkincastrillon@itm.edu.co

Fecha de recepción: 8 de noviembre de 2008 Fecha de aceptación: 18 de diciembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[146]

terrupciones inesperadas en los sistemas de gasoductos (Europa principalmente). Esto implica para las compañías distribuidoras de gas natural, generar planes alternos que permitan disponer de gas natural para suplir los máximos consumos, picos de demanda y eventuales interrupciones durante el año. Uno de estos planes consiste en el uso de unidades de almacenamiento de gas en superficie o subterráneos de gran capacidad y de tasas de inyección y producción lo suficientemente altas para satisfacer las demandas del mercado. Las unidades de almacenamiento de gas subterráneo o en superficie son una opción como respaldo para garantizar el flujo continuo en situaciones de fallas o interrupciones inesperadas en el sistema de gasoductos nacionales. Entre los diferentes tipos de unidades de almacenamiento de gas subterráneo existen tres tipos principales: yacimientos de petróleo o gas donde la producción no es económicamente viable (yacimientos agotados), cavernas de sal y yacimientos de agua o acuíferos. Ellos son adecuados de acuerdo con sus características geológicas y las necesidades de las compañías distribuidoras de gas natural. Este trabajo es una exploración a las características técnicas y económicas de los diferentes tipos de unidades de almacenamiento usados alrededor del mundo con la idea de abrir la discusión respecto a la pertinencia de sistemas de almacenamiento de gas natural en Colombia.

Palabras clave Almacenamiento de gas natural, facilidades para hidrocarburos.

Abstract The largest reserves of natural gas worldwide are found in regions far of main cities, being necessary different alternatives to transport the fluid to the consumption cities, such as pipelines, CNG or ships, LNG, depending on distances between producing regions and demanding regions and the producing volumes. Consumption regions have three different markets to natural gas; residential and commercial, industrial and power generation

Revista Tecnológicas


Revista Tecnol贸gicas

sector. The residential and commercial is highly seasonal and power generation sector is quite variable depending on increases of temperature during summer time. There are also external issues that affect the normal gas flow such as fails on the national system or unexpected interruptions on it, what imply that companies which distribute natural gas should design plans that allow supplying the requirements above mentioned. One plan is using underground natural gas storage with capacities and deliverability rates enough to supply demands. In Colombia there are no laws in this sense but it could be an exploration to discuss different ways to store gas either way as underground natural gas storage or above superficies. Existing basically three different types of underground natural gas storage; depleted reservoirs, salt caverns and aquifers. All of them are adequate according to geological characteristics and the needs of the distributors companies of natural gas. This paper is an exploration of technical and economical characteristics of different kind of storages used to store natural gas worldwide.

Key words Underground natural gas storage, gas facilities.

[147]


[148]

Almacenamiento de gas natural

1. Introducción Las reservas actuales probadas de gas natural en el mundo son 6263 TCF [1] siendo suficientes para abastecer la demanda mundial en el mediano futuro. Para el año 2020 la producción de gas sobrepasaría la producción de crudo, en barriles equivalentes por año. Para esos tiempos, algunos países o regiones que actualmente poseen grandes reservas, muy probablemente pueden llegar a ser importadores o que de hecho ya son importadores, incluyendo Estados Unidos, Asia del Pacífico y la gran mayoría de países europeos. Esas reservas están en su mayoría en Rusia y el Medio Oriente lejos de las áreas de demanda lo que implica la necesidad de medios de transporte y/o almacenamiento de gas para garantizar el suministro continuo de las potenciales demandas en las regiones consumidoras en el corto y mediano futuro dadas las estadísticas arriba mencionadas. La demanda por gas natural viene de tres principales mercados en el mundo; el sector domiciliario y comercial, el sector industrial y el sector de generación de electricidad. En los mayores centros de consumo la mayor demanda por gas natural es estacional; típicamente más gas es usado en meses de invierno para calentar los hogares en países con estaciones; de otro lado, en días de verano, cuando las temperaturas están por encima de los promedios las turbinas a gas (combine cycle) entran en operación como apoyo a los sistemas de generación de electricidad tradicionales para suplir el pico de demanda dado por un mayor número de unidades de aire acondicionado trabajando. El uso de turbinas a gas (combine cycle) es debido a que son flexibles en tiempos de apagado y de encendido (start up, start off). También existen demandas adicionales de gas natural durante el año diferentes al factor clima; la falta de soporte ante eventuales fallas o interrupciones inesperadas en los sistemas de distribución nacionales; estas interrupciones generalmente se presentan cuando un mismo gasoducto atraviesa más de un país. Este es el caso de los países europeos que dependen en gran parte del gas de Rusia, el cual atraviesa varios países (políticamente

Revista Tecnológicas


Revista Tecnológicas

inestables o problemas fronterizos con Rusia). En el caso de Colombia, en el año de 1992, cuando se presentó el “apagón” no se contaba con un sistema de respaldo al sistema interconectado nacional basado en energía hidráulica, como consecuencia se presento un racionamiento de energía en todo el país, o recientemente ante el mantenimiento de los dos grandes centros productores (Cusiana-cupiagua y Chuchupa-ballenas) de gas natural del país, se presentan racionamientos para el sector industrial y de automóviles durante 3 y 4 días. El Estado colombiano menciona en dos leyes (artículo 90.2 de la ley 142 de 1994, decreto 1484 de 2005) algunas consideraciones respecto a garantizar la disponibilidad permanente y el orden de prioridad en emergencias como la mencionada anteriormente, pero no hay ninguna ley referente a sistemas de respaldo (unidades de almacenamiento de gas natural) en este sentido. Las compañías deben, por lo tanto, garantizar flujos continuos y suministros adicionales de gas por efectos climáticos o de respaldo ante eventuales fallas o interrupciones. Una alternativa es el uso de almacenes de gas subterráneos cerca de los grandes centros de consumo del combustible. Históricamente las compañías distribuidoras y/o productoras principalmente en Estados Unidos y Europa han utilizado tres tipos de unidades de almacenamiento de gas natural subterráneos: Yacimientos agotados de hidrocarburos los cuales son adecuados aprovechando que ya son conocidas sus características geológicas y las propiedades de los fluidos, en un segundo nivel están las adecuaciones de formaciones subterráneas de sal que por su estructura permiten confinar volúmenes de gas fácilmente sin perdidas apreciables, además permiten altas tasas de inyección y de producción para ser usadas en tiempos cortos y en cualquier momento; por último, algunos yacimientos de agua (acuíferos) también son utilizados como unidades de almacenamiento de gas natural por tener geologías similares a los yacimientos agotados de hidrocarburos. Este artículo es una exploración inicial al almacenamiento de gas natural en el mundo, describe los diferentes tipos de unidades

[149]


[150]

Almacenamiento de gas natural

de almacenamiento; yacimientos agotados [2], cavernas de sal [3] y acuíferos [2], sus características técnicas y económicas asociadas a ellos con la idea de que en Colombia se discuta la pertinencia o no del uso de unidades de almacenamiento de gas natural subterráneos o en superficie entre los diferentes actores de la cadena del gas natural en Colombia.

2. Definiciones Capacidad: es el máximo volumen de gas que puede ser almacenado en una facilidad de acuerdo con su diseño. La capacidad de almacenamiento de gas es la suma del gas de trabajo más el gas base [4]. Gas base (cushion gas): La cantidad mínima de gas que la formación necesita para operar [5]; en otras palabras, es la cantidad de gas que permite la presión necesaria para producir el total de gas de trabajo. Gas de trabajo (working gas): Se refiere a la capacidad total menos el gas base. Tasa de inyección: Tasa a la cual el gas debe ser inyectado en la formación de acuerdo con consideraciones de diseño y operación. Tasas de producción: Tasas a las cuales el gas será producido de acuerdo con los volúmenes y tiempos de demanda requeridos. Ciclos: El número de veces que el volumen de gas de trabajo puede ser inyectado y producido en un año [6]. Porosidad: es el volumen de poros (espacio vacío) de una roca dividida por el volumen total de la roca [7]. Este es expresado en porcentaje y se denota por Φ. Permeabilidad: la permeabilidad absoluta es una propiedad intrínseca del medio poroso que expresa la capacidad que tiene el medio de permitir flujo a su través cuando está saturado 100 % de una sola fase [8], expresado comúnmente en unidades Darcy.

Revista Tecnológicas


[151]

Revista Tecnológicas

Factor de compresibilidad Z: Factor de desviación del gas, es la relación entre el volumen realmente ocupado por un gas a una presión y temperatura dada sobre el volumen que ocuparía ese mismo gas a la misma presión y temperatura si éste se comportara como un gas ideal.

3. Almacenamiento

del gas

Las diferentes formaciones geológicas adecuadas para almacenar gas han sido yacimientos agotados, acuíferos y cavernas de sal cercanos a las grandes regiones consumidoras de gas natural básicamente para reducir la necesidad de mayores infraestructuras en gasoductos (diámetros mayores), suplir los picos de demanda, garantizar consumos adicionales de los equipos de aire acondicionado en verano usando turbinas de gas para generar electricidad, suplir eventuales fallas o daños en los gasoductos; además de que actualmente cerca del 40 % de los yacimientos de gas natural (stranded gas) están en regiones remotas, alejadas de las grandes ciudades, lo cual exige cubrir grandes distancias en transporte y disponerlo en sistemas de almacenamiento para garantizar el flujo continuo durante todo el año. El uso de unidades de almacenamiento subterráneo de gas natural se originó a partir de 1915 cuando los yacimientos ago­tados estuvieron disponibles principalmente en los Estados Unidos [9] (Ohio, New York, California,) y Canadá [10], ellos fueron adecuados; taladrando más pozos (inyección, producción y observadores), instalando un sistema de distribución de gas superficial (gathering system), estaciones compresoras, medidores de gas, facilidades para la deshidratación de gas, así que grandes volúmenes de gas fueron producidos cada estación de invierno y nuevo gas era inyectado en el siguiente verano. Posteriormente, en 1946 fue adecuado el primer acuífero en Kentucky (EE.UU.), y para el año de 1961 estaría entrando en funcionamiento el primer domo de sal en Michigan (EE.UU.).


[152]

Almacenamiento de gas natural

En general cada tipo de unidad de almacenamiento de gas natural tiene sus propias características físicas, tales como porosidad y permeabilidad, y económicas como el sitio, costos de adecuación de la facilidad, mantenimiento, tasas de inyección y de producción, número de ciclos por año. Según las características geológicas se selecciona la estructura geológica más adecuada. Normalmente los yacimientos agotados son los mejores candidatos, debido al conocimiento que se tiene de la estructura geológica y fluidos almacenados en la misma, así como por las facilidades disponibles en superficie para el transporte y manejo de fluidos. En segunda instancia están los acuíferos, seguidamente las cavernas de sal y por último algunas minas abandonadas específicamente en EE.UU. (1), Bélgica (1), Alemania (1) y Francia (1) han sido usadas como unidades de almacenamiento subterráneas de gas natural. La figura 1 muestra la distribución de gas de trabajo por tipo de unidad de almacenamiento usados en el mundo. Allí se puede observar que de cavernas de sal corresponden a un 3,9 % del total caracterizadas por altas alrededor del 81 % del gas de trabajo usado como soporte de los tasas de producción y al mayor número de ciclos por año cuando es comparada sistemas de gasoductos en el mundo corresponden a yacimientos con agotados. las otras dos finalmente aun 0,02 % debido corresponden a minas Un alternativas, 14,5 % corresponde acuíferos a su cercanía abandonadas. en términos geológicos a los yacimientos agotados. El gas de trabajo proveniente de cavernas de sal corresponde a un 3,9 % del total caracterizadas tasasdedegas producción al mayor de Figura 1. Distribuciónpor de altas volúmenes de trabajoy por tipo denúmero unidad de almacenamiento en el mundo [11]

Figura 1. Distribución de volúmenes de gas de trabajo por tipo de unidad de almacenamiento en el mundo [11] La Tabla 1 muestra los volúmenes totales de gas base y de trabajo para las regiones de Norteamérica y Europa, así como el total de yacimientos adecuados como unidades de almacenamiento de gas y la capacidad de producción en Revista Tecnológicas billones de pies cúbicos por día [BCF/D] de acuerdo a sus existencias; sin embargo algunos países separadamente como Australia, posee 4 unidades de almacenes de gas subterráneo, Argentina 1 y China 1. Cabe resaltar que


[153]

Revista Tecnológicas

ciclos por año cuando es comparada con las otras dos alternativas, finalmente un 0,02 % corresponde a minas abandonadas. La tabla 1 muestra los volúmenes totales de gas base y de trabajo para las regiones de Norteamérica y Europa, así como el total de yacimientos adecuados como unidades de almacenamiento de gas y la capacidad de producción en billones de pies cúbicos por día [BCF/D] de acuerdo con sus existencias; sin embargo algunos países separadamente como Australia, posee 4 unidades de almacenes de gas subterráneo, Argentina 1 y China 1. Cabe resaltar que alrededor de un 50 % del gas almacenado corresponde a gas base, el cual no será producido durante la vida del proyecto, por no ser rentable. Tabla 1. Capacidades de almacenamiento [12]

Región

Gas de trabajo

[BCF]

Gas base [BCF]

# Unidades

de almacenamiento de gas

Producción BCF/D

subterráneos

Norteamérica

4506

4675

440

93

Europa

6653

6590

168

83,4

3.1 Yacimientos agotados Este tipo de yacimientos son los primeros candidatos para ser adecuados como unidades de almacenamiento subterráneo de gas natural. El almacenamiento de este tipo viene determinado por el número de pozos de inyección/producción, por la capacidad de producción de los mismos y por el volumen de almacenamiento (porosidad). Los factores que determinan si un yacimiento agotado puede ser usado como unidad de almacén de gas dependen de la geología y la geografía. Geológicamente la roca debe tener una porosidad y una permeabilidad que garanticen una capacidad de almacenamiento y de producción acorde con los requerimientos de diseño y operación. Geográficamente, éste debe estar situado


[154]

Almacenamiento de gas natural

cerca de las grandes regiones consumidoras de gas natural para facilitar el suministro rápido, una vez éste sea requerido. En general, para este tipo de yacimiento, el gas base es alrededor de un 50 %, el periodo de inyección está entre 200 a 250 días y el periodo de producción fluctúa entre 100 y 150 días. En países de estaciones, generalmente es usado para suplir la sobre-demanda en las estaciones de invierno. La figura 2 muestra el número de yacimientos agotados adecuados como unidades de almacenamiento Figura 2. Yacimientos agotados como unidades de almacenamiento de gas natural de gas en el mundo. Puede observarse que Norteamérica y Europa [12] son los mayores usuarios de este tipo de almacenamiento: 359 y 99, respectivamente.

Figura 2. Yacimientos agotados como unidades de almacenamiento de gas natural

[12]

Aspectos técnicos

Aspectos técnicos

Dentro de los aspectos técnicos la información preliminar es clave para la

los aspectos técnicos información preliminar de es gas adecuaciónDentro de un de yacimiento agotado como la unidad de almacenamiento

para la de un yacimiento como unidad natural:clave geología de adecuación la formación, presión inicial agotado del yacimiento, tasas de

de almacenamiento de gas natural: geología de la formación, presión inicial del yacimiento, tasas de producción versus gravedad especifica, de pozos localizaciones, presiones [2],número temperatura delperforados, yacimiento, composiciónprofundidades, del gas, gravedad específica, número de pozos perforados, localizaciones, información de núcleos analizados, mediciones como registros de pozo [13] y profundidades, información de núcleos analizados, mediciones como pruebas de presión [14] realizadas durante la etapa inicial de producción, registros de pozo [13] y pruebas de presión [14] realizadas durante estructura del yacimiento, mapas de isopacos, si existen mecanismos de empuje la etapa inicial de producción, estructura del yacimiento, mapas de producción versus presiones [2], temperatura del yacimiento, composición del gas,

de agua, producciones de los pozos, condición mecánica de los mismos, mapa del área del yacimiento y sus vecindades. Una vez analizada la información preliminar asociada al yacimiento se procede a Revista Tecnológicas cálculos y diseños de adecuación de la unidad de almacenamiento de gas teniendo en cuenta que; experiencias anteriores en la adecuación de este tipo de


Revista Tecnológicas

isopacos, si existen mecanismos de empuje de agua, producciones de los pozos, condición mecánica de los mismos, mapa del área del yacimiento y sus vecindades. Una vez analizada la información preliminar asociada al yacimiento se procede a cálculos y diseños de adecuación de la unidad de almacenamiento de gas teniendo en cuenta que experiencias anteriores en la adecuación de este tipo de yacimientos han mostrado que un incremento de alrededor de un 30 % de la presión inicial de yacimiento es una buena medida de la máxima presión que debe ser usada para su adecuación como unidad de almacenamiento de gas natural [10]. A estas presiones se ha obtenido la máxima capacidad de almacenamiento y la más alta capacidad de flujo para los pozos sin el detrimento de la roca o problemas asociados a la estabilidad de los pozos. Dentro de las ventajas asociadas a yacimientos agotados está la posibilidad de conocer o estimar fácilmente mediante los históricos de producción la capacidad máxima de almacenamiento [15]; a través de un gráfico de presión de yacimiento sobre factor de compresión (Z) versus producción de gas; indica el gas inicial en el yacimiento y posibles mecanismos de empuje (como agua, etc.) de acuerdo con la forma de la curva. Otras ventajas y desventajas son: muy pocos pozos deben ser perforados, lo que reduce en parte los costos del proyecto; los sistemas de recolección del gas (gas gathering) generalmente ya existen, así como el sistema de conexiones a los gasoductos. La formación geológica ya dispone de un sistema de trampas (preferiblemente anticlinal) para impedir que el gas migre, cuando un yacimiento usado como unidad de almacenamiento de gas natural es abandonado, una significante porción del gas base es no económicamente recuperable, siendo éste uno de los mayores costos involucrados en proyectos de adecuación de yacimientos agotados como almacenes de gas. En proyectos de yacimientos agotados, cuando el gas base debe ser suministrado a precios presentes, sustanciales reducciones en costo pueden ser obtenidas por el reemplazo de gas natural por un gas base menos costoso [16]. El uso de un gas inerte para

[155]


[156]

Almacenamiento de gas natural

reemplazar todo o parte del existente gas base del yacimiento resultará en ahorros de valioso gas, el cual podría ser menos cuando éste sea abandonado, además de poseer mayor disponibilidad de gas natural para la venta.

Aspectos económicos En general, la distribución de los costos de inversión para la adecuación de yacimientos agotados como unidades de almacenamiento de gas natural es el siguiente [17]: Gas base: 28 %, pozos: 24 %, compresores: 17 %, unidades de deshidratación: 9 %, equipos auxiliares: 8 %, gasoductos: 7 %, edificios: 7 %. Según la Internacional Gas Unión, las inversiones de este tipo de almacenamiento podrían suponer entre 0,1 y 0,2 USD/m3, para profundidades entre 1.000 y 2.000 metros y almacenamiento de 1.000 millones de metros cúbicos. Los gastos operativos son del orden de 0,01 USD/m3. En este sentido el costo de adecuación de un yacimiento agotado como unidad de almacenamiento con una capacidad de almacenamiento de 1.000 millones de m3 es del orden de 150 millones de dólares para un precio actual del gas natural de 5 USD/MMBTU equivalente a 0,18 USD/m3 (en promedio 36.000 BTU equivalen a 1 m3 ó 1.020 BTU equivalen a 1 ft3 de gas natural).

3.2 Acuíferos La selección de acuíferos como unidades de almacenamiento de gas natural se basa en la geología similar que existe entre los acuíferos y los yacimientos agotados; sin embargo, se debe tener en cuenta que al iniciarse el proyecto la geología y los parámetros de la formación son poco conocidos y el yacimiento está parcial o completamente saturado de agua. Para evaluar la factibilidad del proyecto, se requiere llevar a cabo estudios exploratorios, para definir la capacidad de la estructura y el comportamiento del agua en el acuífero durante la vida del proyecto. Después de los estudios preliminares, se necesitan por lo menos dos pozos en la estructura para desarrollar un programa de ensayos intensivos con el fin de evaluar las propiedades de la formación y la dinámica del acuífero.

Revista Tecnológicas


[157]

Revista Tecnológicas

Dentro de las propiedades de los acuíferos adecuados como unidades de almacenamiento de gas, se encuentra la porosidad, en la práctica ésta fluctúa entre un 12 a 25 % [2]. La permeabilidad en una de las rocas más comunes asociadas a los acuíferos, es la lutita (shale) de baja permeabilidad, alrededor de 10-4 a 10-6 mD. Típicamente los acuíferos requieren un gas base entre 50 a 80 % [10], el periodo de inyección está entre 200 a 250 días, mientras el de producción entre 100 a 150 días. por países de los acuíferos adecuados como unidades de almacenamiento de gas En la actualidad existen alrededor de 91 acuíferos adecuados natural en el mundo. como unidades de almacenamiento de gas natural en el mundo. La figura 3 muestra la distribución por países de los acuíferos adecuados como unidades de almacenamiento de gas natural en Figurael 3. mundo. Acuíferos adecuados como unidades de almacenamiento de gas por país [12]

EE.UU. Bélgica República Checa Alemania Francia Figura 3. Acuíferos adecuados como unidades de almacenamiento de gas por país [12]

Aspectos técnicos

Aspectos técnicos Dentro de las diferentes estructuras geológicas de los acuíferos hay una serie de condiciones que debe cumplir para la adecuación como unidad de Dentro de el lasacuífero diferentes estructuras geológicas de los acuíferos hay una serie de condiciones que el acuífero debe cumplir para la bajo la almacenamiento subterráneo de gas natural: Debe haber una estructura adecuación como unidad de almacenamiento subterráneo de gas cual el gas es acumulado, capacidad de almacenamiento (porosidad), el espacio natural: Debe haber una estructura bajo la cual el gas es acumupara ellado, almacenamiento gas se creara (porosidad), desplazandoelelespacio agua existente capacidad de del almacenamiento para el en el espacio poroso, prestando especial atención a la presión de desplazamiento y a las posibles fugas de gas por la disminución de presión, el uso de un acuífero para almacenamiento de gas usualmente requiere más gas base y mas monitoreo de las tasas de inyección y de producción que un yacimiento agotado, el contenido volumétrico de gas depende de la configuración estructural, de la porosidad de la


[158]

Almacenamiento de gas natural

almacenamiento del gas se creará desplazando el agua existente en el espacio poroso, prestando especial atención a la presión de desplazamiento y a las posibles fugas de gas por la disminución de presión, el uso de un acuífero para almacenamiento de gas usualmente requiere más gas base y más monitoreo de las tasas de inyección y de producción que un yacimiento agotado, el contenido volumétrico de gas depende de la configuración estructural, de la porosidad de la roca, de la esperada saturación residual de agua y de la presión usada para el desplazamiento y confinación del gas, un “techo” de roca porosa saturado con agua para impedir que el gas almacenado fluya a través de éste, permitiendo la confinación del gas a altas presiones; la estructura debe proveer una presión de sobrecarga [18] suficiente que permita almacenar gas a presiones muy por encima de la atmosférica, teniendo en cuenta que las presiones de desplazamiento de acuíferos de este tipo están en el orden de 400 a 1500 psi. En este aspecto la profundidad del acuífero es considerada un elemento de importancia en los análisis económicos, ya que el acuífero debe tener una capacidad suficiente para justificar la inversión. Estudios de caso [2] sugieren que el acuífero debe estar a una profundidad mínima de 300 metros, para permitir presiones de fluidos que justifiquen volúmenes de compresión suficientes de acuerdo con cada proyecto, además de tasas de inyección y producción acordes a las necesidades requeridas por el sistema de conexión a los gasoductos, debe haber agua que confine el gradiente de presión en todas las direcciones, algunos inconvenientes que presentan este tipo de almacenamientos son los elevados gastos de exploración, información geológica limitada, la no existencia de gas base inicialmente, la capacidad de la formación es medida únicamente cuando el acuífero sea desarrollado como una unidad de almacenamiento de gas natural, facilidades en superficie así como perforaciones de pozos, operaciones de compresores, zona de deshidratación deben ser diseñadas y realizadas, altas presiones son requeridas para alojar el gas mediante la presión del agua hacia abajo, deshidratación de gas debe ser realizada una vez el gas es producido, más restricciones por las agencias de protección

Revista Tecnológicas


Revista Tecnológicas

del medio ambiente para protección del agua, predicciones de burbujas de agua generadas por la producción de gas una vez esté en funcionamiento. La figura 4 es un esquema donde se muestra los aspectos geológicos fundamentales para la adecuación del acuífero arriba mencionados.

Figura 4. Elementos básicos de un acuífero para almacenamiento del gas [2]

Aspectos económicos de los acuíferos

delos loscostos acuíferos EnAspectos general, laeconómicos distribución de de inversión es el siguiente [17]: Gas base:En 28 %, pozos: la 34 %, compresores: unidades deshidratación: general, distribución de14 los%,costos de de inversión es la 8 %, equipos auxiliares: siguiente [17]: 6 %, gasoductos: 4 %, edificios: 6 %. Según la Internacional

Gas 28 %,depozos: 34 de %, almacenamiento compresores: 14 %, unidades de Gas Unión, las base: inversiones este tipo podrían suponer entre

deshidratación: %, equipos auxiliares: gasoductos: 4 %, edifientre 1000 6m%, y 2000 m y almacenamiento 0,2 y 0,3 USD/m3, para 8profundidades cios: 6 %. Según la Internacional Gas Unión, las inversiones de este

de 1000 millones de metros cúbicos. Los gastos operativos son del orden de 0,01 tipo de almacenamiento podrían suponer entre 0,2 y 0,3 USD/m3, 3 . Enprofundidades este sentido el costo adecuación de unmacuífero como unidad de USD/mpara entrede1.000 m y 2.000 y almacenamiento

almacenamiento con una de capacidad almacenamiento 1000 millones de 1.000 millones metrosde cúbicos. Los gastosdeoperativos son de delm3 3 de 250 0,01millones USD/mde . En estepara sentido el costo dedel adecuación es del orden orden de dólares un precio actual gas natural de de 5 USD/MMBTU equivalente a 0,18 USD/m3 (en promedio 36000 BTU equivalen a 1 m3 ó 1020 BTU equivalen a 1 ft3 de gas natural).

3.3 Cavernas de sal

[159]


[160]

Almacenamiento de gas natural

Las cavernas de sal pueden almacenar menos gas que los yacimientos

un acuífero como unidad de almacenamiento con una capacidad de almacenamiento de 1.000 millones de m es del orden de 250 millones de dólares para Este un precio del gasdenatural de 5 ende un mayor número de ciclos. tipo actual de unidad almacenamiento es USD/MMBTU equivalente a 0,18 USD/m3 (en promedio 36.000 BTU usado principalmente para suplir picos de demanda. Las cavernas de sal para ser equivalen a 1 m3 ó 1020 BTU equivalen a 1 ft3 de gas natural).

agotados pero ofrecen más altas tasas de inyección y3 de producción de gas y por

adecuadas deben tener la suficiente consistencia y profundidad para soportar las 3.3 Cavernas de sal

presiones requeridas. El gas base requerido está entre un 20 y 30 %, el periodo de Las cavernas de sal pueden almacenar menos gas que los

inyección estáyacimientos entre 20 yagotados, 40 días pero mientras elmás periodo producción está ofrecen altas de tasas de inyección y entre 10

de producción de gas y porde ende un mayor númerousado de ciclos. a 20 días, un volumen promedio almacenamiento enEste este tipo de tipo de unidad de almacenamiento es usado principalmente para

almacenes essuplir alrededor dedemanda. 500 000Las metros cúbicos La adecuadas figura 5 muestra la picos de cavernas de sal [19]. para ser deben tenerdel la suficiente consistencia profundidad para soportar distribución por países número de cavernasyde sal adecuadas como unidades. las presiones requeridas. El gas base requerido está entre un 20

Se observa que Estados Unidos el mayor número y 30 %, el periodo detiene inyección está entre 20 yde 40este días tipo. mientras

el periodo de producción está entre 10 a 20 días, un volumen promedio de almacenamiento usado en este tipo de almacenes es Figura 5. Cavernas de sal como unidades de figura almacenamiento alrededor de adecuadas 500 000 metros cúbicos [19]. La 5 muestra lade gas distribución natural por país por [12]países del número de cavernas de sal adecuadas como unidades. Se observa que Estados Unidos tiene el mayor número de este tipo.

EE.UU. Alemania Canadá Francia Otros

Figura 5. Cavernas de sal adecuadas como unidades de almacenamiento de gas natural por país [12]

Aspectos técnicos Revista Tecnológicas

El tipo de caverna se hace con base a parámetros de diseño, la capacidad y la presión máxima y mínima del almacenamiento. La primera operación a realizar


de lixiviación. Durante la lixiviación el desarrollo de la caverna se controlara mediante modelos matemáticos, basados en pruebas y exploraciones sísmicas. Una vez la formación de sal es identificada pozos son taladrados y se hace [161] Revista Tecnológicas circular agua sobre un intervalo de sal para disolverla como salmuera para posteriormente inyectar el gas que será almacenado [20]. La figura 6 muestra un

Aspectos técnicos

esquema de una caverna de sal adecuada como almacén de gas. Dentro de las

de caverna secavernas hace conde base parámetros de diseño, la ventajasEly tipo desventajas de las sal en están las siguientes: Los caudales y

capacidad y la presión máxima y mínima del almacenamiento. La primera operación a realizar con el fin de evaluar las propiedades necesidades, la de productividad de salina los pozos puede serun 3 ópozo 4 veces la productividad mecánicas la formación es perforar exploratorio. de los pozosexploratorio en yacimientos convencionales, la posibilidad ampliación El pozo normalmente se utiliza para losdetrabajos de de la lixiviación. Durante la lixiviación el desarrollo de la caverna se capacidad de almacenamiento mediante lixiviación de cavernas adicionales, el controlara mediante modelos matemáticos, basados en pruebas y bajo volumen de gas base para elevados caudales de extracción, alto nivel de exploraciones sísmicas. seguridad, total del base, necesidad se de taladran una formación Unarecuperación vez la formación de gas sal es identificada, pozos salina idónea, de eliminación de la en de determinadas circunstancias. y seproblemas hace circular agua sobre unsalmuera intervalo sal para disolverla como salmuera y posteriormente inyectar el gas que será almacenado [20]. La figura 6 muestra un esquema de una Figura 6. Esquema de una caverna de sal adecuada como unidad de caverna de sal adecuada como almacén de gas. Dentro de las ventajas y las presiones de funcionamiento pueden proyectarse de acuerdo con las

almacenamiento de gas

Metros

1. Capa de roca de sal 2. Cavidad de sal Metros

3. Residuos Insolubles 4. Revestimiento cementado

Figura 6. Esquema de una caverna de sal adecuada como unidad de almacenamiento de gas

17


[162]

Almacenamiento de gas natural

desventajas de las cavernas de sal están las siguientes: los caudales y las presiones de funcionamiento pueden proyectarse de acuerdo con las necesidades, la productividad de los pozos puede ser 3 ó 4 veces la productividad de los pozos en yacimientos convencionales, la posibilidad de ampliación de la capacidad de almacenamiento mediante lixiviación de cavernas adicionales, el bajo volumen de gas base para elevados caudales de extracción, alto nivel de seguridad, recuperación total del gas base, necesidad de una formación salina idónea, problemas de eliminación de la salmuera en determinadas circunstancias.

Aspectos económicos En general, la distribución de los costos de inversión es la siguiente [17]: Lixiviación: 32 %, gas base: 12 %, pozos: 15 %, compresores: 18 %, unidades de deshidratación: 8 %, equipos auxiliares: 5 %, gasoductos: 4 %, edificios: 6 %. Las inversiones de este tipo de almacenamiento podrían superar entre 0,4 y 0,5 USD/m3, para profundidades entre 1.000 y 2.000 metros y almacenamientos de 0,5 millones de metros cúbicos. Para las capacidades mencionadas los costos operativos son del orden de 0,01 USD/m3. En este sentido el costo de adecuación de una caverna de sal como unidad de almacenamiento con una capacidad de 0,5 millones de m3 es del orden de 225 millones de dólares para un precio actual del gas natural de 5 USD/MMBTU equivalente a 0,18 USD/m3 (en promedio, 36.000 BTU equivalen a 1 m3 ó 1020 BTU equivalen a 1 ft3 de gas natural).

4. Componentes

de una facilidad [21]

Los componentes en superficie alrededor de los pozos usados para el procesamiento y transporte de gas natural y entendido como facilidad son los siguientes: Pozos de inyección y producción: Usados para inyectar o producir gas del yacimiento. Debido a las características particula-

Revista Tecnológicas


[163]

Revista Tecnológicas

res de cada yacimiento como mecanismos de empuje de la formación no es recomendable, entre otras, inyectar o producir el gas desde un pozo específico. Generalmente los pozos productores son más largos y su diámetro es más grande que pozos normales de producción de un yacimiento no agotado, esto es debido a que más altas tasas de producción son requeridas para almacenaje de gas. Pozos de observación: Son usados para monitorear la migración de agua y presiones en el yacimiento y deben ser ubicados estratégicamente teniendo en cuenta el tipo de estructura de la formación. Sistemas de recolección del gas (gathering system): Es el sistema de tuberías que conectan los pozos al punto central de la facilidad. Compresores: Usualmente localizados en algún punto central cerca a los pozos y pueden ser usados para comprimir el gas para la posterior inyección o producción o ambos. Sistemas de medición: La tasa de entrega de una facilidad para almacenamiento de gas natural es una variable que depende de la cantidad de gas en el yacimiento en un tiempo determinado, la presión dentro del yacimiento, los sistemas que componen las facilidades, tales como compresores, líneas conectoras a los gasoductos. Deshidratadores: Un yacimiento siempre contiene agua en alguna proporción, así que cuando gas seco es inyectado y posteriormente producido, éste ha ganado algún grado de agua. El gas deberá ser deshidratado para cumplir con las especificaciones requeridas de venta.

5. Consideraciones

generales

Cada formación geológica usada como unidad de almacenamiento de gas posee sus propias características físicas y económicas las cuales gobiernan su capacidad para aplicaciones particulares.


[164]

Almacenamiento de gas natural

Dentro de las características económicas están la adecuación del sitio, los costos de mantenimiento asociados al buen funcionamiento, las tasas de entrega y el número de ciclos por año que el yacimiento o caverna puede entregar. Los proyectos de operación de unidades de almacenamiento de gas natural bajo tierra tienen una duración entre 25 y 30 años.Durante la vida de operación, los yacimientos usados como unidades de almacenamiento llegan a estar sujetos a pérdidas que reducen el volumen de gas inventariado, esto debe ser tomado en cuenta en análisis técnicos y económicos. Una incontrolable pérdida de gas asociada a fugas internas representa una menor capacidad de entrega y por ende un flujo de caja menor, además de impactos ambientales negativos. Se hace necesario entonces una auditoría de inventario como variable fundamental durante la operación de este tipo de almacenaje. La evaluación del desempeño de un yacimiento usado como unidad de almacenamiento de gas involucra el reconocimiento de tres requerimientos básicos llamados atributos [8]. a. Verificación de inventario: Representa el gas que puede almacenar la unidad de almacenamiento y está compuesto de dos volúmenes, gas base (cushion gas) y el gas de trabajo (working gas) el que será producido cuando se requiera. b. Aseguramiento de los flujos de inyección y de producción de gas natural: Se mide en millones de pies cúbicos estándar y mide la disponibilidad de gas para el mercado. c. Contenido vs migración: Si las existencias contabilizadas no corresponden a los volúmenes de gas producidos, problemas de migración deberán ser tenidos en cuenta. El hecho de que el ambiente de almacenamiento está sometido a una presión positiva y siendo el gas natural más liviano que otros fluidos compartiendo el mismo espacio poroso el gas almacenado tiende a migrar. Algunos factores pueden contribuir a la explicación de las diferencias entre el volumen de gas que aparece en libros y los volúmenes totales producidos. Los gradientes de presión, la

Revista Tecnológicas


Revista Tecnológicas

permeabilidad de la roca, la integridad del “techo” de la unidad, geometría, fracturas, fallas, características geológicas, condiciones de operación y limites de los equipos, entre otras. Para el caso colombiano el suministro de gas natural al sistema nacional de gasoductos proviene de la Guajira con un 90 % y de Cusiana y Cupiagua con un 10 % [22]. Siendo dos ramales los que abastecen el país (la costa Atlántica y el centro del país), ante eventuales fallas o interrupciones inesperadas en los suministros se debe garantizar respaldos ante este tipo de eventos. En esa medida este es un estudio exploratorio del almacenaje de gas natural en el mundo y hace parte del proyecto de tesis de maestría “Pre factibilidad técnica y económica del almacenamiento de gas natural como un sistema de respaldo para el suministro en Colombia”, adscrita a la Maestría en Gestión Energética Industrial del INSTITUTO TECNOLÓGICO METROPOLITANO (ITM).

Bibliografía [1] BP. (2008) Statistical Review of World Energy. London: BP p.l.c., 2008. p. 22. [2] KATZ, D. y LEE, R. (1990) Natural Gas Engineering, Production and Storage. Chemical Engineering Series. McGraw-Hill International Editions. 1990. p. 13. ____________ (1990). Natural Gas Engineering, Production and Storage. Chemical Engineering Series. McGraw-Hill International Editions. 1990. p. 493-506. ____________ (1990). Natural Gas Engineering, Production and Storage. Chemical Engineering Series. McGraw-Hill International Editions. 1990. p. 512-541. [3] TEK, R. (1996) Natural Gas Underground Storage: Inventory and Deliverability. Pen Well. 1996. p. 249-268. [4] BELCHER, S. (2004) “The Basics of Underground Natural Gas Storage”, EIA, 2004. [5] ROMINE, B. (2000). “Real Options in Energy Markets: Analysis and Computation”. Thesis PhD. Stanford University.

[165]


[166]

Almacenamiento de gas natural

[6] THOMPSON, Mathew. (2003) “Real Options & Optimization of Energy Assets”. Thesis, PhD. University of Western Ontario London Ontario Canadá. [7] DANDEKAR, A. (2006) Petroleum Reservoir Rock and Fluid Properties. Taylor & Francis. p. 13-26. [8] LOPERA C., Sergio. (2006). Capítulo 5 Permeabilidad Absoluta, Análisis Petrofísicos Básicos y Especiales, Universidad Nacional de Colombia Sede Medellín, 2006. [9] FRITZ A., BERGER, HEINZ., BROWN K., FRANTZ J., SAWYER W., HENZELL M., MOHMEYER K., R N., STILES K., XIONG H. (2002) “Storing Natural Gas Underground, Schlumberger”. Oil Field Review, Schlumberger. [10] FERC (2003) “Current State of and Issues Concerning Underground Natural Gas Storage”, Federal Energy Regulatory Commission Staff Report, September. p. 4. [11] BROWN K., CHANDLER K., HAWKINS J., MANAI T., ONDERKA V., WALLBRECHT J., ZANGL G. (2008) “Intelligent Well Technology in Underground Gas Storage Oil, Field Review, Schlumberger. [12] International Human Resources Development Corporation, IHRDC (2008), “The Role of Gas Storage in International Gas Markets”. XI Congress of Naturgas. Cartagena Colombia. [13] TOBY DARLING T. (2005) Well Logging and Formation Evaluation. Elsevier. p. 3-27. [14] CHAUDHRY A. (2003), Gas Well Testing Handbook. Elsevier. US. p. 237245. [15] LEE J., WATTENBARGER R., Gas Reservoir Engineering. SPE Text Books Vol. 5. p. 214-229. [16] MISRA, B.R., FOH, S.E., Inst. Of Gas Technology; Shikari, Y.A., Gas Research Inst; Berry, R.M., Texas Gas Transmission Corporation; Labaune, F., Sofregaz (1988) “The Use of Inert Base Gas in Underground Natural Gas Storage”; SPE 17741, SPE Gas Technology Symposium, Dallas, TX. [17] SOLÓRZANO HERRERA, I. (2004a). Almacenamiento de Gas Natural en Yacimientos Agotados, Estudio de Viabilidad Y Análisis Económico de un Proyecto desarrollo, Tesis PhD, Escuela Técnica Superior de Ingenieros de Minas. España. p. 42. __________ (2004c). Almacenamiento de Gas Natural en Yacimientos.

Revista Tecnológicas


Revista Tecnológicas Agotados, Estudio de Viabilidad y Análisis Económico de un Proyecto desarrollo, Tesis PhD, Escuela Técnica Superior de Ingenieros de Minas. España. p. 43. [18] TIAB DJEBBAR. (2006) Petrophisycs, Theory and Practice of Measuring Reservoir Rock and Fluid Transport Properties. Elsevier. p 53-55. [19] HOELEN Q., PIJKEREN G., TEUBEN B., STEENBERGEN B., BREUNING P. (2006) Gas Storage in Salt Caverns “AARDGASBUFFER ZUIDWENDING” THE NETHERLANDS. 23rd World Gas Conference, Amsterdam. p. 6. [20] Gas Processors Suppliers Association (2004). Engineering Data Book. 12th Edición, GPSA. pp. 6-7. [21] ORIN F. (1995) Underground Gas Storage Facilities, Design and Implementation. Elsevier Science & Technology Books. [22] MINISTERIO DE MINAS Y ENERGÍA, Bogotá, Unidad de Planeación Mi­ nero Energética UPME (2006). La cadena del gas natural en Colombia. p. 47.

[167]


Combustión con exceso de entalpía Henry Copete López*

Resumen En este trabajo se realiza una revisión del tema relacionado con las características de la combustión utilizando aire normal altamente precalentado. La tecnología se ha utilizado en los últimos años para proporcionar un aumento en la eficiencia térmica y una disminución significativa en el consumo de combustible y emisiones contaminantes respecto a los sistemas de combustión convencionales. Se presenta el concepto de combustión con exceso de entalpía, las principales propiedades de combustión que se afectan por el precalentamiento de los reactivos, los sistemas más utilizados para precalentar el aire, las ventajas y desventajas de esta tecnología y se describen algunas técnicas computacionales empleadas para el estudio de este tipo de combustión.

Palabras clave Exceso de entalpía, aire precalentado, recuperación de calor.

Abstract This work is a review of the characteristics of the combustion using highly preheated normal air. The technology has been used in the last years to provide an increase in the thermal efficiency and a significant decrease in the consumption of fuel and polluting emissions regarding the conventional combustion systems.

* MSc. Ingeniero Mecánico. Grupo GITER. INSTITUTO TECNOLÓGICO METROPOLITANO. Docente Investigador. henrycopete@itm.edu.co. Fecha de recepción: 5 de noviembre de 2008 Fecha de aceptación: 17 de diciembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[170]

The combustion with enthalpy excess concept is presented, and also the main combustion properties that are affected by the reactive preheated, the systems more used to preheat the air, the advantages and disadvantages of this technology and some computational technical.

Key words Enthalpy excess, air preheated, heat recovery.

Revista Tecnol贸gicas


Revista Tecnológicas

1. Introducción Actualmente, se ve en todo el mundo el interés por la utilización de tecnologías de calentamiento cada vez más eficientes que ayuden a disminuir el consumo de combustible e incrementen la eficiencia térmica de los procesos en aplicaciones industriales. Esto ha sido motivado por la incertidumbre en los precios de los combustibles fósiles, los pronósticos que hablan de limitadas reservas de petróleo en las décadas venideras, las políticas de producción más limpia con mínimos impactos ambientales y la necesidad de incrementar la competitividad para asegurar la permanencia en el mercado. Lo anterior ha conducido la investigación y el desarrollo tecnológico en sistemas que permitan recuperar el calor residual de los gases de escape para precalentar el aire de combustión. Se han venido desarrollando nuevas tecnologías como los recuperadores de calor, los quemadores porosos y los regeneradores de calor. La utilización de las tecnologías de combustión con aire a alta temperatura influye sobre las características de la combustión ampliando los límites de inflamabilidad, incrementando la velocidad de combustión, aumentando la temperatura de llama y maximizando el calor disponible en los procesos (Getting, 1986). Estos efectos combinados mejoran la estabilidad de llama y la combustibilidad de gases de bajo poder calorífico (Zabetakis, 1965). El aumento en las temperaturas de llama debido al precalentamiento del aire de combustión puede producir efectos indeseables por la formación de emisiones de óxidos nitrosos asociados a las altas temperaturas, por lo que también se han desarrollado técnicas que mitigan este efecto mediante la recirculación de gases de combustión en la zona de reacción (Gupta, 2006). En este trabajo se realiza una revisión de las características de la combustión con aire normal (21% O2 – 79% N2) altamente precalentado, identificando las mejores tecnologías por emplear, los parámetros básicos de funcionamiento, ventajas, desventajas, perspectivas, técnicas de simulación y problemas asociados al fenómeno que permitan obtener fundamentos, teóricos, experimentales

[171]


[172]

Combustión con exceso de entalpía

y tecnológicos, para tener herramientas que permitan en el país la investigación de esta tecnología, utilizando múltiples combustibles esta tecnología gaseosos utilizandocomo múltiples combustibles gaseosos comoelelgas metano, el el metano, el propano, el biogás, de síntesis y otras pano, el biogás, el gas demezclas. síntesis y otras mezclas.

2. Combustión con exceso de entalpía COMBUSTIÓN CON EXCESO DE ENTALPÍA

El término “exceso dedescribir entalpía” es usadoentregada para describir érmino “exceso de entalpía”, es usado para la entalpía por los la entalpía entregada por los productos de combustión a los reactivos ductos de combustión a los reactivos para incrementar su temperatura con para incrementar su temperatura con efectos importantes sobre ctos importantes las velocidades de los combustión, límites de y las sobre velocidades de combustión, límites de los inflamabilidad temperaturas llama (Weinberg, 1986),Produciendo produciendounun amabilidad y laslastemperaturas dedellama (Weinberg, 1986). incrementodeencombustión, la eficiencia de combustión, unaendisminución en las remento en la eficiencia una disminución las emisiones emisiones contaminantes y facilitando el quemado de combustibles ntaminantes y facilitando quemado de combustibles de bajo poder calorífico. de bajo el poder calorífico. cantidad de energía La durante el proceso de combustión dada la ecuación cantidad de energía durante el está proceso depor combustión está dada por la ecuación (1) (Takeno, 1979.): (Takeno, 1979.):

³

Tf

T0

C p dT = Qc + Qa = H f − H 0 (1)

(1)

nde, T f es la temperatura final, inicial, liberado por la Donde, latemperatura temperatura final,QTc0 ellacalor temperatura inicial, T f Tes 0 la Qc el calor liberado por la conversión de energía química, Qa el nversión de energía química, Qaañadido el calor con sensible añadido con el precalentamiento calor sensible el precalentamiento del aire, H f y H 0 las entalpías en los dos estados. aire, H f y H 0 las entalpías en los dos estados. La figura 1 ilustra el concepto de la combustión con exceso de Figura 1 ilustra elentalpía concepto de la combustión con exceso de entalpía mediante la mediante la recirculación de calor. El cambio de entalpía para El la cambio combustión normal sin del aire irculación de calor. de entalpía paraprecalentamiento la combustión normal sin es indicado por la línea punteada. Debido a las pérdidas finitas de calentamiento del aire es indicado por la línea punteada. Debido a las pérdidas calor, la temperatura no puede alcanzar completamente los valores tas de calor, la temperatura no puede alcanzar completamente loslavalores quede que daría una llama adiabática. Por otro lado, variación entalpíaPor conotro la recuperación de calor es presentada medio de la ía una llama adiabática. lado, la variación de entalpía con la por recuperación línea continua. El precalentamiento de los reactivos incrementa la calor es presentada por medio de la línea continua. El precalentamiento de los entalpía permitiendo obtener temperaturas mayores a la de llama ctivos incrementaadiabática la entalpíaenpermitiendo temperaturas mayores a la de condicionesobtener normales (Tanaka, 2001). ma adiabática en condiciones normales (Tanaka, 2001).

temperatura de llama teórica, se puede decir que incrementa en forma lineal con

ncremento de la temperatura de precalentamiento del aire de combustión (Zhu,

04), como puede apreciarse en la Figura 2 para la reacción deRevista una Tecnológicas mezcla

pano (C3H8) – gas de síntesis (20% CO, 20% H2, 4% CH4 y N2 balance) y

erentes factores de aireación, obtenida a partir de la cinética química en fase


[173]

Revista Tecnológicas

La temperatura de llama teórica, se puede decir que incrementa en forma lineal con el incremento de la temperatura de precalentamiento del aire de combustión (Zhu, 2004), como puede apreciarse en la figura 2 para la reacción de una mezcla propano (C3H8) – gas de síntesis (20% CO, 20% H2, 4% CH4 y N2 balance) y diferentes factores de aireación, obtenida a partir de la cinética química en fase gaseosa para una llama de premezcla propagada libremente (Copete, 2008).

Figura 1. Concepto de exceso de entalpía. Adaptado de (Tanaka, 2001)

El exceso o defecto de aire también afecta la temperatura de llama teórica encontrando la más alta en la relación estequiométrica cuando n = 1 para cada temperatura de precalentamiento, disminuyendo notablemente cuando se incrementa el exceso 3000 o defecto de aire como puede apreciarse para n = 0.5, n = 1.75 y n = 2.

tura de llama (K)

2500 2000 1500

n=1 n=0.5


Combustión con exceso de entalpía

3000 2500

Temperatura de llama (K)

[174]

2000 1500

n=1 n=0.5 n=0.75

1000

n=1.25 n=1.5

500

1.75

0 298

400

500

600

700

800

900

1000

Temperatura de precalentamiento (K)

Figura 2. Temperatura de llama teórica en función de la temperatura de precalentamiento del aire para diferentes factores de aireación

3. Sistemas

para precalentar el aire de combustión

Una combustión eficiente puede ser lo suficientemente alta en muchas aplicaciones industriales si se controla la relación entre el aire y el combustible, sin embargo, la eficiencia útil no siempre es alta y para aumentarla se ha venido trabajando con la combustión con exceso de entalpía utilizando tres principales tecnologías: los recuperadores o intercambiadores de calor gas-gas, y los intercambiadores de calor que utilizan una matriz sólida como los regeneradores de calor y los quemadores porosos. Se han sugerido en la literatura un gran número de esquemas para la realización práctica de la combustión con exceso de entalpía mediante intercambiadores de calor gas-gas, dos ejemplos son los ilustrados en la figura 3.

Revista Tecnológicas


calor que utilizan una matriz sólida como los regeneradores de calor y los quemadores porosos. Se han sugerido en la literatura un gran número de esquemas para la realización [175de ] Revista Tecnológicas con exceso de entalpía mediante intercambiadores práctica de la combustión

calor gas - gas, dos ejemplos son los ilustrados en la Figura 3.

Figura 3. Quemadores de calor recirculado. Quemador con intercambiador a Figura 3. Quemadores de calor recirculado. a) a) Q uemador con intercambiador a contraflujo y b)

Quemador con intercambiador en espiral de dos pasos.

contraflujo y b) QuemadorAcon intercambiador en espiral de dos pasos. daptado de (Wood, 2008) Adaptado de (Wood, 2008) En experimentos usando de quemadores de doble espiral, se han En experimentos usando quemadores doble espiral, se han reportado combustión reportado combustión estable para concentraciones de metano de estable para concentraciones metano de de hasta 1.6% cuando el límite hasta 1.6% cuando elde límite inferior inflamabilidad es del ordeninferior de del 5% (Wood, 2008). Estudios con2008). este tipo de sistemas se siguen inflamabilidad es del orden del 5% (Wood, Estudios con este tipo de sistemas realizando por los beneficios presentados en la estabilidad de la se siguen realizando por los beneficios presentados en la estabilidad de la combustión, aún en la escala de la microcombustión, en la cual se ha combustión, aún en la escala la microcombustión, la cual se ha2001). podido obtener podido obtener una de combustión en modo sinen llama (Sitzki, Otra interesante para alcanzar una combustión una combustión en alternativa modo sin llama (Sitzki, 2001). con exceso de entalpía consiste en la incorporación de un sólido Otra alternativa interesante para alcanzar una combustión con exceso de entalpía poroso con grandes propiedades de transferencia de calor a la zona consiste en la incorporación de ununa sólido poroso con grandes de de reacción, lo cual produce autorecuperación interna depropiedades calor dándose la combustión al interior del mismo intercambiador que transferencia de calor a la zona de reacción, lo cual produce una autorecuperación es la idea básica de un quemador poroso. La primera demostración analítica de esta tecnología fue realizada por (Takeno, 1979) y comprobada experimentalmente más adelante (Kotani, 1982) y (Behbahani, 1984). Este método de recuperación de calor incorpora los tres modos de transferencia de calor: conducción, convección y radiación como se muestra en las figuras 4 y 5a) (Wood, 2008). El proceso puede resumirse de la siguiente manera: aguas abajo de la zona de reacción el gas está


1984). Este método de recuperación de calor incorpora los tres modos de transferencia de calor: conducción, convección y radiación como se muestra en la Figura 5 y 6 a) (Wood, 2008). El proceso puede resumirse de la siguiente manera: [176]

Combustión con exceso de entalpía

aguas abajo de la zona de reacción el gas está más caliente que el sólido y por tanto el calor es transferido porque convección los el productos de combustión más caliente el sólido ydesde por tanto calor es transferido por a la matriz convección desdeconduce los productos de combustión a ladirección matriz porosa. porosa. El sólido caliente y radia calor en la aguas arriba del El sólido caliente conduce y radia calor en la dirección aguas arriba

quemador; antes de la zona de de reacción alcanza una temperatura mayor a del quemador; antes la zona el desólido reacción el sólido alcanza una

temperatura mayorya de la deesta la mezcla reactivos y de esta la de la mezcla de reactivos formadetransfiere calor porforma convección a la transfiere calor por convección a la corriente. Los gases entrantes

corriente. Los entrantes son entonces hasta que songases entonces precalentados hasta queprecalentados alcanzan la temperatura de alcanzan la la reacción toma lugar cicloycontinúa. perfilesLos de perfiles de temperatura ignición, de ignición, la reacción tomay el lugar el ciclo Los continúa. temperatura en el sólido y el gas son como los que se muestran en

temperatura la enfigura el sólido y el gas sonreporta como que los que se muestran en la Figura 6 b. 5b. (Barra, 2004) mediante estos sistemas posible que recuperar hastaestos un 25sistemas % de la energía que entra con el hasta un 25 (Barra, 2004)esreporta mediante es posible recuperar combustible.

% de la energía que entra con el combustible.

Figura 5. Proceso de transferencia de calor en un quemador poroso. Adaptado Figura 4. Proceso de transferencia de calor en un quemador poroso. Ade daptado de (Delalic, 2004) (Delalic, 2004)

Revista Tecnológicas


Revista Tecnológicas

FIGURA 5. A) REPRESENTACIÓN ESQUEMÁTICA DE LA TRANSFERENCIA DE CALOR PERFIL DE TEMPERATURA DEL GAS Y EL SÓLIDO. ADAPTADO DE (WOOD, 2008)

EN UN QUEMADOR POROSO Y B)

Los materiales más importantes usados en esta tecnología son espumas cerámicas construidas normalmente de ZrO2, SiC y Al2O3 y su porosidad varía entre la zona de precalentamiento donde no hay reacción química y la zona de combustión. A nivel experimental se ha podido demostrar mediante el número modificado de Péclet la condición para que exista propagación de la llama (Mößbauer, 1999). SLdmCp  (2) Ps =  65 k Donde SL es la velocidad laminar de combustión, dm el diámetro equivalente del poro, Cp el calor específico,  la densidad y k la conductividad de la mezcla gaseosa. Las principales ventajas de esta tecnología es que son sistemas pequeños y compactos, de muy alta variación de potencia y mínimas

[177]


[178]

Combustión con exceso de entalpía

de combustión se está almacenando calor en el regenerador del quemador opuesto.

emisiones contaminantes independiente de la carga, además de que pueden ser aplicados en muchos procesos industriales, a nivel posteriormente entregado al aire de combustión, el turbinas cual de esta es residencial, para calentamiento de aire, en a gas,manera en generadores de vapor y calentamiento de fluidos, tubos radiantes,de gas precalentado aumentando su energía interna antes de entrar al quemador entre otros. (Amell, 2006). Aproximadamente un 85% del calor residual puede ser recuperado Para procesos industriales a alta temperatura, los regeneramediante esta tecnología (NEDO, 2006). En la Figura 7 se presenta dores de calor se encuentran como la tecnología más conveniente esquemáticamente el funcionamiento descrito. para recuperar el calor residual de los productos de combustión. Son dos intercambiadores de calor acoplados uno a uncon quemador En 1858 William Siemens construyó el primer hornocada experimental regeneradores para trabajar alternadamente, mientras un quemador está en la para precalentar el aire de combustión, con el objetivo de incrementar la temperatura fase de combustión se está almacenando calor en el regenerador del de llama, dos años después construyó y patentó el primer horno comercial con quemador opuesto. El calor transferido al refractario de los gases recuperación regenerativa de calory aplicable a la fundición de vidrio y escalado a calientes es almacenado posteriormente entregado al aire de el cual esta manera precalentado aumentando través combustión, de la historia a de muchos otros esprocesos industriales. Las su primeras energía interna antes de entrar al quemador de gas (Amell, 2006). generaciones de esta tecnología se caracterizaban por ser sistemas robustos Aproximadamente, un 85% del calor residual puede ser recuperado ubicados al exterior de tecnología las cámaras(NEDO de combustión que gran tamaño y mediante esta , 2006). En laresultaban figura 6 sede presenta altos costos de inversión (Baukal, 2004). esquemáticamente el funcionamiento descrito. El calor transferido al refractario de los gases calientes, es almacenado y

Figura 7. Sistemas de combustión regenerativos Figura 6. Sistemas de combustión regenerativos

A partir de los años 1980’s comenzaron los trabajos para desarrollar quemadores regenerativos más compactos mediante la incorporación de la recuperación de calor a la cámara de combustión, a través de arreglos compactos y de gran efectividad de transferencia de calor que se conocen como sistemas autoregenerativos. Revista Tecnológicas Estos


Revista Tecnológicas

En 1858, William Siemens construyó el primer horno experimental con regeneradores para precalentar el aire de combustión, con el objetivo de incrementar la temperatura de llama, dos años después construyó y patentó el primer horno comercial con recuperación regenerativa de calor aplicable a la fundición de vidrio y escalado a través de la historia a muchos otros procesos industriales. Las primeras generaciones de esta tecnología se caracterizaban por ser sistemas robustos ubicados al exterior de las cámaras de combustión que resultaban de gran tamaño y altos costos de inversión (Baukal, 2004). A partir de los años 1980 comenzaron los trabajos para desarrollar quemadores regenerativos más compactos mediante la incorporación de la recuperación de calor a la cámara de combustión, a través de arreglos compactos y de gran efectividad de transferencia de calor que se conocen como sistemas autorregenerativos. Estos sistemas regenerativos compactos poseen una efectividad cercana al 90%, alcanzando altos niveles de precalentamiento del aire que pueden estar en un 85% de la temperatura del proceso, mejorando la uniformidad de la temperatura en el horno, incrementando la productividad y ahorrando cantidades considerables de combustible (Yu, 2002). Diferentes materiales han sido empleados como regeneradores térmicos, estos deben cumplir un excelente desempeño a altas temperaturas, resistencia a los choques térmicos y ataques químicos. Por esta razón se utilizan materiales cerámicos compuestos por Al2O3­/SiO2, que se pueden encontrar en diferentes configuraciones geométricas. La figura 7 muestra las usualmente más utilizadas: esferas y una configuración en panal de abeja “honeycomb” que brinda menores caídas de presión y brinda una mayor área de transferencia de calor por unidad de volumen (Suzukawa, 1997).

[179]


cerámicos compuestos por Al2O3/SiO2, que se pueden encontrar en diferentes configuraciones geométricas. La Figura 8 muestra las usualmente más utilizadas: esferas y una configuración en panal de abeja “honeycomb” que brinda menores caídas[180 de] presión y con brinda mayor área de transferencia de calor por unidad de Combustión exceso deuna entalpía volumen (Suzukawa, 1997).

Figura 8. Sistemas combustión regenerativo. Adaptado de, (Suzukawa, 1997) Figura 7.de Sistemas de combustión regenerativo. Adaptado de (Suzukawa 1997) 4. ACERCA 4. A DEcerca LOSde los LÍMITES INFLAMABILIDAD, LAS límites DE de inflamabilidad , las emisiones

EMISIONES

contaminantes y la eficiencia térmica CONTAMINANTES Y LA EFICIENCIA TÉRMICA

Los límites de de inflamabilidad una –mezcla aire-combustible Los límites de inflamabilidad una mezcladeaire combustible se definen como las se definen como las relaciones máximas y mínimas en porcentaje

relaciones máximas y mininas en porcentaje entre el volumen de gas y el volumen entre el volumen de gas y el volumen de la mezcla aire-gas para la esta es inflamable puede auto-propagarse, significa de la mezclacual aire – mezcla gas para la cual yesta mezcla es inflamable y puede autoque una mezcla cuya composición no se halle dentro de los límites

propagarse, significa que una cuya composición no se halle de inflamabilidad no mezcla puede encenderse aunque esté expuesta a unadentro de los

chispa o a una Porque el límite inferior inflamabilidad límites de inflamabilidad nollama. puede encenderse aunquedeeste expuesta de a una chispa o una mezcla aire/gas disminuye cuando se incrementa la tempera-

una llama. Porque el delímite inferior de inflamabilidad de una mezcla aire/gas tura inicial la mezcla de acuerdo con la ley de Burgess-Wheeler (Zabetakis, 1965), la combustión con aire precalentado dirigir disminuye cuando se incrementa la temperatura inicial de la puede mezcla de acuerdo a la a una reducción del límite inferior de inflamabilidad.

ley de Burgess-Wheeler (Zabetakis, 1965), la combustión con aire precalentado ª

3.14(T − 298) º L.I .I 298 PCI ¼

puede dirigir a una L.Ireducción .IT = L.I .I 298del (3) (3) «1 −límite inferior» de inflamabilidad. ¬

nde

L.I .IT

I .I T es el inferior deainflamabilidad a lade es el Donde límite L.inferior delímite inflamabilidad la temperatura temperatura de precalentamiento de los reactivos (en porcentaje),

el poder calorífico inferior calentamiento dey pci los reactivos (en porcentaje), y PCI el poder calorífico inferior (en MJ/kmol). Por otro lado, el límite superior de inflamabilidad tiende a MJ/kmol). aumentarse al incrementar la temperatura de precalentamiento del aire lo cual genera, entonces, una ampliación significativa del

otro lado, el límite superior de inflamabilidad tiende a aumentarse al incrementar

emperatura de precalentamiento del aire lo cual genera entonces una ampliación

nificativa del intervalo de inflamabilidad si se compara con el intervalo de

amabilidad a temperatura ambiente como se ilustra en la Figura 8. Un gran Revista Tecnológicas emento en la temperatura puede causar autoignición, además si se trabaja con

combustible de bajo poder calorífico, la región de inflamabilidad desaparece a


¬ Donde

L.I .IT

298

¼

es el límite inferior de inflamabilidad a la temperatura de

precalentamiento de los reactivos (en porcentaje), y PCI el poder calorífico inferior (en MJ/kmol).

[181] Revista Tecnológicas Por otro lado, el límite superior de inflamabilidad tiende a aumentarse al incrementar

la temperatura de precalentamiento del aire lo cual genera entonces una ampliación

intervalo de inflamabilidad si se compara con el intervalo de inflamabilidad a temperatura ambiente como se ilustra en la figura 8. inflamabilidad a incremento temperaturaen ambiente como sepuede ilustra en laautoignición, Figura 8. Un gran Un gran la temperatura causar incremento en lasitemperatura autoignición, si se trabaja con además, se trabaja puede con uncausar combustible de bajoademás poder calorífico, la región de inflamabilidad desaparece a temperatura ambiente y un combustible de bajo poder calorífico, la región de inflamabilidad desaparece a reaparece cuando la mezcla es precalentada por encima de ciertos temperatura ambiente y reaparece cuando la mezcla es precalentada por encima de niveles de temperatura (Yeganeh, 2005). significativa del intervalo de inflamabilidad si se compara con el intervalo de

ciertos niveles de temperatura (Yeganeh, 2005).

Figura 8. Región inflamable en función del poder calorífico del combustible, la Figura 8. Región inflamable en función del poder calorífico del combustible,

temperaturalainicial de lainicial mezcla y mezcla la relación de equivalencia. Adaptado de temperatura de la y la relación de equivalencia . Adaptado de (Masashi, 1998)

(Masashi, 1998)

Como ya se ha mencionado, la temperatura de precalentamiento del aire trae consigo un incremento en los picos de temperatura consigode unllama, incremento en desde los picos de temperatura de la llama, lo cual de desde el punto lo cual el punto de vista de formación NOx genera de mayores concentraciones de este gas de efectode este de vistatérmicos de la formación NOx térmicos genera mayores concentraciones invernadero (Seepana, 2006), con una tendencia, como la mostrada en la figura 9. Como ya se ha mencionado, la temperatura de precalentamiento del aire trae


gas de[182 efecto invernadero 2006), con una tendencia como la mostrada en Combustión con exceso(Seepana, de entalpía ] la Figura 9.

Figura 9. Emisiones de NOx en función de la temperatura

precalentamiento aire Figura 9. Emisiones de NOx endefunción de ladetemperatura de precalentamiento

de aire

Para atenuar y controlar estos incrementos en las emisiones de se han desarrollado diferentes técnicas la combustión Para atenuarNOyx,controlar estos incrementos en lascomo emisiones de NOx, se han por etapas, el reburning, flame cooling, combustión con premezcla desarrollado diferentes técnicas como la combustión por etapas, el reburning, flame pobre y una muy importante, la recirculación de los productos de combustión la zona depobre reacción lo que genera un viciamiento cooling, combustión conen premezcla y una muy importante, la recirculación de local del aire, reduce las temperaturas de llama y por ende las los productosemisiones de combustión en la zona de reacción lo que genera un viciamiento de NOx (Masashi, 1998). Mediante la recirculación de se las pueden obtener concentraciones muy por las debajo del local del aire,humos reduce temperaturas de llama y por ende emisiones de NOx 21% de O2 en la zona de reacción y con el precalentamiento del (Masashi, 1998). Mediante la recirculación de de humos se pueden obtener comburente por encima de la temperatura autoignición del combustible, posible del obtener fenómeno de zona combustión sin de reacción y con el concentraciones muy poresdebajo 21%elde O2 en la llama conocido como “flameless”. precalentamientoEsdel comburente la del temperatura de por autoignición del bien conocido enpor el encima mundo, de el rol CO2 emitido combustión de combustibles fósilesde sobre el fenómeno combustible, laes posible obtener el fenómeno combustión sin del llama conocido calentamiento global (Cavaliere, 2004). Al sustituir sistemas de como “flameless”. combustión convencionales por tecnologías con aire precalentado se logra reducir las emisiones incremento de la eficiencia Es bien conocido a nivel mundial, CO el 2 debido rol delal CO 2 emitido por la combustión de de combustión y la reducción del consumo de combustible. En la combustibles figura fósiles10sobre el fenómeno calentamiento global (Cavaliere, 2004). Al se puede apreciar eldel posible ahorro en combustible para un proceso calentamiento convencionales con el aumento de lapor temperatura de sustituir sistemas dede combustión tecnologías con aire

precalentado se logra reducir las emisiones CO2 debido al incremento de la eficiencia de combustión y la reducción del consumo de combustible. En Tecnológicas la Figura 10 se puede Revista apreciar el posible ahorro en combustible para un proceso de calentamiento con el aumento de la temperatura de precalentamiento del aire para diferentes


[183]

Revista Tecnológicas

precalentamiento del aire para diferentes temperaturas de gases evacuados, usando Fuel Oil como combustible y un exceso de aire del 20% (NEDO, 2006).

Figura 10. Ahorro de combustible en función de la temperatura de Figura 10. Ahorro de combustible en función de la temperatura precalentamiento del del aire. Adaptado de(NEDO (NEDO, de precalentamiento aire . Adaptado de , 20062006) ) 5. MODELADO Y SIMULACIÓN DE LA 5. Modelado y simulación deCOMBUSTIÓN la combustión

En el pasado las investigaciones en combustión se llevaban a cabo por medio de

En el pasado, las investigaciones en combustión llevaban métodos empíricos que resultaban costosos y demandaban gran se cantidad de tiempo.

cabo por avances medio deen métodos empíricos que y de la Con losarecientes métodos numéricos y resultaban los grandes costosos potenciales demandaban gran cantidad de tiempo. Con los recientes avances en métodos numéricos y los grandes potenciales de la computación, fenómenos. esta dependencia se ha trasladado hacia la simulación numérica La dinámica fluidos computacional puede ser usada como una herramienta de los de fenómenos. práctica de La diseño para estudiar nuevas configuraciones puede de sistemas térmicos con dinámica de fluidos computacional ser usada como una herramienta práctica diseño de paraestos estudiar nuevas diferentes condiciones de operación. El de potencial métodos numéricos configuraciones de sistemas térmicos con diferentes condiciones de generalmente ha sido probado y validados con resultados experimentales según sea operación. El potencial de estos métodos numéricos generalmente el caso. ha sido probado y validado con resultados experimentales, según Tives en 1998 realizó un trabajo en un horno regenerativo con precalentamiento de sea el caso. computación, esta dependencia se ha trasladado hacia la simulación numérica de los

aire para validar diferentes modelos del código FLUENT en una combustión con

llama de difusión. Se emplearon un total de 14 casos de los cuales solo 11 alcanzaron

una

convergencia

y

estos

fueron

comparados

con

resultados

experimentales. Los tres mejores casos en términos de aproximación y esfuerzo


[184]

Combustión con exceso de entalpía

Tives en 1998 realizó un trabajo en un horno regenerativo con precalentamiento de aire para validar diferentes modelos del código FLUENT en una combustión con llama de difusión. Se emplearon un total de 14 casos de los cuales sólo 11 alcanzaron una convergencia, y éstos fueron comparados con resultados experimentales. Los tres mejores casos en términos de aproximación y esfuerzo computacional fueron los que emplearon el modelo k − ε para turbulencia, PDF – Mixture Fraction para la combustión y un coeficiente de absorción constante en la radiación (Tives, 1998). Tabacco et al. simularon una cámara de combustión sin llama, aplicando dos modelos de combustión: Finite Rate/Eddy Dissipation (Magnussen & Hjertager), usando un mecanismo de reacción de un paso (mecanismo de Westbrook & Dryer) y el modelo PDF/mixture fraction suponiendo equilibrio químico. Ambos modelos dieron buenos ajustes cualitativos de los datos experimentales (Tabacco, 2002). Para la aplicación de la simulación numérica y sus modelos matemáticos en combustión con aire altamente precalentado, Weihok y Blasiak propusieron una metodología para seguir que puede ser resumida como (Weihong, 2006): •

Estudiar los modelos disponibles en los programas computacionales, desarrollar nuevos modelos según requerimientos y verificar los modelos usados.

Producir información del campo de estudio, esto es: campos de velocidad, distribución de temperatura, niveles de concentración de especies, distribución de la transferencia de calor, niveles de quemado, gradientes de presión, etc.

Comparar y validar los resultados de la simulación con resul­ tados experimentales.

Análisis de las características principales de los resultados como la combustión, fluidodinámica y estructura de la llama.

Estudiar la influencia de diferentes parámetros sobre la combustión, las emisiones contaminantes y la transferencia de calor. Estos parámetros incluyen la concentración de O2 en la zona de reacción, la temperatura de precalentamiento del

Revista Tecnológicas


Revista Tecnológicas

aire de combustión, la temperatura del combustible, los flujos de aire y combustible y la localización de la llama. Otra herramienta computacional importante por utilizar en el estudio de la combustión con aire altamente precalentado es el software comercial CHEMKIN que permite resolver e interpretar la combustión a partir de la cinética química en fase gaseosa. Zhu et al. lo utilizaron para estudiar el efecto de la temperatura de precalentamiento del aire sobre las emisiones de NOx y la formación de soot para diferentes concentraciones de O2 y diferentes concentraciones del combustible (Zhu, 2004), con otros estudios se han podido predecir las concentraciones de especies químicas en el equilibrio químico, calcular las temperaturas de llama teórica y las velocidades de combustión. Utilizando este mismo software, Barra et al. realizaron un estudio numérico sobre el efecto de las propiedades del material sobre la estabilización de llama en un quemador poroso. En la figura 11 se presenta el comportamiento de la temperatura del gas, del sólido y el calor liberado en el quemador poroso (Barra, 2003), en la interface es donde se estabiliza la llama y como puede observarse se obtiene una temperatura de precalentamiento de la mezcla cercana a 1200 K. En este caso, el software permitió analizar diferentes porosidades y propiedades del material encontrando los límites de estabilización de la llama para diferentes factores de aireación y las velocidades óptimas de combustión. El comportamiento de la velocidad de deflagración laminar calculada en CHEMKIN se presenta en la figura 12 para la mezcla Propano-Syngas, en las cuales se puede observar su incremento a medida que se aumenta la temperatura de precalentamiento del aire. Esta velocidad de deflagración también se ve afectada por la relación aire-combustible, con los máximos valores cuando se cuenta con una relación estequiométrica, es decir con un factor de aireación n = 1. Este aumento en la velocidad de deflagración puede afectar la estabilidad de combustión posibilitando el desprendimiento de la llama, por lo cual dependiendo del sistema de combustión deben ser tenidas en cuenta diferentes técnicas de estabilización de la llama.

[185]


del gas, del sólido y el calor liberado en el quemador poroso (Barra, 2003), en la interface es donde se estabiliza la llama y como puede observarse se obtiene una temperatura de precalentamiento de la mezcla cercana a 1200 K. En este caso el software permitió analizar diferentes porosidades y propiedades del material Combustión con exceso de entalpía [186 ] encontrando los límites de estabilización de la llama para diferentes factores de aireación y las velocidades óptimas de combustión.

Figura 11. Temperatura del gas, sólido y calor liberado en un quemador poroso. Figura 11. Temperatura del gas, sólido y calor liberado en un quemador poroso.

Adaptado de (Barra, 2003)

daptado de (Barra, 2003) desprendimiento de la llama, Apor lo cual dependiendo del sistema de combustión

El comportamiento de la velocidad de deflagración laminar calculada en CHEMKIN deben ser tenidas en cuenta diferentes técnicas de estabilización de la llama.

se presenta en la Figura 12 para la mezcla Propano – Syngas, en las cuales se 600

298

400 puede observar su 500 incremento a medida que se aumenta la temperatura de 600

Velocidad de deflagración (cm/s)

700 500 precalentamiento del 800 aire. Esta velocidad de deflagración también se ve afectada por 900

1000 la relación aire – combustible, con los máximos valores cuando se cuenta con una

400

relación estequiométrica, es decir con un factor de aireación n=1. Este aumento en la velocidad 300 de deflagración puede afectar la estabilidad de combustión posibilitando el 200

100

0 0,5

0,75

1

1,25

1,5

1,75

2

Factor de aireación

Figura F12. Velocidad de combustión laminar en función de la temperatura de igura 12. Velocidad de combustión laminar en función de la temperatura de precalentamiento aire diferentes factores precalentamiento dede aire y ydiferentes factoresde deaireación aireación

6. CONCLUSIONES ƒ

Revista Tecnológicas El precalentamiento del aire tiene efectos sobre diferentes propiedades de

combustión: disminuye el límite inferior de inflamabilidad y aumenta el límite superior, es decir que se amplía el intervalo de inflamabilidad, lo que hace posible


Revista Tecnológicas

6. Conclusiones • El precalentamiento del aire tiene efectos sobre diferentes

propiedades de combustión: disminuye el límite inferior de inflamabilidad y aumenta el límite superior, es decir que se amplía el intervalo de inflamabilidad, lo que hace posible el quemado de combustibles de bajo poder calorífico y concentraciones por fuera del intervalo a temperatura ambiente. La temperatura de llama teórica se incrementa en forma lineal con el aumento de la temperatura de precalentamiento de aire. La velocidad de combustión también es incrementada notablemente.

• El incremento de la temperatura de llama trae consigo un incremento en las emisiones de NOx, por lo que se han desarrollado diferentes técnicas para mitigar este efecto, la más importante quizás es la recirculación de productos de combustión que disminuye la concentración de O2 en la zona de reactivos, proceso conocido como combustión flameless, con un sin número de investigaciones a nivel mundial en este tema. • Las principales tecnologías para precalentar el aire de combustión son los recuperadores gas-gas, los regeneradores de calor gas-sólido-gas y los quemadores porosos, con ventajas de unos frente a los otros según sea el campo de aplicación. • Existen comercialmente diferentes herramientas computacionales que permiten mediante la aplicación de métodos numéricos simular el comportamiento de la combustión, y los fenómenos fluidodinámicos y térmicos; entre los más importantes se tiene el codigo CFD FLUENT y el software CHEMKIN para predecir la combustión a partir de la cinética química en fase gaseosa. • Identificados y descritos los avances, tendencias y bondades que brinda la tecnología de combustión con exceso de entalpía, el autor de este trabajo cree totalmente pertinente para la región y el país la apropiación y desarrollo tecnológico en esta temática mediante proyectos de investigación que permitan incrementar eficiencia térmica en diferentes procesos industriales y la

[187]


[188]

Combustión con exceso de entalpía

combustión y utilización de gases de bajo poder calorífico como el gas de síntesis o el biogás, actualmente desechado en muchos biodigestores y rellenos sanitarios.

7. Bibliografía Amell A., Copete H. y Cadavid F. (2006). Desarrollo y evaluación de un sistema de combustión autorregenerativo y radiante. Revista Dyna. Año 74, N° 151, 61-69. Barra A., Ellzey J. (2004). Heat recirculation and heat transfer in porous burners. Combustion and Flame 137, 230-241. Barra A., Diepvens G., Ellzey J y Henneke M. (2003). Numerical study of the effects of material properties on flame stabilization in a porous burner. Combustion and Flame 134, 369-379. Baukal C. (2004). Industrial Burner Handbook. CRC Press Boca Raton New York, 413-440. Behbahani H., Kotani Y., Takeno T. (1984). An excess enthalpy flame combustor for extended flow ranges. Proceedings of the Twentieth Symposium International on Combustion. Cavaliere A. y Joannon M. (2004). Mild Combustion. Progress in Energy and Combustion Science 30, 329-366. Copete H. (2008). Estudio del efecto de la temperatura de precalentamiento de aire y el factor de aireación sobre la temperatura de llama, la velocidad laminar de combustión y la concentración de especies en la combustión de la mezcla Propano-Syngas. Documento de trabajo. Doctorado en Ingeniería. Universidad de Antioquia. Delalic N., Mulahasanovic D y Ganic E. (2004). Porous media compact heat exchanger unit-experiment and analysis. Experimental Thermal and Fluid Science 28, 185-192. Getting M. (1986). The regenerative burner in the metal industry. Gas Warme International, 292-296. Gupta A. (2006). Clean power generation from fuels using high temperature air combustion technology. The 2nd Joint International Conference on “Sustainable Energy and Environment”, 11-20. Kotani Y., Takeno T. (1982). An experimental study on stability and combustion characteristics of an excess enthalpy flame. Proceedings of the Nineteenth Symposium International on Combustion.

Revista Tecnológicas


Revista Tecnológicas Masashi K. y Hasegawa T. (1998). The science and technology of combustion in highly preheated air. The twenty-seventh symposium (International) on combustion - The Combustion Institute. Mößbauer S. Pickenäcker O., Pickenäcker K. y Trimis D. (1999). Applications of the porous burner technology. Fifth International Conference on Technologies and Combustion for a Clean Environment (Clean Air V), Lisbon (Portugal), 519-526. NEDO. (2006). Japanese Technologies for Energy Savings/GHG Emissions Reductions. NEDO, 29-56. Seepana S. y Jayanti S. (2006). Prediction of HITAC features in a pilot furnace. Advances in Energy Research, 180-205. Sitzki L., Borer K., Schuster E. y Ronney P. (2001). Combustion in Microscale Heat-Recirculating Burners. The Third Asia - Pacific Conference on Combustion, 24-27. Suzukawa Y., Sugiyama S., Hino Y, Ishioka M. y Mori I. (1997). Heat transfer improvement and NOx reduction by highly preheated air combustion. Energy Convers. Mgmt, 1061-1071. Tabacco D., Innarella C., y Bruno C. (2002). Theoretical and numerical investigation on flameless combustion. Combustion Science and Technology, 1-35. Takeno T., Sato K. (1979.). An excess entalphy flame theory. Combustion Science Technology 20, 73-84. Tanaka R., Shinoda M. y Arai N. (2001). Combustion characteristics of a heat recirculating ceramic burner using a low calorific fuel. Energy Conversion and Management 42, 1897-1907. Tives N. (1998). Numerical simulations of turbulent non-premixed combustion in a regenerative furnace. National Library of Canada, 1272-1281. Weihong Y. y Blasiak W. (2006). CFD as applied to high temperature air combustion in industrial furnaces. IFRF Combustion Journal, 23-33. Weinberg F. (1986). Combustion in heat-recirculation burners. Advanced Combustión Methods, academics Press, 930-945. Wood S., y Harris A. (2008). Porous burner for lean - burn applications. Progress in Energy and Combustion Science 34, 667-684. Yeganeh M. (2005). Effects of preheated combustion air on laminar coflow diffusion flames under normal and microgravity conditions. University of Maryland, 265-268.

[189]


[190]

Combusti贸n con exceso de entalp铆a

Yu J., Zhang M., Fan W., Zhou Y. y Zhao G. (2002). Study on performance of the ball packed - bed regenerator: experiments and simulations. Applied Thermal Engineering 22, 641-651. Zabetakis M. (1965). Flammability characteristics of gases and vapors. Bureau of mines bulletin, 627-647. Zhu T., Zheng, W y Cao, Z. (2004). Numerical study on NOx and soot emission in high temperature air combusti贸n based on detailed chemical kinetics. Tongji University Shangai.

Revista Tecnol贸gicas


La técnica y el naturalismo

metodológico

Álvaro Monterroza1

Resumen El artículo reseña y reconstruye algunas reflexiones sobre la naturaleza de la técnica para mostrar que ésta no es sólo una estrategia evolutiva ligada a la supervivencia como el resto de animales, sino como moldeadora del ser humano en su integridad. Adopto una postura naturalista flexible (naturalismo metodológico) en la que se acepta la complementariedad de la filosofía con las ciencias naturales y la favorabilidad de ésta para el estudio filosófico de la técnica. Aunque en un principio se puede pensar que las reflexiones sobre la técnica desde la tradición filosófica como las de Ortega y Gasset y las de Heidegger son distantes y excluyentes de las tesis de algunos filósofos naturalistas, se muestra que esta distinción es difusa y que, por el contrario, se pueden complementar, si se asume un naturalismo como el que adoptamos.

Palabras clave Técnica, naturalismo, naturalismo metodológico, evolucio­ nismo.

1

Magíster en Ingeniería, ingeniero químico y estudiante de filosofía. Actualmente se desempeña como docente e investigador del INSTITUTO TECNOLÓGICO METROPOLITANO de Medellín en el grupo de investigación CTS. alvaromonterroza@ itm.edu.co

Fecha de recepción: 7 de noviembre de 2008 Fecha de aceptación: 11 de diciembre de 2008

Revista Tecnológicas No. 21, diciembre de 2008


[192]

Abstract This article highlight and reconstructs some reflexions on the nature of technique to show that this is not only an evolutionary strategy tie to the survival, as in the case of other animals, but something that molds the human being as a whole. I adopt a flexible naturalist approach (methodological naturalism) in which philosophy is accepted as being complementary to the natural sciences and as well-suited for the philosophical study of technique. Although it could initially be supposed that reflexions on technique taken from philosophical tradition, such as those of Ortega y Gasset and of Heidegger, both of them are distant and mutually exclusive, it is shown that this distinction is diffuse and that, to the contrary, they may complement each other if one adopts a naturalist approach such as this one.

Key words Technique, naturalism, methodological naturalism, evolutionism.

Revista Tecnológicas


Revista Tecnológicas

1. Introducción La técnica es considerada, en general, como ese conjunto de normas, reglas y procedimientos para obtener un resultado. Los orígenes del concepto vienen de la palabra griega, τέχνη (téchne) y lo más común es asociar a la técnica con los artefactos, pero también se incluyen las habilidades para llevar a cabo un proceso productivo, artístico o social. Esta descripción, típica de una enciclopedia, es muy general y se requiere de un estudio más profundo, que tenga en cuenta los puntos de vista de las diversas disciplinas (antropología, sociología, historia, ciencias naturales y filosofía) para acercarse a una definición más satisfactoria. De hecho, la técnica en sí misma es un objeto de estudio filosófico. En este artículo presentaremos inicialmente qué se entiende por técnica desde la antropología y desde algunas filosofías naturalistas como la de Agazzi o la de García Palacios; posteriormente, mostraremos los límites de sus resultados y ahondaremos en la distinción entre la técnica de algunas especies vivas y la técnica humana. Se enriquecerá el concepto de técnica con las ideas de Julián Pacho, Leroi-Gourhan y Ortega y Gasset, para mostrar que la técnica no se limita a la supervivencia, sino que constituye un factor de emancipación del ser humano. Al final, se retomará la postura naturalista, para mostrar que las reflexiones de tipo metafísico como las de Ortega y Heidegger no son contrarias al naturalismo y que, por el contrario, se basan en los mismos supuestos naturalistas de otros filósofos.

2. La

técnica entendida por la antropología y el evolucionismo

Una típica definición de técnica es la del filósofo italiano Evandro Agazzi: un conjunto de conocimientos eficaces que el hombre ha desarrollado a lo largo de los siglos para mejorar su manera de vivir prácticamente. Consecuencia de esto, la técnica se concibe

[193]


[194]

La técnica y el naturalismo metodológico

como un saber tan antiguo como la humanidad misma y, desde el punto de vista de la antropología filosófica, se comprende como una característica específica del hombre, puesto que, si se considera que los animales sobreviven adaptándose al medio ambiente, el hombre, en cambio, sobrevive adaptando el medio ambiente a sí mismo (Agazzi, 1997). Esta definición de Agazzi es un lugar común entre muchos filósofos de corte naturalista2. Sin embargo, desde otro punto de vista, puede considerársela como una definición simplicadora y antropocentrista. En efecto, se le puede replicar que las construcciones de algunos invertebrados como hormigueros, panales, o las de algunos vertebrados como nidos o presas también son modificaciones del medio a favor de las especies mismas. Como la especie humana, muchas especies animales también han cambiado su estrategia evolutiva. Sin embargo, aplazaremos un poco la respuesta a esta réplica y, por ahora, resaltaremos algunas observaciones de la antropología acerca del origen de la técnica. Si la técnica es tan antigua como el hombre mismo, desde una postura filosófica naturalista,3 creo conveniente, en primer lugar, evocar las teorías del origen del hombre surgidas en la antropología, ya que es un buen punto de partida para estudiar el concepto de técnica y la razón de su importancia en la constitución del ser humano. La antropología ha lanzado diversas hipótesis de cómo surgió el proceso de hominización, es decir, los procesos biológicos por medio de los cuales a partir de algunos primates surgieron los humanos. Los antropólogos no han llegado a acuerdos definitivos sobre la importancia y orden de esos factores determinantes en la hominización, pero sí se identifican algunos que influyen sobremanera Es importante anotar que esta afirmación se aplica solamente a un sector de los naturalistas, ya que esta postura filosófica es muy amplia y tiene muchos matices. 3 La postura filosófica naturalista afirma, además que los resultados de las ciencias son un buen material de trabajo para la actividad filosófica, ergo, la filosofía no es una actividad prescriptiva a priori, sino que también es reflexiva a posteriori. 2

Revista Tecnológicas


Revista Tecnológicas

como el de la sociabilidad, el de la capacidad lingüística y el de las habilidades técnicas. La permanente e intensa interacción social de los homínidos fue una condición que ayudó a que surgiera un cambio de hábitat que marcó la transición de una vida arborícola a la caza en cooperación. Sin embargo, según García Palacios, fue la posición vertical el primer criterio de humanidad que liga a los hombres con sus antepasados (García Palacios, 2005, p. 35). Como derivaciones de esto, surgió la posesión de cara corta, la desaparición de caninos ofensivos y las manos liberadas de la locomoción, lo cual, en consecuencia, permitió la posesión y manipulación de útiles como primera condición para el desarrollo de técnicas en las que el cerebro jugará un papel integrador (García Palacios, Ibíd.). Nuestra especie ha establecido una diferencia evolutiva al aumentar su capacidad cerebral. La bipedación liberó sus manos para emplearlas en instrumentos que potencian y desarrollan las facultades mentales hasta la aparición del lenguaje y la inteligencia. A partir de ahí, lo heredado –unos cien mil genes– queda disminuido ante el potencial del cerebro: más de 10.000 millones de neuronas en compleja conexión sináptica (Bernabeu Rico, 1997, p. 17). De esta hiperformalización de la mente4 (que produce o producida por? la educación cultural) procede, según Bernabeu Rico “la gran plasticidad del hombre, que posibilita una gran pluralidad de direcciones en el comportamiento” (Bernabeu Rico, 1997, p. 18). Ahora bien, si indagamos más en los detalles de los mecanismos que propone la antropología, ésta nos señala que el cambio de arborícolas a cazadores sociales tuvo que estar acompañado necesariamente de una capacidad comunicativa superior a la de cualquier otro mamífero. Pero esto sólo fue posible porque estos monos arborícolas, sin grandes garras y con escasa fuerza física, usaron sus manos hábilmente para lanzar piedras o palos, para cazar sus presas o para defenderse de sus depredadores. Así, estos

4

Podríamos afirmar que la hiperformalización es del cerebro en concreto en vez de la mente, sin embargo no tomaré postura frente al problema mente-cerebro.

[195]


[196]

La técnica y el naturalismo metodológico

instrumentos pequeños, que con el tiempo se convirtieron en objetos más sofisticados (mazos, lanzas, cuchillos punzones), fueron los que lograron dar una ventaja biológica sobre otros depredadores mejor dotados biológicamente (García Palacios, 2005, p. 36). En vista de este cambio en la estrategia biológica, que marcó la aparición de prácticas de modificación del entorno a partir de actos y gestos técnicos, superadoras de las coerciones naturales de la evolución biológica, las variaciones anatómicas adaptativas dejaron de afectar radicalmente al Homo sapiens.5 La evolución de la especie humana se volvió más cultural que natural y comenzó a verse potenciada por la innovación en hallar cada vez mejores y más variadas soluciones a los problemas mediante la sofisticación de los artefactos y los gestos y actos técnicos (García Palacios, Ibíd.). Por mencionar algunos actos técnicos señalamos la domesticación del fuego, la cocción de alimentos, la domesticación de animales, la agricultura, el vestido, la cerámica, la pesca, la construcción de viviendas, entre muchos otros. Sin embargo, aún no se responde a la pregunta de por qué la técnica humana es distinta de la técnica de las demás especies; no se resuelve todavía la pregunta de por qué los actos técnicos humanos no se limitan sólo a la supervivencia.

3. La

técnica no se limita a la supervivencia

¿Qué pasa con las otras especies que también tienen comportamiento técnico, al ser tan evidentes las diferencias entre sus producciones técnicas y las de los humanos? ¿Qué relación se establece entonces entre el gesto técnico y la racionalidad? ¿Qué es lo que diferencia la técnica de algunas especies y la técnica humana?

5

No quiere decir esto que los cambios biológicos del humano se asumen como una especie de mutación total e intempestiva debida a la aparición de la técnica, pero sí se puede afirmar que su intensidad disminuyó en la medida en que las prótesis técnicas lograron satisfacer las necesidades del hombre como especie.

Revista Tecnológicas


Revista Tecnológicas

Para responder a estas preguntas recurrimos a la tesis de Julián Pacho, quien hace una distinción entre técnica y “razón técnica”. La técnica es la “capacidad de creación y aplicación de instrumentos autocorregibles” (Pacho, 1997, p. 59). Por lo tanto, la técnica humana no se puede reducir a los actos técnicos de otras especies (construcción de nidos, presas o madrigueras, por ejemplo), sino que está mediada por lo que Pacho denomina la “razón técnica” y el “sistema de hipótesis sobre sí mismo y sobre su entorno, aplicable a ambos y perfectible, perfectible por sí mismo” (Pacho, Ibíd.). La técnica humana está mediada por la razón técnica, esa racionalidad para construir artefactos como manifestación externa en la que se plasma el imaginario humano. Es perfectible en la medida en que puede mejorarse, autocorregirse. Es necesario imaginar la finalidad del instrumento, su función, su forma de usarlo, para así tratar de construirlo, es decir, usar la racionalidad (técnica). Otra característica de la razón técnica es su flexibilidad: no se elaboran los mismos instrumentos en forma automática, sino que se adaptan y se adoptan innovaciones de acuerdo a las necesidades. Así, la técnica humana está condicionada por los recursos materiales disponibles, la tradición cultural del grupo social y las aspiraciones del individuo. En tanto que es perfectible, se puede repensar, modificar, perfeccionar, se puede transmitir a las próximas generaciones que continuarán acabándola sin que parezca llegar a un estado de perfección absoluta. ¿Acaso esta noción de autocorrección no es aplicable a otras especies? Hay que responder negativamente, pues, por ejemplo, los hormigueros o los panales (como productos de actos técnicos) no poseen ni la plasticidad, ni la diversidad, ni la innovación evidentes en los actos técnicos humanos. No obstante, para dar un argumento más sólido, se puede recurrir a las teorías del etno-paleontólogo francés André Leroi-Gourhan que explican la naturaleza de la técnica humana y su diferencia con la técnica de otras especies. Esta diferencia se puede plantear con la distinción entre inteligencia e instinto. Si tanto para los humanos como para todo el mundo zoológico se puede hablar de componentes de

[197]


[198]

La técnica y el naturalismo metodológico

inteligencia y componentes de instinto, es sabido por la etología que los vertebrados superiores (primates y cazadores) tienen un componente de inteligencia más alto que el que pueden tener los invertebrados. Leroi-Gourhan afirma que frente al instinto y la inteligencia las especies animales podrían agruparse en tres tipos. El primero es el de los invertebrados inferiores, con un sistema cerebral muy elemental, en el que los programas se constituyen a partir de cadenas operatorias6 cortas y de actos muy sencillos, que se activan con la interacción con el medio (Leroi-Gourhan, 1971, p. 218). El autor señala que en animales como lombrices, babosas, etc., la memoria es comparable a la de una máquina electrónica que reaccionan con estímulos automáticos entre sus necesidades internas y las constricciones de su medio. El segundo tipo, es el de los invertebrados con estructuras de organización más complejas como las hormigas, las abejas o las termitas. Estos animales, aparentemente, tienen programas complejos de comportamiento inscritos genéticamente, pero a pesar de lo aparentemente diverso, no admiten más que un escogimiento mínimo de respuestas. El tercer tipo, afirma Leroi-Gourhan, sería el de los vertebrados, en los cuales gran parte de su comportamiento está basado en las funciones automáticas entre las pulsiones fisiológicas y las solicitudes del medio externo, del mismo modo que los invertebrados, pero adicionalmente cuentan con un componente flexible de las cadenas de comportamiento, principalmente en los vertebrados mayores como los mamíferos y las aves, es decir, tienen más posibilidades de opción entre las cadenas operatorias. Para explicar esto, LeroiGourhan retoma el paralelismo con las máquinas electrónicas a las que habría que agregar, además del sistema de conexiones y de 6

El concepto de cadena operativa (chaîne opératoire) de André Leroi-Gourhan define el conjunto de pasos encadenados (secuencia dinámica) que se dan en la producción de artefactos líticos, desde la recogida de la materia prima, hasta su abandono, pasando por las diferentes fases de fabricación (generalmente la talla), de su utilización y de su reconstrucción (afilado, reavivado, reaprovechamiento...) y su reutilización, si se diera el caso. Las cadenas operativas permiten establecer diferentes estilos y estrategias culturales, por lo que son una herramienta conceptual de inestimable valor en prehistoria y arqueología.

Revista Tecnológicas


Revista Tecnológicas

memoria, un sistema de conexiones suplementarias en las que se presentarían confrontaciones productoras de una gran diversidad respuestas (Leroi-Gourhan, 1971, p. 220). ¿Y cómo ayuda esto a distinguir entre la técnica humana y la técnica de las abejas u hormigas? La posible respuesta de LeroiGourhan se orienta por la vía de la caracterización del cerebro humano como un aparato de confrontaciones que permite, en primer lugar, la inscripción en la memoria de numerosas cadenas operatorias y también la libertad de operación entre las cadenas. Esto corresponde, según Leroi-Gourhan, a la inteligencia. Los grados de libertad del comportamiento técnico ya no se realizan, como en otras especies, en los actos, sino en el nivel de los procesos de simbolización, y la representación simbólica de los actos es indisociable de su confrontación (Leroi-Gourhan, 1971, p. 222). Aquí observamos que la toma de decisiones, el paso al acto, en el humano, es una función reflexiva y no un mecanismo de adaptación biológica y que esta función, como afirma Leroi-Gourhan, sólo puede ser simbólica, es decir, estrechamente ligada al lenguaje. Esto nos lleva a señalar las diferencias significativas entre la técnica humana y la de otras especies. Uno de los hallazgos más importantes de André Leroi-Gourhan, es el de haber advertido que las confrontaciones entre diferentes cadenas operatorias en el humano permiten la reparación, la mejora y la innovación, tanto en el dominio de las relaciones sociales, como en las técnicas. Dice Leroi-Gourhan, “lo propio de las sociedades humanas es acumular las innovaciones técnicas y conservarlas, lo cual está ligado a la memoria colectiva, mientras que depende del individuo organizar sus cadenas operatorias, conscientemente, hacia la fijación de procesos operativos nuevos…” (Leroi-Gourhan, 1971, p. 229). Aquí vemos la más importante diferencia entre la técnica humana y la animal, la posibilidad de conservar y transmitir, desde y por fuera del cuerpo, información, en la memoria colectiva, a través del lenguaje, y no sólo a través de los genes. Los individuos humanos podemos, gracias a ello, partir de ese punto hacia la

[199]


[200]

La técnica y el naturalismo metodológico

formulación de reparaciones, innovaciones y mejoras. Entonces, a diferencia de las aves o de las hormigas, el Homo sapiens es un ser técnico innovador atravesado por el lenguaje, el cual le permite almacenar la memoria colectiva y a la vez confrontar las cadenas operatorias. Por lo tanto, la técnica humana está mediada por una racionalidad humana técnica. Esto trae consecuencias importantes: si la técnica está mediada por la razón y por la complejidad de sus elementos mentales e intencionales, no se debe limitar solamente a cuestiones de supervivencia. Para reafirmar que la técnica no se desarrolla sólo a partir de necesidades biológicas, cito las reflexiones de José Ortega y Gasset en su ensayo Meditación de la técnica (1939)(reeditado en 1982), quien afirma que, con la técnica, no se pretende sólo satisfacer las necesidades básicas de la vida, no se busca sólo sobrevivir, sino vivir bien. El principal objeto del surgimiento de la técnica es más el bienestar que el propio vivir: “… se deduce que el empeño del hombre por vivir, por estar en el mundo, es inseparable de su empeño en estar bien… el bienestar y no el estar es la necesidad fundamental para el hombre, la necesidad de las necesidades” (Ortega, 1982, p. 33). Para Ortega, en el hombre, el bienestar prima sobre la necesidad biológica, debido a que la vida humana se entiende como un camino de infinitas posibilidades de realización de proyectos, como un plan que habla desde un futuro al presente al cual fundamenta y llena de sentido, pero por sobre todo como algo problemático y difícil. El ser humano parece ser el único ser que nace “incompleto”, en el sentido de que permanentemente está visualizando o fantaseando cómo se vería en un futuro; el animal, aunque tiene propósitos (biológicos de alimento, reproducción y supervivencia) no se visualiza a sí mismo, ni su situación ante el mundo y, consecuentemente, no prevé su futuro como ser. En consecuencia, la vida humana es precisamente todo lo que no hace el animal, es todo el conjunto de actos, gestos y comportamientos realizado más allá del propósito de sostenerse biológicamente en la naturaleza. En palabras de Ortega:

Revista Tecnológicas


Revista Tecnológicas

… el hombre tiene una tarea muy distinta a la del animal, una tarea extranatural, no puede dedicar sus energías como aquel a satisfacer sus necesidades elementales, sino que, desde luego, tiene que ahorrarlas en ese orden para poder vacar7, con ellas, a la improbable faena de realizar su ser en el mundo. (Ortega, 1982, p. 53).

Esto se da porque el ser humano parece haber nacido para: “esforzarse en que haya lo que aún no hay; a saber, el mismo, aprovechando para ello lo que hay; en suma es producción” (Ortega, 1982, p. 55). En su conferencia “El mito del hombre allende la técnica”8 (Darmstadt, 1951), Ortega y Gasset expuso un mito en el cual un animal, a causa de una anomalía biológica, desarrolló una capacidad de memoria de largo plazo, que lo distinguió fuertemente de sus congéneres. Como podía mantener nítidos y completos los recuerdos de sus vivencias, podía retrotraerlos en todo momento, es decir, podía revivir lo vivido. Al poder almacenar los recuerdos, este animal “se convirtió en el primer hombre que había encontrado súbitamente una enorme riqueza de figuras imaginarias en sí mismo” (Ortega, 2001, p. 137). Ese animal, dice Ortega, era una anomalía, estaba loco, lleno de fantasía como ninguno. A diferencia de los otros, tenía otro mundo: un mundo interno para sí mismo. Los demás seres están volcados todo el tiempo hacia fuera (al mundo exterior), hacia su relación con el entorno y su supervivencia, pero este anómalo tiene la oportunidad de regresar hacia sí mismo, de visualizar no sólo las cosas como “son” sino cómo “podrían ser”. Con su mundo interior, este animal puede imaginar cómo intervenir las realidades, es decir, desplegar actos técnicos, lograr más grados de libertad y no solamente reaccionar ante los estímulos del medio y las necesidades biológicas.

7 8

Descansar, cesar, holgar. Esta conferencia se ha recogido en diferentes publicaciones. Yo recojo la compilación de López Cerezo, Luján y García Palacios hecha sobre Filosofía de la Tecnología para la colección Temas de Iberoamérica para la Organización de Estados Iberoamericanos [2001].

[201]


[202]

La técnica y el naturalismo metodológico

Lo anterior muestra que la técnica humana no es instintiva, está liberada por y para la voluntad y el libre albedrío, está mediada por una intención voluntaria en concordancia con la conciencia del individuo: conciencia de si, del entorno y de los otros. Por otro lado, la técnica es la que permite la emancipación y los espacios para regresar al mundo interior (de imaginaciones y pensamientos); al emanciparnos de las penurias naturales, potenció el raciocinio humano con el que podemos fantasear y proyectar nuestra existencia. De hecho, el filósofo francés Michel Onfray señala a la técnica como “el conjunto de medios empleados por los hombres para emanciparse de las necesidades y penalidades naturales” (Onfray, 2005, p. 99). Una vez más, la técnica no se limita a la supervivencia.

4. El

naturalismo no limita la técnica a la supervivencia

A diferencia de lo que podría creerse, se puede hablar de naturalismo como de una postura tradicional de la filosofía, ya que, desde el siglo XVII, existían filósofos naturalistas que buscaban describir las causas de fenómenos físicos, humanos y morales, sin recurrir a la intervención de agentes sobrenaturales. Existe una extensa historia de lo que se conoce como naturalismo y de cómo éste puede intervenir en dimensiones humanas y naturales, pero contarla nos desviaría del objetivo modesto del presente artículo. Aquí interesa más bien llamar la atención sobre el naturalismo cognitivo, más precisamente, la corriente surgida en la segunda mitad del siglo XX con la aparición del texto clásico de Quine, “Naturalización de la Epistemología”, en el cual el autor propone una apropiación de los resultados de las ciencias cognitivas como la psicología para estudiar la diversidad de reacciones del sujeto (sus procesos fisiológicos o psíquicos) frente a los estímulos y concebir así una epistemología, en íntima relación con la psicología, y que acometa la tarea de estudiar las relaciones entre teoría y evidencia. A raíz de esta propuesta, se han planteado diversas tesis que aceptan de forma total o parcial la propuesta de Quine.

Revista Tecnológicas


Revista Tecnológicas

La filósofa Diana Pérez ha hecho una reconstrucción de las diversas propuestas surgidas. La autora muestra que el naturalismo puede comprenderse en dos sentidos principales, no necesariamente incompatibles. La primera tesis, la tesis epistemológica, afirma que la ciencia y la filosofía se relacionan de manera tal que forman un continuo. Esta tesis del naturalismo epistemológico del primer sentido afirma que la ciencia y la filosofía comparten sus objetos de estudio. Llevada al extremo, la ciencia y la filosofía comparten, además de sus objetos, sus métodos y sus cánones de justificación y es ésta la tesis del naturalismo epistemológico del segundo sentido. Desde nuestra postura, esta última tesis implica la eliminación de la dimensión filosófica de la epistemología.9. Sin embargo, de cualquier forma, si se acepta la posición naturalista cognitiva, pierde sentido una filosofía primera normativa (fundacionalista) y se impone una filosofía descriptiva. La segunda tesis naturalista es ontológica: todo lo que existe es natural. Por eso las entidades naturales y sus relaciones forman parte de un sistema espacio-temporal causalmente cerrado. Como consecuencia, todo lo que existe es natural, ya que, si se lograra demostrar la existencia de alguna entidad sobrenatural, sería gracias a causas naturales. Esto podría llevar al fisicalismo10, puesto que esta tesis ontológica es demasiado explicativa como para aceptarla con todas sus consecuencias. Del naturalismo aceptamos tomar su tesis epistemológica en el primer sentido, según el cual la filosofía y la ciencia forman un continuo, pero sólo en cuanto a su objeto de estudio y a esta postura la llamaremos naturalismo metodológico. Al segundo Que la filosofía debe volverse parte de la ciencias, es la tesis que llamo “el segundo sentido” y he presentado en otro lugar una réplica debatiéndola: véase Monterroza, 2007. 10 Por fisicalismo se entiende esa postura (filosófica y científica) que afirma que todo lo que existe está constituido por entes físicos y por la interacción entre entes físicos. Afirma que lo sobrenatural no existe (no es real) y que si se demostrara su existencia, sería gracias a un fenómeno también natural. 9

[203]


[204]

La técnica y el naturalismo metodológico

sentido del naturalismo, lo llamaremos naturalismo metafísico o tesis ontológica. Y definitivamente no nos comprometemos con esta segunda tesis, puesto que nos parece indemostrable en términos formales y con evidencias que todo lo que existe es natural. Por mucho que la ciencia pueda un día explicar fenómenos sobrenaturales, no por eso quedaría demostrado que lo haga de una vez por todas. El naturalismo metodológico (que adopto) suspende el juicio en cuanto a lo sobrenatural. Considera que el medio natural debe ser estudiado por las ciencias naturales y que ese estudio y sus resultados plantean problemas y preguntas a la filosofía y enriquece tesis, conceptos y teorías filosóficas. Caseres señala una diferencia entre el naturalismo más tradicional, el metafísico, y las reflexiones filosóficas (metafísicas) sobre la técnica. Ortega y Heidegger (La pregunta por la técnica, 1986), muestran que existe una gran afinidad entre el humanismo y la técnica, como también la imposibilidad de definir “técnicamente” la técnica a partir de su propio desarrollo, y tienden a sospechar de su supuesta neutralidad y de su carácter de aplicación. Por su parte, Ortega considera la técnica como un medio instrumental que define una antropología característica o específica de unos fines. Heidegger plantea la técnica como una ventana más del pozo del ser, como un elemento o actividad más a partir del cual el ser humano desvela una verdad general (Casares, 2000, p. 6), es decir, “desoculta” la fuerza de la naturaleza. Según Casares, para Heidegger y para Ortega y Gasset, la técnica es la resuelta expresión que supone una proyección “no natural” del hombre en el mundo. La técnica constituye una ruptura radical con el orden orgánico y natural. Existe una marcada y significativa diferencia entre lo “artificial” y lo “natural” y, en ella, la técnica se inscribe fundamentalmente en lo “artificial”. Casares muestra ambas concepciones en la siguiente figura, que intenta aclarar por qué parecen incomunicables.

Revista Tecnológicas


[205]

Revista Tecnológicas

Hombre C Naturaleza

Técnica como desocultamiento y proyección Desarrollo de elementos diacrónicos (Mundanidad)

Hombre C Naturaleza

Técnica como instrumento/ estrategia Desarrollo de elementos sincrónicos (Emergencia)

Figura 1. Concepciones del hombre en la naturaleza con la técnica desde lo artificial y lo natural (basado en CASARES, 2008)

La visión “natural” que muestra Casares (figura 1: Hombre C Naturaleza) no es propia del naturalismo metodológico, pues muestra al hombre como elemento del mundo natural, pero señala que la técnica es sólo una estrategia evolutiva.

5. El

naturalismo es favorable para estudiar la técnica

A pesar de que la técnica humana no se limita a la supervivencia ¿por qué es favorable una posición naturalista metodológica para hacer filosofía de la técnica? Para responder a esta pregunta tomaremos la tesis de la imagen natural del mundo del filósofo vasco Julián Pacho, quien señala que las ciencias nos suministran teorías que llenan (parcialmente) las lagunas de nuestra limitada experiencia. Pacho considera que la imagen natural del mundo es la que se deriva del uso intuitivo de nuestro sistema cognitivo y que está, por tanto, determinada por las estructuras elementales de la experiencia y del lenguaje corrientes, dicho de otro modo es la imagen determinada por la experiencia y por la gramática del lenguaje corriente, la imagen no sometida al control de reglas o instancias críticas propuestas ad hoc. Si se conviene en llamar experiencia “natural” a este tipo de experiencia inmediata o corriente, no revisada mediante artificios teórico-experimentales y reflejada por el lenguaje corriente, entonces podría decirse que la imagen natural es la imagen que corresponde a la experiencia natural (Pacho, 1997a p 20). Es decir, hacer filosofía de la técnica


[206]

La técnica y el naturalismo metodológico

sólo con meditaciones alimentadas por nuestra limitada experiencia cotidiana es más “natural” que el mismo naturalismo. Otro ejemplo de naturalismo metodológico es el trabajo de André Leroi-Gourhan. Sus escritos denotan muchos componentes filosóficos, además de los propios de la profesión de paleontólogo. Leroi-Gourhan afirma: “… es, incluso, extremadamente sano, que la ciencia del ser humano sea la más interdisciplinar de todas las disciplinas” (Leroi-Gourhan, 1971). Por otro lado, también se puede señalar como ejemplo, el de Ortega y Gasset: ¿cómo llegó este filósofo a expresar que las características de las especies animales no son acabadas, sino que son dinámicas y pueden mutar? Ortega muestra su afinidad con la teoría de la evolución, la misma que lo llevó a meditar sobre el primer protohombre que sufriera una anomalía y lograra tener memoria de sus experiencias, hecho que, según Ortega, pudo ser el primer paso para una racionalidad técnica. Asumir los resultados de las ciencias, según la postura del naturalismo metodológico, es válido y enriquecedor y no compite con las reflexiones metafísicas sobre la técnica (o sobre otros problemas filosóficos) elaboradas por filósofos tradicionales.

6. Conclusiones La técnica humana es un comportamiento mediado por la racionalidad, es decir, existen elementos de libertad, inteligencia y reflexión mediados por el lenguaje, que marcan la distinción entre los actos técnicos humanos y los de otras especies animales. Lo anterior trae como consecuencia que la técnica humana no sólo se limitó a la supervivencia, sino que posibilitó la emancipación de los humanos respecto a la naturaleza y, por ende, la emergencia del pensamiento, la imaginación, la proyección del futuro, el arte, la religión y todo lo que nos hace humanos. El estudio filosófico de la técnica es pertinente en el programa del naturalismo (metodológico) en el cual se estudian y se asumen algunas teorías de las ciencias naturales (biología evolucionista, antropología física), pero no se descartan reflexiones filosóficas

Revista Tecnológicas


Revista Tecnológicas

sobre la capacidad de la técnica de ser modeladora del ser humano. No ser naturalistas metodológicos, es decir, hacer filosofía desconociendo los resultados de las ciencias, es ser más “natural” que el mismo naturalismo (como afirma Julián Pacho). Al no contar con teorías mediadas por el control de reglas o instancias críticas (aportadas por las ciencias), quedan grandes lagunas en la experiencia, limitantes de la actividad filosófica de reflexión sobre la técnica. Por otro lado, si se suprime toda la filosofía (sus cánones de justificación, métodos argumentativos, sus contenidos, metateorías y reflexiones) se puede desembocar en un cientificismo ingenuo que no lograría poner en perspectiva los problemas de la naturaleza humana.

7. Bibliografía AGAZZI, Evandro (1997). Seminario: El Impacto Epistemológico de la Tec-

nología. Facultad de Filosofía de la Universidad de Sevilla. Sevilla. 7 y 8 de abril de 1997. Disponible en Dialnet.

BERNABEU RICO, José (1997). Educación y Dimensiones de las Educación.

Parte de “Teorías e Instituciones Contemporáneas de la Educación”. Ed. Ariel, Barcelona. Compilación por Antoni Rico y otros.

CASARES SERRANO (2008), Antonio. Genes, Tecnología y Racionalidad. La

estrategia naturalista en la unificación epistemológica de las ciencias. A Parte Rei, revista de Filosofía, documento¨electrónico disponible en: [http://serbal.pntic.mec.es/~cmunoz11/casares39.pdf] consultado el 1 de junio de 2008.

GARCÍA PALACIOS, Eduardo Mariano (2005). ¿Qué es la Técnica? Parte de:

Ciencia, tecnología y sociedad: una aproximación conceptual. España: Organización de Estados Iberoamericanos (OEI), Madrid.

HEIDEGGER, Martín (1986). La pregunta por la técnica. Revista Universi-

dad de Antioquia Vol. 53, No. 205 (jul.-sep. 1986).

LEROI-GOURHAN, André (1971). El gesto y la palabra. Publicaciones de la

Universidad Central de Venezuela, Caracas.

MONTERROZA, Álvaro (2007). La epistemología naturalizada y la necesidad

de mantener su dimensión filosófica. Tecnológicas N° 18. Dic. 2007.

ONFRAY, Michel (2005). Antimanual de Filosofía. Lecciones socráticas y al-

ternativas. Edad Ensayo. Madrid.

[207]


[208]

La técnica y el naturalismo metodológico

ORTEGA Y GASSET (1982), José. Meditación de la Técnica. Y otros ensayos

sobre la ciencia y la filosofía. Revista de Occidente en Alianza Editorial. Madrid.

_____________ (1951). El Mito del Hombre Allende la Técnica. Parte de: Temas de Ibero América: Filosofía de la Tecnología. Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI), Madrid, 2001 pp. 136-140. PACHO, Julián (1997). Los Nombres de la Razón. Ensayo sobre los conceptos

de razón y naturaleza en la tradición occidental. Bilbao. Servicio editorial Universidad del País Vasco.

_____________(1997 a). Las imágenes del mundo y el porvenir de la filosofía. Revista de filosofía, ISSN 0034-8244, Nº 18, 1997, págs. 17-39. PÉREZ, Diana (comp.) (2002). Los caminos del naturalismo. Mente, cono-

cimiento y moral. Buenos Aires.

QUINE, Willard van Orman. Relatividad ontológica. Madrid. Tecnos. 1974.

206 pág. Cap. 3.

WINNER, L. (1976). Tecnología Autónoma. Barcelona, Gustavo Gili, S.A.

1976.

Revista Tecnológicas


[209]

Revista Tecnológicas

Política de arbitraje para la revista Tecnológicas

L

os editores de la revista Tecnológicas solicitan a la comunidad de investigadores nacionales e internacionales que estén interesados en publicar en esta revista, enviar sus artículos originales en el idioma español o inglés. Los autores deberán ajustar sus artículos a los criterios de presentación y redacción de artículos que se presentan a continuación. Sólo serán evaluados los artículos que se ajusten a estas condiciones formales de presentación. El proceso de arbitraje en la revista Tecnológicas busca asegurar una alta calidad en el contenido de los artículos publicados.

Revisión inicial El Comité Editorial realiza una primera evaluación de los artículos recibidos. En esta etapa, el Comité analiza los aspectos formales (relevancia, claridad y organización, ajuste a los objetivos de la revista), y los aspectos del lenguaje (estilo y puntuación). Con base en esta revisión inicial, el Comité puede rechazar o aceptar en primera instancia el artículo, lo cual se notificará por medio escrito al autor. Para los artículos aceptados, el Comité Editorial designa los árbitros, bien sean miembros del Comité Científico de la Revista o asesores externos o ambos. El Comité Editorial trabajará con base en el principio de libertad editorial, por lo cual es autónomo en la definición del contenido editorial de la Revista.

Tipo de arbitraje La revista Tecnológicas realiza el proceso de arbitraje de los artículos por medio de autores y revisores anónimos. Eventualmente, el Comité Editor podrá requerir de un doble arbitraje para un artículo. Los árbitros son elegidos con base en criterios de solvencia académica en el tema del artículo. Los árbitros entregan al Comité recomendación sobre la pertinencia de publicar el artículo, y da al autor recomendaciones metodológicas y estructurales en relación con el contenido. De los árbitros no se espera que realicen correcciones directamente sobre el texto, al igual que no se espera entreguen correcciones lingüísticas o de estilo.

Duración del proceso de arbitraje y publicación El proceso de arbitraje puede tomar varios meses, dependiendo de las interacciones entre el árbitro y el autor. Un artículo puede requerir varias revisiones antes de que se tome la decisión de publicación. En todo caso, la definición final de publicación será tomada por el Comité, evaluadas las recomendaciones arbitrales. La fecha de publicación de los artículos aceptados queda a criterio de los editores.


[211]

Revista Tecnológicas

Revista Tecnológicas (Indexada Publindex 2007-2008)

1. Orientaciones generales para los autores Los artículos de interés para publicación en la revista Tecnológicas se ajustan a los criterios de publicación, calidad científica y tecnológica, definidos en el Índice Bibliográfico Nacional de Publindex Artículo de investigación científica y tecnológica: Documento que presenta de manera detallada los resultados originales de proyectos de investigación. La estructura generalmente utilizada contiene cuatro apartes importantes: introducción, metodología, resultados y conclusiones. Artículo de reflexión: Documento que presenta resultados de investigación desde una perspectiva analítica, interpretativa o crítica del autor, sobre un tema específico, recurriendo a fuentes originales. Artículo de revisión: Documento resultado de una investigación donde se analizan, sistematizan e integran los resultados de investigaciones publicadas o no publicadas, sobre un campo en ciencia o tecnología, con el fin de dar cuenta de los avances y las tendencias de desarrollo. Se caracteriza por presentar una cuidadosa revisión bibliográfica de por lo menos 50 referencias. Artículo corto: Documento breve que presenta resultados originales preliminares o parciales de una investigación científica o tecnológica, que por lo general requieren de una pronta difusión. Reporte de caso: Documento que presenta los resultados de un estudio sobre una situación particular con el fin de dar a conocer las experiencias técnicas y metodológicas consideradas en un caso específico. Incluye una revisión sistemática comentada de la literatura sobre casos análogos. Revisión de tema: Documento resultado de la revisión crítica de la literatura sobre un tema en particular. Cartas al editor: Posiciones críticas, analíticas o interpretativas sobre los documentos publicados en la revista, que a juicio del Consejo Editorial constituyen un aporte importante a la discusión del tema por parte de la comunidad científica de referencia. Editorial: Documento escrito por el editor, un miembro del Consejo Editorial o un investigador invitado sobre orientaciones en el dominio temático de la revista.


[212] Traducción: Traducciones de textos clásicos o de actualidad o transcripciones de documentos históricos o de interés particular en el dominio de publicación de la revista. Documento de reflexión no derivado de investigación: Posiciones o manifestaciones sobre puntos particulares o resultados publicados por un autor. Reseña bibliográfica: Presentaciones críticas sobre la literatura de interés de reciente aparición en el dominio de publicación de la revista. El Comité Editorial de la revista Tecnológicas dará prelación a la publicación de artículos en las modalidades de investigación, reflexión y revisión.

2. Recomendaciones de estilo Es requisito que los autores presenten los artículos con los siguientes criterios de estilo: • Los trabajos deberán ser originales y no sometidos a consideración simultánea de otras publicaciones nacionales e internacionales • Los trabajos no deberán sobrepasar las 20 páginas numeradas y deben enviarse por medios electrónicos, acompañado de una copia impresa por una sola cara y a espacio interlineado 1,5; con tipo de letra Arial 12 y márgenes superior, inferior y derecha de 2,5 cm, margen izquierda de 3 cm • El encabezado de cada trabajo deberá contener el título del artículo (en mayúsculas y negrilla) en letra Arial, tamaño 14, nombre y apellidos del autor o autores (cursiva), con una nota a pie de página que exprese los títulos académicos actualizados, nombre de la institución donde trabaja, cargo que desempeña y dirección electrónica • El artículo debe acompañarse de un abstract o resumen (máximo 200 palabras) en español e inglés y un máximo de 5 palabras clave que identifiquen de manera precisa el contenido • Los epígrafes se presentarán en letra tipo Arial 11 y en forma de sangrado • El contenido del artículo debe tener las siguientes secciones: Introducción, Metodología, materiales y equipos (si aplica), Resultados y discusiones, Conclusiones • Las citas textuales se presentarán entrecomilladas; las que ocupen cinco o más líneas se presentarán a un espacio, en forma de sangrado, con letra tamaño 10 y sin comillas

Revista Tecnológicas


Revista Tecnológicas

• Los artículos que son resultado de proyectos de investigación deberán hacer explícita esta condición. Se sugiere que esto se comunique en la introducción o en el resumen • El Comité ha adoptado el sistema de citación APA, el cual se encuentra habilitado en el M.S Word 2007, como herramienta de referencias Para facilidad de los autores, se transcriben ejemplos de citación y bibliografía: Citación en el texto del artículo (cuerpo o pies de página) de un autor cuyo trabajo no se trascribe textualmente: La norma NTC 2849 establece un procedimiento de ensayo que implica la saturación de la muestra en un proceso de laboratorio que toma un tiempo total de 12h ± 1/4h, en el cual la baldosa se somete a una cocción inicial por el transcurso de una hora, se conserva en el agua, hasta su enfriamiento, por 11h adicionales (ICONTEC, 1997, pág. 10). Citación en el texto del artículo (cuerpo o pies de página), del cual no solo se menciona el autor, sino que se transcribe textualmente parte de su texto. Según Candioti, con este movimiento queda consolidada la epistemología como el saber que organiza y legitima el conocimiento, garantizando su validez. Tal posición de privilegio convertía a la epistemología “en la palabra definitiva; vigila la objetividad del conocimiento y certifica la ‘corrección’ de las inferencias que permiten la aplicación de la teoría al orden de la acción” (Candioti, 2006, pág. 4). Entradas en las referencias del artículo (bibliografía utilizada en el texto): Se relacionan en orden alfabético (no de aparición), con el sistema APA: Caso de norma: ICONTEC. (1997). Baldosas con superficie de grano -Terrazo- (Vol. NTC 2849). Bogotá: Icontec. Caso de libro: Montgomery, D. C., & Peck, E. (1992). Introduction to linear regression analysis. New York: John Wiley and Sons. Caso de revista: Shapiro, S. S., & Wilk, M. (1965). An analysis of variance test for normality. Biometrika, 52-53. • El uso del gerundio tiene algunas dificultades. Hay que evitarlo si no se está seguro de las reglas que lo rigen. Igual sucede con otras palabras y expresiones, cuyo significado exacto se desconozca

[213]


[214] • Cuando se mencionan personas, escribir su nombre completo. No deje segundos nombres o apellidos con inicial: Rodrigo A. Román S, mejor: Rodrigo Antonio Román Sánchez • Todos los nombres y palabras de idioma extranjero deben escribirse como se usan en su idioma, menos en los casos en que haya una castellanización aceptada, caso escáner. Los nombres de países, instituciones y personas deber seguir la grafía oficial que los distingue • El nombre de INSTITUTO TECNOLÓGICO METROPOLITANO irá siempre en negrita con todas las letras en mayúscula • Cuando la oración termina con cierre de paréntesis, raya o comillas, el punto se colocará inmediatamente después de tales signos. Los puntos suspensivos son tres, solamente • Los signos de interrogación en español se colocan tanto en la apertura como en el cierre de la frase. Igual el signo de admiración. La palabra que sigue al signo de interrogación o al de admiración no necesariamente debe comenzar con mayúscula. Ello depende del contexto. El punto de ambos signos sirve de punto, en caso de que la frase que les siga vaya separada por un punto Aquellos trabajos que no cumplan con todos los requisitos en el primer envío, no serán aceptados. Las opiniones y afirmaciones que aparecen en los artículos son responsabilidad exclusiva de los autores.

Revista Tecnológicas


SUSCRIPCIÓN NÓICPIRCSUS Segunda época

ISSN 0123-7799 Indexada en Publindex 2007-2008

SUSCRÍBASE POR FAX O CORREO

Con la suscripción reciba gratis las publicaciones seriadas DESDE LA BIBLIOTECA y MEMORIA

Apellidos: .................................................. Nombre:................................................... Dirección:................................................... Ciudad:......................... País..................... Teléfono residencia:.................................... Teléfono oficina:........................................ Correo electrónico:..................................... Web:........................................................ Firma:........................................................ c.c............................................................ ¡Suscríbase ya! y ahórrese el precio de venta al público • $20.000 un año (2 ediciones) • $36.000 dos años (4 ediciones) • $48.000 tres años (6 ediciones) A partir del número: ___ Forma de pago ________________________________ Cheque No.

________________________________ Banco

Cheque a nombre de Instituto Tecnológico Metropolitano Consignación en las cuentas de ahorros del BANCO POPULAR No. 188720098 o BANCO DE OCCIDENTE No. 440805521

Para mayor información llame al teléfono 440 5121 fax: 440 5101 calle 73 76A-354 Medellín, Colombia www.itm.edu.co

INSTITUTO TECNOLÓGICO METROPOLITANO:



Revista Tecno Lógicas Edición No.21