Page 1


+ Gobierno del Estado

Lic. César Horacio Duarte Jáquez

Gobernador Constitucional del Estado de Chihuahua

Lic. Ricardo Yáñez Herrera Secretario de Educación, Cultura y Deporte

+ Secretaría de Educación Pública

Ing. Héctor Arreola Soria

Coordinador General de Universidades Tecnológicas y Politécnicas

+ Universidad Tecnológica de Ciudad Juárez

Lic. Ernesto Luján Escobedo

RIO

+ DIRECTO

+ CONSEJO TÉCNICO

Dr. Iván Juan Carlos Pérez Olguín

Universidad Tecnológica de Ciudad Juárez Director de Obra

Dr. Manuel Arnoldo Rodríguez Medina

Instituto Tecnológico de Ciudad Juárez

Dra. Nancy Angélica Coronel González

Universidad Tecnológica de Ciudad Juárez

Dr. Santos Rafael Woder Morales

Rector

Delphi Connection Systems

Lic. Víctor Alfonso López Vivar

Dr. Manuel Iván Rodríguez Borbón

Abogado General

Universidad Autónoma de Ciudad Juárez

M.A. Jesús Manuel Fabela Rivas

Dr. Rodrigo Villanueva Ponce

Secretario Académico

Delphi Electrical Centers

M.I. Ruth María Ayala Pérez

Dr. Manuel Alonso Rodríguez Morachis

Directora de Administración y Finanzas

Instituto Tecnológico de Ciudad Juárez

M.C. Luis Alberto Colomo Chavoya

M.C. José Agustín Pérez Limón M.C. Consuelo Catalina Fernández Gaxiola M.I.I. David Oliver Pérez Olguín

Director de Vinculación

Lic. Luis Antonio Colorbio Apodaca

Instituto Tecnológico de Los Mochis

Director de Planeación y Evaluación

Lic. Salvador Álvarez Mata

Director de las carreras: Logística Internacional, Negocios e Innovación Empresarial y Financiera y Fiscal

Instituto Tecnológico de Los Mochis

M.T.I., M.A.D. Luis Alberto Santos Berumen

M.C. Miriam Margarita Ruíz Sánchez

Director de la carrera: Tecnologías de la Información y Comunicación

Ing. Ricardo Pérez Santellana

Director de la carrera: Mantenimiento Industrial y Nanotecnología

M.I. Arturo Iván Mendoza Arvizo

Director de la carrera: Mecatrónica

M.C. Ana Eréndida Rascón Villanueva

Directora de las carreras: Terapia Física y Protección Civil y Emergencias

Ing. Adrián García Martínez Coordinador de las carreras de Energías Renovables y Procesos y Operaciones Industriales

Universidad Tecnológica de Ciudad Juárez UTCJ THEOREMA REVISTA CIENTÍFICA, Edición No. 2, julio/diciembre 2015 Av. Universidad Tecnológica No. 3051 Col. Lote Bravo II C.P. 3265 Tels. (656) 649.06.00 a 26 Ciudad Juárez, Chihuahua U tc j. e d u.m x

Universidad Tecnológica de Ciudad Juárez

Universidad Tecnológica de Ciudad Juárez

Ing. Felipe Augusto Peniche Mendoza

Universidad Tecnológica de Ciudad Juárez

+ CONSEJO EDITORIAL

Lic. María Teresa Álvarez Esparza

Subdirectora de Extensión Universitaria

M.D.O. Jorge Ochoa Luna

Jefe del Departamento de Prensa y Difusión

Lic. Idalí Meléndez Domínguez

Coordinadora del área Editorial

Lic. Carlos Noé González Gutiérrez

Revisión Ortográfica

L.D.G. Oscar Jaimes Ortega

Diseño Gráfico


+

M PP EE D D AA N N CC II AA CC AA RR AA CC TT EE RR ÍÍ SS TT II CC AA D D EE II M GU U ÍÍ AA SS D D EE O ON ND D AA CC O O PP LL AA N N AA RR EE SS CC O ON N G N TT EE RR FFAA SS EE SS D D II EE LL ÉÉ CC TT RR II CC AA SS D D EE II N

SiO Si n y SRO 2

3

4

Dra. Rebeca Leal Romero1, M.C. Víctor Enrique Gómez del Villar2, M.C. Marco Antonio Álvarez Medina3 y M.C. Luis Ernesto Anaya Tiscareño4

Universidad Politécnica de Aguascalientes, Calle Paseo San Gerardo No. 207, Fracc. San Gerardo Aguascalientes, Aguascalientes, México, C.P. 20342. 1, 2 , 3, 4

Enviado: 31 de octubre de 2015 Aceptado: 8 de diciembre de 2015

R e s u m e n : Las características de líneas de transmisión coplanares utilizando diversas interfaces dieléctricas son estudiadas; expresiones analíticas han sido obtenidas utilizando técnicas de mapeo conformal. El análisis aquí presentado se enfoca particularmente a estudiar la impedancia característica de estas líneas de transmisión. Esto permitirá predecir acoplamientos de impedancia de una fuente a la carga cuando se utilizan tales líneas de transmisión en transferencias de información en el rango de las microondas. A fin de ser compatible con los materiales semiconductores, el análisis está limitado al empleo de silicio como material de soporte y al uso de películas dieléctricas tales como el óxido de silicio (SiO2), nitruro de silicio (Si3N4) y óxido de silicio rico en silicio (SRO).

+

Palabras clave: Línea coplanar, impedancia característica, óxido de silicio, nitruro de silicio y óxido de silicio rico en silicio.

rebeca.leal@upa.edu.mx

A b s t r a c t : The characteristics of coplanar transmission lines utilizing various dielectric interfaces are studied; analytical expressions have been obtained using conformal mapping techniques. The analysis presented here focuses particularly to study the characteristic impedance of these transmission lines. This will predict couplings impedance source to the load when such transmission lines are used in data transfers in the microwave range. To be compatible with semiconductor materials, the analysis is limited to the use of silicon as a substrate and the use of dielectric films such as silicon oxide (SiO2), silicon nitride (Si3N4) and silicon oxide rich silicon (SRO).

+ Revista Científica

Keywords: Coplanar line, characteristic impedance, silicon oxide, silicon nitride and silicon rich oxide silicon.

2


Introducción La Guía de Onda Coplanar (CPW, Coplanar Waveguide) propuesta por C. P. Wen en 1969 consiste de un conductor central con dos planos de tierra semi-infinitos a su alrededor, como se observa en la Figura 1, donde “t” representa el espesor de los conductores, “w” el ancho del conductor central y “g” es el ancho de ranura entre el conductor central y los planos de tierra (Wen, 1969). Los grosores y permitividad del substrato determinan la constante dieléctrica efectiva ( eff), impedancia característica (Zo) y la atenuación (α) de la línea. Estos parámetros se derivan de técnicas de mapeo conformal (Simons, 2001). Las CPW’s tienen considerable atención debido a las ventajas que ofrecen sobre las líneas de microcinta convencionales especialmente para aplicaciones de Circuitos Integrados Monolíticos de Microondas (MMIC, Monolithic Microwave Integrated Circuits), por ejemplo con substrato de Arseniuro de Galeo, GaAs (Reyes, 1995), ya que permite la interconexión superficial entre diversos dispositivos tanto activos como pasivos. También se aplican en moduladores electro-ópticos, los cuales permiten que una señal de microondas sea aplicada sobre sus electrodos. En el caso de moduladores electro-ópticos, una película de óxido de silicio (como interface dieléctrica) es insertada entre los electrodos y el substrato, con la finalidad de disminuir la diferencia de velocidades óptica-eléctrica; mientras que en el caso de MMIC, evita corrientes de fuga entre el conductor y el substrato.

ε

Por el alto costo del GaAs, se ha optado por sustituirlo por silicio, el cual ofrece algunas ventajas al ser empleado como substrato (Bedair, 1992), como son:

+ + + + + +

Análisis cuasi-TEM de electrodos de microondas En una guía de transmisión cuasi-TEM (modo de propagación cuasi-transversal electromagnético), el campo eléctrico calculado se reduce a un campo electrostático bidimensional, el cálculo de un campo estático proporciona la capacitancia por unidad de longitud C (en F/m) y la inductancia por unidad de longitud £ (en H/m) para la línea de transmisión equivalente (Chung y Chang, 1991). La impedancia característica a frecuencias altas es obtenida por la siguiente expresión:

(1)

Donde Co es la capacitancia en los electrodos, C es la capacitancia cuando existe un dieléctrico entre los electrodos y el substrato, siendo c la velocidad de la luz. La razón C/Co es la permitividad relativa efectiva εeff y el índice refractivo de microonda efectivo es obtenido por:

(2)

Una tecnología madura. Bajo costo. Es buen conductor térmico.

Tiene excelente planaridad para todos los desarrollos Flip-Chip.

Fácil interconexión en los niveles del metal. Facilita la realización de CPW’s, etc.

Figura 1. CPW propuesta por Wen.

3

Revista Científica


Para obtener C y Co se consideran la capacitancia de los electrodos sin considerar el dieléctrico Ccp, la reducción de C cuando existe un dieléctrico entre el substrato y el metal Cb y la capacitancia incremental de las paredes de los electrodos Ct, estas capacitancias se observan en la Figura 2.

(6)

Para

donde

En la obtención de las capacitancias Ct y Cb se introducen coeficientes empíricos a1, a2, a3, a4, b1, b2, b3, b4 y b5 respectivamente para mejorar su exactitud (Chung y Chang, 1993), por lo tanto, Ct y Cb pueden aproximarse como:

(7)

(8)

Figura 2. Esquema de las capacitancias Ccp, Ct y Cb. donde: donde:

(3)

(9)

(4)

(10)

Siendo ε0 la permitividad del espacio libre, εr la permitividad relativa del substrato y (K(k)) / (K(k’)) la integral elíptica completa de primer tipo, dada por Churchil (1992), Spiegel (1991), Wadell (1991) y Collin (1990):

(5)

Para

Por lo tanto C y Co tienen una dependencia simple sobre los parámetros de la línea de transmisión ω, g, t y τb. En el método de mapeo conformal la atenuación total de la CPW es expresada como la suma de la atenuación debido a las pérdidas dieléctricas en el substrato, a la atenuación debida a las pérdidas por los conductores y a los planos de tierra (Simons, 2001). La constante de atenuación debida a las pérdidas del conductor α(f) es obtenida por:

(11)

Revista Científica

4


Donde R(f) es la resistencia en serie por unidad de longitud de la línea de transmisión (Chung y Chang, 1991). Wheeler (1942) y Denlinger (1980) calculan la resistencia usando la regla de inductancia incremental.

En la Figura 4 se presenta la gráfica de la impedancia característica de CPW’s con SiO2 como dieléctrico entre los electrodos y el substrato, así como diferente espesor del dieléctrico.

(12)

Donde Rs es la resistencia del conductor. La resistencia en serie R(f) y la constante de atenuación α(f) calculadas son proporcionales a la raíz cuadrada de la frecuencia, así para frecuencias altas (donde R<ωL), estas cantidades pueden escribirse como:

(13)

(14)

Donde y R0 son las constantes de proporcionalidad, α0=R0⁄2Z. A bajas frecuencias estas pérdidas son independientes de la frecuencia hasta muy bajas frecuencias (cuando la reactancia llega a ser menor que la resistencia de línea, R>ωL); entonces las pérdidas nuevamente llegan a ser proporcionales a la raíz cuadrada de la frecuencia.

Figura 4. Impedancia característica para una CPW de silicio y dieléctrico SiO2. En la Figura 5 se presenta la gráfica de la impedancia característica de CPW’s con Si3N4 como dieléctrico entre los electrodos y el substrato, así como diferente espesor del dieléctrico.

Resultados Con el análisis cuasi-TEM, se consideró el empleo de silicio como material de soporte y el uso de películas dieléctricas de diferentes grosores (τb) de óxido de silicio (SiO2), nitruro de silicio (Si3N4) y óxido de silicio rico en silicio (SRO); de esta manera se analizó el comportamiento de la impedancia característica (1), la cual se obtuvo como función de la razón w/g, considerando la variación los parámetros geométricos de las CPW’s, en este caso los rangos analizados de la CPW de la Figura 3 fueron 0.8 μm ≥ ω/g ≤ 10 μm, t = 1.3 μm y 0.5 μm ≥ τb≤ 2.9 μm.

Figura 5. Impedancia característica para una CPW de silicio y dieléctrico Si3N4. En la Figura 6 se presenta la gráfica de la impedancia característica de CPW’s con SRO como dieléctrico entre los electrodos y el substrato, así como diferente espesor del dieléctrico.

Figura 3. CPW con película dieléctrica entre el substrato y el metal.

5

Revista Científica


Figura 6. Impedancia característica para una CPW de silicio y dieléctrico SRO.

Conclusión De acuerdo a los resultados mostrados en las Figuras 4, 5 y 6, se concluye que se pueden obtener impedancias características similares en las guías de transmisión coplanares al emplear diferentes materiales dieléctricos entre los conductores metálicos y el substrato, mediante la variación de los parámetros geométricos de las CPW’s, lo cual resulta de gran interés, ya que dependiendo de la aplicación en la que se requiera emplear líneas coplanares, se tiene la posibilidad de elegir diferentes materiales y dimensiones geométricas que se adapten a la necesidad del usuario. .

Revista Científica

6


Bibliografía

+

Wen, C.P., (1969). Coplanar Waveguide: A Surface Strip Transmission Lines Suitable for Nonreciprocal Gyromagnetic Device applications. IEEE Transactions on Microwave Theory and Techniques. 17:1087-1090. ISSN # 0018-9480.

+

Simons, Rainee N. (2001). Coplanar Waveguide Circuits, Components, and Systems. Canada: Wiley Series in Microwave and Optical Engineering. ISBN # 0471161217.

+

Reyes, A.C. (1995). Coplanar Waveguide and Microwave Inductors on Silicon

7

Substrates. IEEE Transactions on Microwave Theory and Techniques. 43:2016-2022. ISSN # 00189480.

+

Bedair, S.S. (1992). Fast, Accurate and Simple Approximate Analytic Formulas for Calculating the Parameters of Supported Coplanar Waveguides for (M)MIC’s. IEEE Transactions on Microwave Theory and Techniques. 40:41-48. ISSN # 00189480.

+

Chung, H. y Chang, S.C. (1991). Modelling and Optimization of Traveling-Wave LiNbO3 Interferometric Modulators. IEEE Journals of Quantum Electronics. 27:608-617. ISSN # 00189197.

+

Churchil, R.V. (1992). Variable compleja y aplicaciones. Madrid: McGraw Hill. ISBN # 8476157304.

+

Spiegel, M.R. (1991). Variable compleja México: McGraw Hill. ISBN # 0070602301.

+

Wadell, Brian C. (1991). Transmission Line Design Handbook. London: Artech House Publishers. ISBN # 0890064369.

+

Collin, Robert E. (1990). Field Theory of Guided Waves. 2ª Edition, IEEE Press, 1990.

LiNbO3 Electrooptic Modulators. IEEE Journal of Lightwave Technology. 11:1274-1278. ISSN # 07338724.

+

Wheeler, H.A. (1942). Formulas for the skin effects. IEEE Proceeding of the IRE, RFIC Virtual Journal. 30:412424. ISSN # 00968390.

+

Denlinger, E.J. (1980). Losses of microstrip lines. IEEE Transactions on. Microwave Theory and Techniques. 28:513522. ISSN # 00189480.

+

Chung, H., Chang, S. C. (1993). Microwave Properties of Traveling-Wave Electrode in

Revista Científica


D E S A R R O L LO D E

ESCANER TRIDIMENSIONAL POR TRIANGULACIÓN CON LUZ BLANCA

Ing. David Alonso Rodríguez García1, Dr. Gerardo Trujillo Schiaffino2, Dra. Didia Patricia Salas Peimbert3, Dr. Marcelino Anguiano Morales4, M.C. Luis Francisco Corral Martínez5 y M.C. Ismael Arturo Garduño Wilches6

Instituto Tecnológico de Chihuahua Ave. Tecnológico #2909, Chihuahua, Chih., México, 31310. 1,2,3,4,5,6

Enviado: 31 de octubrede 2015 Aceptado: 30 de noviembre de 2015

gtrujill@itchihuahua.edu.mx

R e s u m e n : En este artículo se describe el desarrollo de un sistema de adquisición y procesamiento de imágenes para la digitalización y reconstrucción computacional de objetos tridimensionales. Este perfilómetro o escáner 3D está formado por tres componentes principales: (1) un proyector multimedia con tecnología DLP (Digital Light Processing, en español Procesamiento Digital de Luz) el cual se utiliza para la proyección de patrones de luz blanca estructurada, (2) una cámara CMOS (Complementary Metal Oxide Semiconductor, en español Semiconductor de Óxido Metal Complementario) con una lente de 18 mm para la adquisición de la imagen y (3) una computadora con software especializado para el procesamiento de las imágenes. El sistema desarrollado emplea la fusión de dos técnicas ampliamente conocidas: la triangulación láser y la proyección de luz estructurada; obteniendo con ello una nueva técnica de proyección por barrido de una línea de luz sin componentes mecánicos móviles.

+

Palabras clave: Escáner 3D, perfilometría tridimensional y triangulación.

A b s t r a c t : This paper describes the development of an image acquisition and processing system for the scanning and computer reconstruction of three-dimensional objects. This profilometer or 3D scanner consists of three main components: (1) a multimedia projector with DLP (Digital Light Processing) technology which is used for projecting patterns of structured white light, (2) a CMOS (Complementary Metal Oxide Semiconductor) camera with a lens of 18 mm for image acquisition and (3) a computer with specialized software for processing images. The developed system uses the merger of two widely known techniques: laser triangulation and structured light projection; thereby obtaining a new projection technique by sweeping line of light without moving mechanical components.

Revista Científica

+

Keywords: 3D Scanner, tridimensional profilometry and triangulation.

8


Introducción Con el vertiginoso avance de los modernos procesos de manufactura, la industria se ha visto en la necesidad de incorporar herramientas tecnológicas de vanguardia que le permitan agilizar y garantizar el desarrollo de productos con una calidad cada vez mayor. Sin duda alguna, una de estas herramientas tecnológicas es la perfilometría 3D que permite medir con exactitud la forma de objetos tridimensionales. Recientemente, con la evolución de la tecnología computacional y el desarrollo de mejores dispositivos de imagen, componentes optoelectrónicos, dispositivos láser y otras fuentes de iluminación; se ha podido llegar a la comercialización de sistemas de medición tridimensional (escáneres 3D) con un desempeño bastante satisfactorio.

permite determinar la fase del objeto a partir de N imágenes digitalizadas en intensidad luminosa, al cambiar regularmente la fase en cierta cantidad conocida. La Figura 1 muestra la secuencia de pasos correspondiente a la digitalización y reconstrucción computacional de un objeto utilizando esta técnica. La Figura 1a muestra el objeto bajo prueba, la Figura 1b muestra el patrón de franjas proyectado sobre el objeto, la Figura 1c corresponde al mapa de fase envuelta obtenido, la Figura 1d muestra el mapa de fase desenvuelta y finalmente la Figura 1e presenta la reconstrucción computacional del objeto escaneado.

Existe una gran variedad de aplicaciones para la perfilometría 3D, por ejemplo la detección de obstáculos de robots móviles, la metrología dimensional de prototipos y productos terminados, la detección de fallas o defectos de fabricación y hasta la preservación de piezas arqueológicas. Actualmente, en la industria existe la necesidad de medir con precisión y rapidez la forma tridimensional de objetos sólidos, ya sea para acelerar el desarrollo de nuevos productos en base a una reconstrucción tridimensional de un objeto a reproducir (ingeniería inversa) o bien para la medición de objetos manufacturados con fines de control de calidad. Las técnicas comúnmente utilizadas son la proyección de patrones de luz estructurada como puede ser observado en los trabajos de Chen y Quan (2005); Zhang y Su (2005); Su, Shi, Liu, Wang, Reinchard y Yiu (2005); Zhang, Su, Cao, Li, Xiang, y Chen (2005) ; Tay, Quan, Yu y Huang (2004) y el escaneo por triangulación láser presente en los trabajos de McIvor (2002); Muñoz-Rodríguez (2008); Asundi y Wensen (1999); Muñoz-Rodríguez, Rodriguez-Vera y Servín (2000).

Proyección de patrones de luz estructurada Una de las técnicas de óptica más utilizada para adquirir la información tridimensional de un objeto consiste en proyectar una serie de patrones desfasados de franjas sinusoidales, llamados rejillas sintéticas, sobre el objeto que se desea digitalizar. Las franjas deformadas por el objeto son capturadas por una cámara, digitalizadas y utilizadas en la reconstrucción computacional del mismo. La parte fundamental de la proyección de franjas para la reconstrucción tridimensional es el cálculo de fase, el cual está basado en la detección de la fase del patrón de franjas. Este análisis proporciona mapas de fase discontinuos, por lo que se hace necesario utilizar algoritmos como la transformada de Fourier o corrimiento de fase para su interpretación. Este último algoritmo

9

Figura 1. Escaneo 3D por proyección de patrones de luz estructurada.

Esta técnica de escaneo es muy precisa pero requiere de la implementación de algoritmos computacionales relativamente complejos.

Revista Científica


Triangulación por barrido de línea láser Por otro lado, la técnica de escaneo por línea láser usa una delgada línea de luz láser proyectada sobre el objeto bajo prueba. Cuando la línea es proyectada, ésta sufre una deformación de acuerdo a la topografía de la superficie del objeto, así solo se requiere medir la deformación para recuperar la forma del objeto. La correlación entre la deformación de la línea laser y la forma del objeto se hace generalmente por triangulación. Para obtener información sobre la forma del objeto completo, se barre la línea láser sobre toda la superficie del objeto por lo cual es necesario un mecanismo de movimiento controlado que permita mover al objeto de manera que la línea laser haga un barrido completo del mismo. La Figura 2 muestra un ejemplo de los resultados obtenidos al emplear esta técnica, en la Figura 2a se observa el objeto de prueba, en la Figura 2b se puede observar la deformación que sufre la línea láser al ser proyectada sobre el objeto, la Figura 2c muestra la imagen procesada para obtener solo la línea deformada y en la Figura 2d se muestra la reconstrucción tridimensional obtenida por la computadora.

Los algoritmos computaciones requeridos para esta técnica de escaneo son muy sencillos y rápidos. Sin embargo, requiere de componentes mecánicos y electrónicos para control de movimiento que generalmente incrementan los costos.

Escáner propuesto La propuesta de escáner 3D que se presenta en este artículo consiste en combinar las dos técnicas anteriormente descritas, utilizando un proyector multimedia para generar una línea de luz blanca que sin requerir de mecanismos o electrónica adicional haga un barrido completo sobre el objeto bajo prueba y luego analizar la deformación de esta línea de luz por simple triangulación.

Montaje experimental Para el montaje experimental del escáner propuesto solo se requieren tres componentes:

+ + +

Un sistema de proyección. Un sistema de adquisición de imágenes. Una computadora.

El sistema de proyección consta de un proyector multimedia marca Toshiba modelo TDP-FF1, se seleccionó este proyector en específico porque utiliza la nueva tecnología de procesamiento digital de luz (Digital Light Processing), la cual presenta como ventaja un mayor contraste en las imágenes y una mínima separación entre pixeles a diferencia de la tecnología de cristal líquido (Liquid Crystal Display), utilizada en la mayoría de los proyectores multimedia. El sistema de adquisición de imágenes consta de una cámara marca Pixelink modelo PL-B774U de 2 mega pixeles con sensor CMOS (Complementary Metal Oxide Semiconductor) y una lente formadora de imágenes tipo doble Gauss de 18mm de longitud focal marca Techspec. El equipo de computo utilizado consistió en una computadora genérica con procesador Core i7 a 3.6Ghz, 8GB RAM, disco duro de 1TB y tarjeta de video PCI Express de 1Gb. El software de adquisición y de procesamiento para la digitalización 3D está desarrollado en el lenguaje de programación LabVIEW®.

Figura 2. Escaneo por triangulación de línea láser.

Revista Científica

La Figura 3 muestra una fotografía de la ubicación de componentes, a excepción de la computadora, en el montaje experimental utilizado, donde se puede apreciar que tanto el proyector como la cámara se encuentran colocados de manera ortogonal a la superficie de referencia para el escaneo.

10


Figura 4. Geometría del arreglo.

Dichas incógnitas se determinaron por análisis trigonométricos, contemplando que los valores reales se encuentran inmersos en los sistemas ópticos tanto de la cámara como del proyector. Una vez obtenidos los valores se procedió a calcular los ángulos de la línea proyectada en relación al proyector y a la cámara, θP y θC respectivamente. Si se interpreta la proyección de la línea en un punto específico de referencia, la misma sufrirá de un desplazamiento cuando se encuentre ubicada sobre el objeto, dicha distancia puede ser capturada por la cámara de manera que el punto de referencia y el punto sobre el objeto prolongados a la cámara pueden considerarse paralelos por la mínima diferencia que existe entre ambas distancias, dicha explicación se muestra interpretada en la Figura 5.

Figura 3. Montaje experimental.

Modelo matemático En base a la técnica de triangulación se puede determinar la altura del objeto, se denomina así porque la relación entre el proyector, la cámara y el patrón de luz proyectado sobre el objeto forman un triángulo, con lo cual se realiza un análisis trigonométrico (Salas-Peimbert, Trujillo-Schiaffino, Mendoza Villegas, Ojeda-González, Almazán-Cuellar y Corral-Martínez, 2007). En primera instancia se calcularon las incógnitas hP correspondiente a la altura del proyector, XP correspondiente a la base del proyector, hC que corresponde a la altura de la cámara y XC correspondiente a la base de la cámara, en la Figura 4 se puede observar la geometría del arreglo.

11

Figura 5. Análisis trigonométrico.

Revista Científica


En base al diagrama de la Figura 5 y teniendo en cuenta que la línea proyectada está en movimiento, se deben ir calculando en cada desplazamiento de la misma los valores de θP y θC, los cuales son los ángulos de la línea en relación al proyector y la cámara, con lo cual se obtienen los ángulos correspondientes θ1 y θ2 respectivamente, para finalmente determinar la altura del objeto Z que se obtiene gracias a la relación entre los ángulos θ1, θ2 y la distancia X, que es la diferencia entre el punto de referencia con el punto desplazado sobre el objeto. La expresión matemática para determinar la altura del objeto se da en la ecuación (1).

(1)

El punto donde se proyecta la línea va haciendo un recorrido lineal, por lo que cuando la posición de la línea proyectada se ubica normal a la cámara se obtiene la ecuación (2).

Procedimiento de captura y procesamiento de imagen En primera instancia, el barrido de la línea, se da un paso o un desplazamiento seguido de la adquisición de la imagen por cada desplazamiento de la línea, en cada punto de captura se realiza un procesamiento a la imagen con las herramientas de Vision Assistant© de LabVIEW® las cuales permiten calcular la altura del objeto al aplicar las ecuaciones (1), (2) o (3) según corresponda. Finalmente se realiza una compilación de los datos obtenidos y se obtiene la digitalización tridimensional del objeto. Una vez que se inicia el paso continuo de la línea se genera la captura de imágenes en cada paso de la misma. En la Figura 7a se muestra un objeto de prueba el cual es de color blanco mate, en la Figura 7b se muestra la captura de imagen de la proyección de la línea sobre dicho objeto y la Figura 7c muestra el resultado de la imagen ya procesada.

(2)

Y cuando la posición de la línea, rebasa ese plano se deduce la ecuación (3). (3)

Desarrollo del software Para llevar a cabo la digitalización se establece una relación de calibración entre proyector y cámara, esto para minimizar cualquier error relacionado a la lente como la aberración de distorsión o de esfericidad. Los sistemas por triangulación presentan un punto de referencia fijo y en este caso el sistema de referencia está en movimiento, por lo tanto debe existir una relación entre la proyección y la adquisición, es decir estos deben de ejecutarse en forma simultánea, por tanto se desarrolla el software por secciones como se observa en la Figura 6.

Figura 7. Adquisición y procesamiento.

Luego de la adquisición de imagen, se introduce a un algoritmo computacional de procesamiento de imágenes para medir los valores detectados de la desviación de la línea de su posición de referencia. Los valores obtenidos en este procesamiento se introducen en las ecuaciones correspondientes para determinar la altura del objeto en el paso de la línea.

Figura 6. Procedimiento de reconstrucción.

Después de escanear el objeto completo se genera un gráfico tridimensional con la reconstrucción computacional del objeto.

Revista Científica

12


Resultados obtenidos La Figura 8 se muestra la reconstrucción tridimensional después de completar el escaneo del objeto bajo prueba, donde se puede observar que los resultados obtenidos fueron muy satisfactorios.

Figura 7. Reconstrucción tridimensional del objeto.

Además de la representación gráfica mostrada se cuenta también con los valores numéricos de cada una de las alturas medidas, lo cual puede ser muy útil para el cálculo de dimensiones y tolerancias.

Conclusión En este trabajo se presenta el desarrollo de una nueva técnica de escaneo tridimensional mediante el barrido de una línea de luz blanca, simultáneo con la adquisición y procesamiento de las imágenes, el cual no utiliza componentes móviles o mecanismos, abaratando costos y evitando que se generen vibraciones que pueden introducir errores en la medición. El algoritmo matemático utilizado fue generado por triangulación lo que simplifica los cálculos, haciendo muy sencilla y rápida su implementación. La interfaz de usuario desarrollada es sencilla y amigable, muestra la proyección de la línea y genera un gráfico con la reconstrucción del objeto bajo prueba. Aunque los resultados obtenidos con el objeto de prueba son muy satisfactorios se continúan realizando pruebas adicionales con otros objetos, con diferentes colores y texturas, con el fin de determinar las capacidades del escaneo y una vez concluidas estas pruebas, se procederán a realizar las pruebas de calibración estática correspondientes, con el fin de obtener parámetros como la precisión, la exactitud y el rango de error del escáner desarrollado.

13

Revista Científica


Bibliografía

+

Chen, L. y Quan, C. (2005). Fringe projection profilometry with nonparallel illumination: a least-squares approach. Optics Letters, 30, 2101–2103. ISSN #0146-9592.

+

Zhang, Q. y Su, X. (2005). High-speed optical measurement for the drumhead vibration. Optics Express, 13, 3110-3116. ISSN #1094-4087.

+

Su, W.H., Shi, K., Liu, Z., Wang, B., Reinchard, K. y Yiu, S. (2005). A large-depth-of-field projected fringe profilometry

using supercontinuum light illumination. Optics Express, 13, 1025-1032. ISSN #1094-4087.

+

Zhang, Q., Su, X., Cao, Y., Li, Y., Xiang, L. y Chen, W. (2005). Optical 3-D shape and deformation measurement of rotating blades using stroboscopic structured illumination. Optical Engineering, 44, 113601 (2005). ISSN #0091-3286.

+

Tay, C.J., Quan, C., Yu, T. y Huang, Y.H. (2004). Integrated method for 3-D rigid-body displacement measurement using fringe projection. Optical Engineering, 43, 1152-1159. ISSN #0091-3286.

Revista Científica

+

McIvor, A. M. (2002). Nonlinear calibration of a laser stripe profiler. Optical Engineering, 41, 205-212. ISSN #00913286.

+

Muñoz-Ridríguez, J.A. (2008). Shape connection by pattern recognition and laser metrology. Applied Optics, 47, 3590-3608. ISSN #1559-128X.

+

Asundi, A. y Wensen, Z. (1999). Unified calibration technique and its applications in optical triangular profilometry. Applied Optics, 38, 3556-3561. ISSN #1559-128X.

+

Muñoz-Rodríguez, J.A., Rodriguez-Vera, R. y Servín, M. (2000). Direct object shape detection based on skeleton extraction of a light line. Optical Engineering, 39, 2463–2471. ISSN #0091-3286.

+

Salas-Peimbert, D., Trujillo-Schiaffino, G., Mendoza Villegas, P.G., Ojeda-González, D., Almazán-Cuellar, S. y Corral-Martínez, L.F. (2007). Surfaces relief profilometry of solid objects by sweeping of a laser line. Proceedings of AIP, 992, 947–950. ISBN #978-0-7354-0511-0.

14


15

Revista CientĂ­fica


APLICACIÓN PRÁC TICA DE UN

modelo de

negocios +CASO PINTURAS QUIROZ

M.I.I. Jorge Adolfo Pinto Santos 1, M.A. Francisco José Meléndez Gurza 2, Dr. Gustavo García Meléndez3 y M.C. Eduardo Rafael Poblano Ojinaga4

Instituto Tecnológico de la Laguna Boulevard Revolución y Calzada Cuauhtémoc s/n Torreón, Coahuila, México, C.P. 27000. 1,3,4

Universidad Autónoma de Coahuila, Unidad Torreón Torreón, Coahuila, México, C.P. 27000.

2

Enviado: 27 de octubre de 2015 Aceptado: 18 de dicimebre de 2015

jorge_pinto9@yahoo.com.mx

R e s u m e n : Pinturas QUIROZ (empresa MiPyME dedicada a la fabricación de recubrimientos, pinturas, esmaltes e impermeabilizantes de reciente creación), está localizada en Torreón, Coahuila. Para la elaboración de su plan estratégico, se apoyó en un modelo de administración estratégica (MAE). El proceso de dirección estratégica consta de tres etapas: (1) formulación, (2) implementación y (3) evaluación de la estrategia. Este proyecto se enfoca en la etapa de formulación y la conclusión principal a la que se llegó en este trabajo es que el MAE es un medio útil para identificar la situación actual de la MiPyME (en relación a su entorno y a su perfil competitivo) y permitió identificar estrategias y áreas de mejora. Siendo los beneficios directos que se obtuvieron al aplicar el modelo de administración estratégica: la identificación de factores externos y su efecto en la MiPyME, la identificación de las principales fortalezas y las debilidades, las acciones claves para el éxito y la elaboración del mapa estratégico.

+

Abstract: Paintings QUIROZ (newly created company engaged in the manufacture of coatings, paints, enamels and waterproofing), is located in Torreon, Coahuila. For the preparation of its strategic plan relied on a strategic management model (SMM). The strategic management process consists of three stages: (1) formulation, (2) implementation and (3) evaluation of the strategy. This project focuses on the formulation stage and the main conclusion reached in this paper is that the strategic management model (SMM) is a powerful tool to identify the current situation of companies MiPyME (in relation to their environment and their competitiveness) and allowed the identification of strategies and areas for improvement. The direct benefits obtained by applying the strategic management model were the identification of external factors and their impact on MiPyME, identification of major strengths and weaknesses, key actions for the success and development of the strategic map.

+

Revista Científica

Palabras clave: Administración estratégica y plan de negocios.

Keywords: Strategic management model and business plan.

16


Introducción La empresa Pinturas QUIROZ tiene su origen en la ciudad de Torreón, Coahuila, en el seno familiar, y en el mes de noviembre del 2012 comienza su desarrollo como una empresa, con la llegada de un nuevo socio, desprendiéndose de las costumbres familiares, y se constituye como una sociedad anónima; debido a este cambio, se decide estructurar la organización del negocio, manteniendo el nombre representativo de origen de la familia. Por lo tanto, se decide el nombre de Pinturas QUIROZ como marca representativa. En 2013 se renegocian los pasivos y se da inicio al saneamiento de las finanzas. A principios del 2014 se logra estabilizar su situación empresarial, por lo que se decide realizar una planeación estratégica para mantener el rumbo y el crecimiento previsto por la directiva para los próximos años. Actualmente se cuenta con una fábrica con equipo suficiente para surtir a los clientes actuales y con capacidad de crecimiento de hasta 500%, se trabaja con cinco empleados con tecnología básica de bajo costo y una cartera limitada de clientes frecuentes (50 clientes). Para el año 2015, se desea crecer a tres sucursales (puntos de venta) y la implementación de un laboratorio para el control de la calidad de sus productos. Se está mejorando la presentación del producto con diseño de catálogos y una apariencia atractiva del envase. Asimismo, se está implementando una página de internet para su promoción, contando además con una tienda en línea. La administración estratégica se define como el proceso de administración que entraña que la organización prepare planes estratégicos y después actúe conforme a ellos. Por lo que consta de elaborar, implementar y evaluar los diferentes planes de operación propuestos en la elaboración, con

17 17

el fin de alcanzar objetivos y metas planteadas. Los objetivos planeados se clasifican por su implementación en corto, mediano y largo plazo. La administración estratégica maneja un presupuesto disponible limitado, por lo que es primordial la correcta aplicación de los recursos a los objetivos planeados, ya que los recursos no serían suficientes para alcanzar metas fuera de presupuesto. La administración estratégica tiene que ser puntual en su aplicación y en sus objetivos a alcanzar y deben de realizarse en un tiempo determinado, ya que sus consecuencias se mantienen a largo plazo, porque los cambios en el ambiente del negocio perduran (Guzmán, 2008). Declaraciones de la visión y la misión. En la actualidad muchas empresas elaboran una declaración de la visión que responda la pregunta ¿qué queremos llegar a ser?. La elaboración de una declaración de la visión se considera a menudo como el primer paso a seguir en la planeación estratégica, precediendo incluso al desarrollo de una declaración de la misión. Las oportunidades y amenazas externas se refieren a las tendencias y sucesos económicos, sociales, culturales, demográficos, ambientales, políticos, legales, gubernamentales, tecnológicos y competitivos que pudieron beneficiar o dañar en forma significativa a una empresa del futuro. Un principio básico de la dirección estratégica es que una empresa requiere plantear estrategias para aprovechar las oportunidades externas y evitar o reducir el impacto de las amenazas externas. Las fortalezas y debilidades internas son las actividades que la empresa puede controlar y cuyo desempeño se califica como excelente o deficiente. Las fortalezas y las debilidades se determinan en relación con los competidores.

RReevvi issttaa CCiieennttííffiiccaa


El modelo de dirección estratégica La dirección estratégica se define como el arte y la ciencia de formular, implementar y evaluar decisiones multifuncionales que le permitan a una organización lograr sus objetivos, enfocándose en integrar la diferentes áreas funcionales (administración, mercadotecnia,...) para lograr el éxito de la organización. El proceso de dirección estratégica se estudia y aplica mejor usando un modelo que representa cierto tipo de proceso.

+ Paso 3.

Auditoría externa, para la elaboración de la matriz de perfil competitivo (MPC). La matriz del perfil competitivo identifica los principales competidores de la empresa, así como sus fortalezas y debilidades específicas en relación con la posición estratégica de una empresa en estudio.

+ Paso 4.

Auditoría interna, para la identificación de las fortalezas y las debilidades internas de la empresa y elaborar una matriz de evaluación del factor interno (EFI).

+ Paso 5.

Preparar una matriz de amenazas, oportunidades, debilidades y fortalezas. La matriz FODA (fortalezas, oportunidades, debilidades y amenazas) es una herramienta de ajuste importante que ayuda a los gerentes a crear cuatro tipos de estrategias: FO, DO, FA y DA.

+ Paso 6.

empresa y mapa estratégico.

Acciones claves para el éxito de la

Figura 1. Etapas de Planeación Estratégica.

El esquema que ilustra la Figura 1 es un modelo integral ampliamente aceptado del proceso de dirección estratégica. La identificación de la visión, misión, objetivos y estrategias existentes de una empresa es el punto de partida lógico de la dirección estratégica, porque la situación actual de una empresa podría excluir ciertas estrategias e incluso dictar un curso particular de acción (Thomson y Gamble, 2012).

Metodología Para elaborar el análisis se siguieron los pasos descritos a continuación, los cuales se correlacionan con las etapas del proceso de dirección estratégica (Figura 1):

+ Paso 1.

Identificar la visión, misión, objetivos y estrategias existentes de la empresa.

+ Paso 2.

Auditoría externa, para identificar las oportunidades y amenazas externas de la empresa y elaborar una matriz de evaluación del factor externo (EFE).

Revista Científica

18


continua, sobre todo lo relacionado a las amenazas.

Resultados y discusión

+ Paso 1.

Identificación de la visión, misión, objetivos y estrategias existentes en la empresa:

Visión: Ser líder regional en la preferencia de los pintores para sus soluciones. Y ser considerado dentro de los liderazgos a nivel nacional en el 2020.

Misión: La producción de pintura para el ramo profesional, con la mejor calidad y precio competitivo que prefiera el pintor.

+ Paso 3.

competitivo (MPC).

Elaboración de la matriz de perfil

Con la matriz de perfil competitivo se identificó a los principales competidores de la empresa, así como sus fortalezas y debilidades específicas en relación con la posición estratégica. Las clasificaciones se refieren por tanto a las fortalezas y debilidades, donde 4 corresponden a la fortaleza principal, 3 a la fortaleza menor, 2 a la debilidad menor y 1 a la debilidad principal. La matriz fue desarrollada siguiendo las especificaciones de David (2003).

Valores: La empresa fundamenta sus esfuerzos basados en el ser humano, el espíritu de servicio, el liderazgo, el trabajo en equipo, la calidad y el alto desempeño. Objetivos: Estratégicos, financieros, de negocios global, así como también funcionales de apoyo, como producción, mercadotecnia, ventas, finanzas y recursos humanos.

+ Paso 2.

Identificar las oportunidades y amenazas externas de la empresa. Elaborar una matriz de evaluación del factor externo (EFE). La matriz EFE permitió resumir y evaluar la información de las fuerzas externas dividiéndolas en cinco categorías principales. La matriz EFE se desarrolló según lo especificado por David F. (2003).

Nota: En este momento la empresa se encuentra por debajo de los competidores, por lo que existe un reto importante para mejorar en distintas áreas.

Nota: el 2.45 indica que la empresa está reaccionando de manera media en promedio, teniendo mucho camino por delante para la mejora

19

Revista Científica


+ Paso 4.

Identificación de las fortalezas y las debilidades internas de la empresa y elaborar una matriz de evaluación de factor interno (EFI). Este paso que constituyó un resumen en la conducción de una auditoría interna de la dirección estratégica es la elaboración de una matriz EFI. Esta herramienta ayuda para la formulación de la estrategia al resumir y evaluar las fortalezas y las debilidades principales en áreas funcionales de una empresa, al igual proporcionó una base para identificar y evaluar las relaciones entre estas áreas (David F., 2003).

. De manera similar a la matriz EFE y a la MPC, la matriz EFI se elaboró en 5 pasos descritos anteriormente. Sin importar cuantos factores están incluidos en una matriz EFI. El puntaje de valor total varía de 1.0 a 4.0, siendo el promedio 2.5. Los puntajes de valor por debajo de 2.5 caracterizan a las empresas que son débiles internamente, mientras que los puntajes por encima a 2.5 indican una posición interna sólida.

+ Paso 5.

Preparación de la matriz de fortalezas, oportunidades, debilidades y amenazas (FODA) y presentación de las ventajas y desventajas de estrategias alternativas.

Nota: Se tiene una fortaleza interna promedio de 2.55, estando el área de oportunidades en las debilidades fortaleciéndolas y tratando de eliminarlas.

Con la ayuda de la matriz FODA, se crearon estrategias de los cuatro tipos (estrategias FO, DO, FA Y DA), como se indican en la Tabla 4.

Nota: Las estrategias están principalmente enfocadas a la promoción a la variedad de los productos, sus ventajas en precio y desempeño para generar un incremento en las ventas y aumento en la participación del mercado.

Revista Científica

20


+ Paso 6.

Acciones claves para el éxito de la empresa y mapa estratégico. De los análisis FODA y la determinación MAXI – MINI sobre los aspectos positivos y negativos de la empresa, se puede puntualizar las acciones a ejecutar para lograr el éxito dentro de la organización (Tabla 5).

En el mapa estratégico, se definen las estrategias en cuatro áreas claves de la organización (Tabla 6).

21

Revista Científica


Conclusiones La aplicación de la metodología propuesta cumplió con su objetivo, es decir, determinar las principales oportunidades y amenazas que enfrenta la empresa, así como detectar fortalezas y debilidades de la misma, lo que facilita el diseño y selección de estrategias de alto impacto, agregando objetividad al proceso de toma de decisiones y permitiendo que las decisiones tomadas tengan un gran impacto en el desempeño de la empresa. Los resultados de este trabajo incluyen el cálculo de los siguientes índices:

+

En la matriz EFE, el valor 2.45 indica que la empresa está reaccionando de manera media en promedio, teniendo mucho camino por delante para la mejora continua. Sobre todo en lo relacionado a las amenazas.

+

En la matriz MPC, se refleja que en este momento la empresa se encuentra por debajo de los competidores, por lo que existe un reto importante para mejorar en distintas áreas.

Recomendaciones Se proponen estrategias específicas que contribuyan a maximizar el rendimiento, así como la eficacia de las actividades y con esto aumentar el rendimiento de la empresa con la finalidad de ser líder a nivel nacional. Para la selección de estrategias, con la finalidad de mejorar las funciones de investigación y generación de empleos, se recomienda reflejar todas las actividades en planes y programas establecidos, donde se indiquen, al menos, los responsables, fechas de inicio y de terminación de las actividades principales.

Visión propuesta: Ser líder regional en la preferencia de los pintores para sus soluciones. Y ser considerado dentro de los liderazgos a nivel nacional en el 2020. Misión propuesta: La producción de pintura para el ramo profesional, con la mejor calidad y precio competitivo que prefiera el pintor.

+

En la matriz EFI se detecta una fortaleza interna promedio de 2.55, estando el área de oportunidades en las debilidades, siendo el objetivo convertilas en fortalezas y tratar de eliminarlas.

+

En la matriz FODA y MAXI-MINI las estrategias están principalmente enfocadas a la promoción a la variedad de los productos sus ventajas en precio y desempeño, para generar un incremento en las ventas y un aumento en la participación del mercado.

Revista Científica

22


Bibliografía

+

David, F. (2003). Conceptos de Administración Estratégica. Novena Edición, Editorial. Pearson Educación, México D.F.

+

Steiner, G. (1992). Planeación Estratégica: Lo que todo Director debe saber. Decimoquinta Edición, Editorial Compañía Editorial Continental, México D.F.

23

+

Guzmán Cedillo, Roa M (2008). Apuntes de la material de Planeación Estratégica. Facultad de Contaduría y Administración, Universidad Autónoma de Coahuila, Unidad Torreón.

+

Thompson I Peteraf, Gamble I Strickland (2012). Administración Estratégica. Edición 18a, editorial McGraw-Hill. México D.F.

Revista Científica


E S TA B I L I D A D D E N A N O PA R T Í C U L A S D E P L ATA E N U N P R O C E S O D E

FLOCULACIÓN Dr. Víctor Alfredo Nolasco Arizmendi1, M.C. Abygail Adarely Martínez Mendoza2 y T.S.U. Haly Surisadday Juárez Pérez3

Universidad Tecnológica de Tula-Tepeji, Av. Universidad Tecnológica No. 1000. El Carmen, Tula de Allende, Hidalgo, México, C.P. 42830 1,2,3

Enviado: 31 de octubre de 2015 Aceptado: 8 de diciembre de 2015

R e s u m e n : Actualmente, el tratamiento de aguas residuales involucra a la Nanotecnología, en donde las nanopartículas metálicas son usadas para inhibir el crecimiento de microorganismos. Después de un tratamiento de desinfección con nanopartículas, las mismas deben ser retiradas del agua debido a que los materiales nanoestructurados pueden ser tóxicos para los animales y las plantas. En esta investigación, se demuestra la inestabilidad para nanopartículas de plata en aguas de uso nanotecnológico en un proceso de floculación en el laboratorio. La concentración de un floculante es variada para precipitar el material nanoestructurado del agua y el plasmón de resonancia superficial de las nanopartículas de plata fue seguido alrededor de los 426nm por espectroscopía UV-Vis. De acuerdo a los resultados obtenidos la floculación puede realizarse con 1% de floculante de hierro para remover el nanomaterial; en este caso las nanopartículas de plata pueden tratarse fácilmente por floculación en un tiempo corto.

+ vnolasco@uttt.edu.mx nolascoarizmendi@gmail.com

A b s t r a c t : Actually, water treatment involves the Nanotechnology, metal nanoparticles are used to inhibit microorganisms in water such as silver nanoparticles influence the growth in bacterial and fungal cultures. After that, nanoparticles could be treated because nanostructured materials are toxic for animals and plants. This research demonstrates the wastewater treatment of silver nanoparticles by flocculation technique in solution. Flocculant concentration are varied to precipitate nanostructured material waste and the surface resonance plasmon of silver nanoparticles about 426 nanometers are determinated by UV-Vis spectroscopy. According to the results for flocculation process could be improved with 1% of iron flocculant; in this case silver nanoparticles are treated with an easy method in few seconds.

+ Revista Científica

Palabras clave: Plasmón, tratamiento de agua y coloide.

Keywords: Plasmon, wastewater treatment and colloid.

24


Introducción La floculación consiste en la aglomeración de las partículas de mayor tamaño y peso específico llamados flóculos, lo que les permite sedimentar con facilidad a los contaminantes. Los objetivos generales de la floculación son reunir microflóculos para formar partículas con mayor peso (superior al del agua) y compactar así el flóculo (Manahan, 2007). Este proceso puede ser utilizado para la remoción de turbiedad orgánica o inorgánica en el agua, eliminación de colorantes y de sustancias no deseadas en la solución, como lo pueden ser las nanopartículas de plata. Para llevar a cabo este proceso de una forma más eficiente, es necesario tener en cuenta las diferentes características físicas y químicas del agua, la dosis y concentración efectiva del coagulante, la intensidad y el tiempo de mezcla en la floculación (Manahan, 2007). Al agregar el o los coagulantes a la solución, inmediatamente iniciará una serie de reacciones hidrolíticas las que consisten en adherir iones a la superficie de las partículas presentes en la suspensión, debido a esto las partículas tienen oportunidad de unirse a otras, por colisiones sucesivas hasta formar flóculos que van a ir aumentando su tamaño con el tiempo.

Esas nanopartículas en dichos medios y condiciones, actualmente son la preocupación y cuestión de estudios e investigaciones sobre el impacto que podría llegar a tener al interactuar con el medio ambiente y el humano (Asghari, Lee, Kim, Jeon y Choi, 2012); es por ello que en esta investigación las nanopartículas de plata obtenidas por un proceso de bioreducción química con un extracto de Tillandsia recurvata L., son removidas del agua con un floculante de hierro y el seguimiento de su estabilidad estudiada por espectroscopía ultravioleta visible determinando el plasmón de resonancia superficial del material nanoestructurado.

La rapidez con que esto ocurre va a depender directamente del tamaño de las partículas con relación al estado de agitación del líquido, de la concentración de las mismas y de su desestabilización. Los floculantes son polímeros con pesos moleculares muy elevados, los polímeros son moléculas orgánicas solubles en agua formadas por monómeros, repetidos en una cadena larga. Estos floculantes pueden ser de diferente naturaleza: mineral, orgánico natural y orgánico de síntesis. Una de las ventajas del uso de floculantes es que la dosificación de estas sustancias se lleva a cabo en concentraciones muy bajas, lo que trae consigo una gran ventaja al compensar el costo del polímero. Además de esta ventaja, los floculantes están siendo empleados en el tratamiento de agua potable debido a que se produce una menor cantidad de lodos tratables (Manahan, 2007). Hoy en día se producen nuevas tecnologías a gran escala y muchas de ellas, son utilizadas sin antes pasar por una investigación sobre los posibles efectos a corto y largo plazo que tendrán sobre el ambiente (Morán, Martínez, Sant, y Xarau, 2011). La Nanotecnología es un ejemplo de este caso, por lo tanto debe llevarse a cabo un estudio, así como la evaluación de los diferentes escenarios en los que podría llegar a tener serías implicaciones. Uno de los hechos que demuestra el riesgo de la materia manipulada a escala nanométrica, es que aunque la cantidad de materia utilizada para un proceso nanotecnológico sea mínima, el tamaño de las partículas sigue siendo mucho menor, lo suficiente como para penetrar la piel. Se sabe que las sales solubles de plata, especialmente el nitrato de plata (AgNO3), son letales en concentraciones de hasta 2g. Los compuestos de plata pueden ser absorbidos lentamente por los tejidos corporales, provocando argiria, que es una intoxicación por plata. En este caso, la plata se deposita tanto en piel como en órganos, otorgando una coloración gris denominada cerulodermia. Las nanopartículas en contacto con el medio que le rodea lograrían tener infinidad de reacciones dependiendo del tipo de nanopartícula, el medio (agua, aire y suelo) y las condiciones del ambiente.

25

Revista Científica


Metodología

Resultados y discusión

Las nanopartículas de plata se obtuvieron realizando una solución 1:1 en volumen de un extracto acuoso de Tillandsia recurvata L., comúnmente llamado heno y una solución de nitrato de plata como precursor metálico en la obtención del material nanoestructurado. Para obtener el extracto de Tillandsia recurvata L., se obtiene la planta y se lava con agua corriente, después se corta en trozos de aproximadamente 2cm de largo y se lava con agua destilada, una vez obtenida la planta en trozos, éstos se pesan en una relación de 1% con respecto al volumen de agua utilizado, se lleva a ebullición durante 2 minutos, después el extracto se retira de ebullición, filtra y lleva a temperatura ambiente antes de mezclar con la solución del precursor metálico. La solución de nitrato de plata se preparó a una concentración de 10-3M en agua destilada o de preferencia desionizada. Después de mezclar el precursor metálico y el extracto de la planta, la reacción se lleva acabo a temperatura ambiente durante 48 horas hasta obtener una señal de las nanopartículas alrededor de los 426nm. Para llevar acabo la floculación se utiliza un coagulante comercial marca inorganic ventures el cual contiene agua: 7732-18-5, ácido nítrico: 7697-37-2 y hierro: 7439-89-6; con 10µg/mL de Fe estabilizado con HCl. El seguimiento en la estabilidad de las nanopartículas de plata obtenidas se realiza siguiendo la disminución del máximo de absorción alrededor de los 426nm en un tiempo de 10s y variando la cantidad de floculante (6-50µL), en un volumen de 1000µL de nanopartículas de plata en el espectrofotómetro UV-Vis (ThermoScientific Genesys 10S), en un rango de 190nm a 800nm. Se realizaron mediciones del plasmón de resonancia superficial para nanopartículas de plata, la disminución de la absorbancia con respecto al tiempo (10 segundos) a una concentración de 6µL de floculante de hierro y los cambios en la disminución de la absorciones de las nanopartículas con respecto al volumen del floculante (6-50µL). La Figura 1 muestra el diagrama del procedimiento utilizado en la metodología de floculación.

Se obtuvieron nanopartículas de plata después de 48 horas de reacción una vez mezclado el nitrato de plata con una concentración de 10-3M y el extracto de la planta. Al terminar la reacción, la estabilidad del material nanoestructurado se ve afectado en unos cuantos segundos una vez agregado el Fe como coagulante, el plasmón de resonancia superficial de las nanopartículas de plata, alrededor de 426nm, disminuye su intensidad debido a que el Fe ha floculado el nanomaterial y lo ha separado del agua, perdiendo su propiedad óptica como material nanoestructurado. En la Figura 2 se muestra el plasmón de resonancia de las nanopartículas de plata a 426nm el cual disminuye inmediatamente después de agregar el floculante, en un barrido de 190-800nm hecho en el espectrofotómetro. La reacción y la pérdida de la propiedad óptica se realiza en unos cuantos segundos. En el espectro de absorción de las nanopartículas de plata (nanoAg) también aparecen picos en la región violeta (menor a 400nm) atribuidos a la biomasa del extracto de Tillandsia recurvata L. También en la región violeta aparecen señales atribuidas al floculante una vez agregado en 0, 3, 6, 9, 12 y 15 minutos debidos al HCl o Fe.

Figura 2. Plasmón de resonancia superficial de nanopartículas de plata alrededor de 426nm y la disminución del plasmón con 6µL de floculante de Fe de 0 minutos hasta 15 minutos.

Figura 1. Diagrama de metodología utilizado en el proceso de floculación de nanopartículas de plata.

Revista Científica

La velocidad con que ocurre la reacción en la floculación es tan alta que le lleva 10 segundos al floculante de Fe para desestabilizar con 0.6% en volumen a las nanopartículas y sedimentarlas, esta relación hace apropiado al floculante para desestabilizar a las nanopartículas de plata obtenidas por una bioreducción química; es de importancia tratar a los materiales nanoestructurados en agua debido a que los nanocoloides pueden estar presentes durante varios años como material a escala nanométrica y originar toxicidad en el medio ambiente (Celis, Janor, Forgiarini, Rosenzweig y García-Rubio, 2015). El floculante de hierro estabilizado en ácido clorhídrico es apropiado para llevar a cabo la remoción

26


del nanomaterial de plata debido a que utiliza una concentración menor al 1% y lo realiza en un tiempo relativamente corto. La Figura 3 muestra disminución de la absorbancia a 425nm en un tiempo de 10 segundos para nanopartículas de plata con 0.6% de coagulante. La pendiente de esta recta tiene un valor de -0.0179 la cual indica la disminución en la absorbancia en un tiempo de 10 segundos e indica que la reacción se esta llevando en un tiempo relativamente corto.

Figura 3. Disminución de la absorbancia con respecto al tiempo (10 segundos) a una concentración de 6µL.

También se han determinado las pendientes para volúmenes desde 7μL a 50μL, las cuales indican los cambios en las velocidades de la disminución en las absorbancias de las nanopartículas de plata alrededor de los 426nm en un tiempo de 10 segundos. La Tabla 1 muestra los cambios en las disminuciones de las absorbancias en plasmones de nanopartículas de plata, la cual no presenta una oscilación significativa en los datos con respecto a la concentración del floculante, siendo casi imperceptible el cambio a un volumen de 50μL de floculante que varía de 0.0004 en el cálculo de pendiente, que para el volumen de 7μL.

Hasta el momento se ha comprobado que el Fe estabilizado en HCl es un floculante eficaz para remover las nanopartículas de plata en tiempos de alrededor de 10s y se ha demostrado siguiendo las absorbancias que presenta el plasmón de resonancia característico de las nanopartículas por espectroscopía ultravioleta-visible (Safaei-Naeini y Salahi, 2012). Este plasmón es característico para nanopartículas metálicas y es debido a las oscilaciones de electrones presentes en metales, en donde el fenómeno se intensifica debido a que los electrones se mueven en volúmenes pequeños, que a nivel nanométrico existe una interacción con la longitud de onda incidente de la región visible en las nanoesferas, también existe plasmón de resonancia para nanopartículas de oro y de platino pero se encuentran alrededor de los 500nm (Płaza, Chojniak y Banat, 2014). En la Figura 4 se muestra la floculación realizada por las nanopartículas con el 1% de floculante, en donde el color amarillo característico de estas nanopartículas de plata desaparece en unos cuantos segundos después de agregar el floculante, en el fondo del frasco se observa el material completamente floculado.

Tabla 1. Cambios en la disminución de la absorciones de las nanopartículas de plata a diferentes volúmenes de coagulante, se muestra la pendiente que representa el cambio y el coeficiente de correlación para las rectas en 10 segundos.

27

Figura 4. Floculación de nanopartículas de plata con Fe/HCl.

Revista Científica


Conclusión La floculación es una alternativa para el tratamiento de nanopartículas de plata coloidales obtenidas por bioreducción química en concentraciones relativamente pequeñas de floculante, en este caso de Fe, en tiempos cortos ocurre una desestabilización y precipitación del nanomaterial removiendo la plata nanoestructurada del agua, lo que vuelve viable el procedimiento para la remoción de nanocoloides de plata en un tiempo corto como para tratarse de mejor forma un residuo a nivel industrial o de laboratorio. El seguimiento de la estabilidad de las nanopartículas de plata se determina por espectroscopía ultravioleta-visible en un proceso de floculación en el laboratorio de caracterización de nanomateriales, con relativa facilidad.

Revista Científica

28


Bibliografía

+

Celis, M.T.; Janor, O.; Forgiarini, A.; Rosenzweig, P. y García-Rubio, L. (2015). Efecto de partículas nanométricas sobre las propiedades de suspensiones. Revista Ciencia e Ingeniería. 36 (1): 19-30. ISSN # 1316-7081.

+

Płaza, G.A.; Chojniak, J. y Banat, B.M. (2014). Biosurfactant Mediated Biosynthesis of Selected Metallic Nanoparticles . International Journal of Molecular Sciences. 15 (1):1372013737. DOI:10.3390.

+

Safaei-Naeini, M.A.F. y Salahi, E. (2012). Suspension stability of titania nanoparticles studied by uv-vis spectroscopy

29

method . Iranian Journal of Materials Science & Engineering , 9 (1):62-68.

+

Asghari, S.; Johari, S.A.; Lee, J.H.; Kim, Y.S., Jeon, Y.B. y Choi, H.J. (2012). Toxicity of various silver nanoparticles compared to silver ions in Daphnia magna. Journal of Nanobiotechnology. 10 (14):1-11.

+

Manahan, S. (2007). Introducción a la Química Ambiental. España: Editorial Reverté UNAM. ISBN # 968-36-6707-4.

+

Morán, I.; Martínez, J.; Sant, L.M. y Xarau, S.N. (2011). Toxicología Clínica. Madrid, España: Difusión Jurídica y Temas de Actualidad S.A. ISBN # 97884-95545-52-7.

Revista Científica


P r e va l e n c i a d e l a s D i s c a pac i d a d e s

Diagnosticadas y Atendidas e n F u n d a c i ó n J uá r e z I n t e g r a , A . C .,

< P e r i o d o 2004 - 2009 >

Médico Francisco Rangel Araiza1 , Médico Álvaro Arteaga Ríos2 , Médico Jorge Hernández Sánchez3 y M.C.S.P. Alfredo Alfonso Cábel Acevedo4

Asociación de Especialistas en Neuro-Rehabilitación, A.C. 1,2,3

Universidad Tecnológica de Ciudad Juárez, Av. Universidad Tecnológica # 3051, Colonia Lote Bravo II, C.P. 32965, Ciudad Juárez, Chihuahua.

Resumen: Se presentan los resultados de un análisis estadístico orientado a detectar la presencia de todas las discapacidades en los beneficiarios que acudieron para valoración y tratamiento en el departamento de Rehabilitación Física en las instalaciones de la institución privada Fundación Juárez Integra, A.C. ubicada en Ciudad Juárez, Chihuahua, atendidas en el periodo 2004 - 2009.

4

Enviado: 30 de octubre de 2015 Aceptado: 8 de diciembre de 2015

alfredo_cabel@utcj.edu.mx

Se realizó un estudio descriptivo, transversal, retrospectivo y cuantitativo, el cual incluyó los expedientes clínicos elaborados a partir del mes de enero de 2004 a diciembre de 2009. Se revisaron Dos mil 393 expedientes clínicos de primera vez del departamento de Rehabilitación Física, encontrando diferentes discapacidades, entre las más representativas fueron: retraso en el desarrollo psicomotor, con el 34.47%, parálisis cerebral con el 28.79% y discapacidad intelectual con el 19.30%. Se obtuvo información importante para continuar con la detección y tratamiento temprano de personas con parálisis cerebral y otros tipos de discapacidades, siendo necesario ampliar el registro nacional para ser consultado y compartido por todos los que de una u otra manera están relacionados en esta rama médica, recordando que hasta hoy los referentes que se utilizan son datos recabados en el extranjero.

+

Palabras clave: Discapacidades y prevalencia en México.

Abstract: This study shows the statistical results performed to detect the presence of all disabilities in the recipient who was introduced for assessment and treatment in the Department of Physical Rehabilitation at the premises of the Private Institution Juarez Integra Foundation AC of Ciudad Juarez, Chihuahua Attended Between 2004 and 2009 in Juarez Integra Foundation, A.C. Revista Científica

30


A descriptive, cross-sectional, retrospective, quantitative study, which included medical records from January 2004 to December 2009, which were the first time performed. 2,393 records of patients who were seen for the first time were reviewed during this period at physical rehabilitation department. Different disabilities were found and the most representative are as follows: Psychomotor Development Delay, with 34.47%; Cerebral Palsy with Intellectual Disability and 28.79% with 19.30% respectively. Important to continue the early detection and treatment of people with cerebral palsy and other disabilities information was obtained, the necessity to extend the national registry to be accessed and shared by all those who in one way or another work in this branch. Considering that until this day the references that are used are only data collected abroad.

+

Keywords: Disabilities and prevalence in Mexico.

Introducción En los Estados Unidos Mexicanos se trabaja cotidianamente, en las instituciones de salud tanto públicas como privadas, en el tratamiento de la discapacidad, pero la información respecto a la prevalencia de los diversos padecimientos en la población es limitada, a pesar de que la discapacidad es considerada un problema de salud pública de alto impacto en el país (Urquieta, 2008). Es por ello que se considera que se requiere realizar investigación documental que indique las proporciones de prevalencia de los tipos de discapacidad, ya que generalmente se trabaja con los datos de prevalencia de otros países. Se han establecido lineamientos generales, como en la Clasificación Internacional de las Deficiencias, Discapacidades y Minusvalías, publicado en 1980, lo que favoreció que la Organización de las Naciones Unidas designase el año de 1981 como el Año Internacional de las Personas con Discapacidad, lo cual motivó la publicación en México, en 1997, del Manual de Elaboración de Información Estadística para Políticas y Programas Relativos a Personas con Discapacidad. En México, se han realizado varios estudios para la detección de personas con discapacidad, como la Encuesta Nacional de Inválidos en 1982 por la Secretaria de Salud, el Conteo de Población y Vivienda de 1995 y el Registro Nacional de Menores con Discapacidad del Instituto Nacional de Estadística y Geografía, Desarrollo Integral de la Familia y la Secretaría de Educación Pública (INEGI, 2000). De las cifras nacionales en discapacidad está documentado que existían en el año 2000, 32.6 millones de niños mexicanos y que 236 mil niños, de entre 0 y 14 años, tenían algún tipo de discapacidad, distribuida de la siguiente manera: 35.1% motriz, 33.9% mental, 15.1% visual, 10.3% del lenguaje y el 5.6 % dentro de las discapacidades múltiples, siendo la proporción igual para ambos sexos (INEGI, 2004). Se señala que la prevalencia por género y edad es mayor en mujeres, así como también se señala que en clases sociales de bajo ingreso económico existe una mayor frecuencia y un mayor índice de mortalidad en los hombres menores a los 50 años; la prevalencia es más frecuente en las mujeres después de los 50 años. En el año 2000, había un 17% de personas de 65 años con discapacidad, siendo el pronóstico para el año 2050 del 30% (Solsona y Viciano, 2004).

31

Revista Científica


La Fundación Juárez Integra A.C. es una red de asociaciones civiles no lucrativas, autónomas enlistadas a continuación: + + + + + +

Amigos Unidos Contra la Esclerosis Múltiple, A. C. Asociación de Autismo de Ciudad Juárez, A. C. Centro de Audición y Aprendizaje, A. C. Centro de Equinoterapia de Ciudad Juárez, A. C. Centro para la Integración y Desarrollo de las Personas con Discapacidad Visual, A. C. Instituto de Desarrollo Down, A. C.

Las cuales atienden discapacidades específicas como alteraciones neuromusculares, esclerosis múltiple, autismo, discapacidad auditiva y de lenguaje, discapacidad visual y baja visión, síndrome de Down, entre otros. Todas las asociaciones participantes envían a sus beneficiarios a revisión al departamento de Rehabilitación Física para detectar si hay alguna discapacidad concurrente que deba manejarse en ese servicio.

Revista Científica

Objetivo del estudio El estudio tiene la intención de divulgar la prevalencia de discapacidades atendidas en el periodo 2004 - 2009 en Fundación Juárez Integra, A.C., para ello fue necesario: +

Documentar la prevalencia de discapacidades de tipo motriz.

+

Documentar la prevalencia de discapacidades cognitivas.

+

Documentar la prevalencia de discapacidades sensoriales.

32


Metodología Se efectuó un estudio descriptivo, transversal, retrospectivo y cuantitativo en Fundación Juárez Integra, A.C., revisando los expedientes clínicos elaborados a partir de enero de 2004 hasta diciembre de 2009, de primera vez, excluyendo todos aquellos que se encontraban repetidos, así como los que no fueron atendidos por diversas causas. Las variables utilizadas en esta investigación fueron edad, sexo y tipo de discapacidad (motriz, cognitiva y sensorial). Se recopiló la información y se creó una base de datos en Microsoft Excel. Para el análisis estadístico se tomaron en cuenta las medidas de tendencia central (moda, media, mediana) y porcentajes.

Figura 2. Rango de edades. La Tabla 1 presenta la frecuencia de los diagnósticos por tipo de discapacidad, posterior a la revisión de la totalidad de los expedientes. Tabla 1. Cantidad y porcentaje de las discapacidades detectadas.

Resultados Se revisaron Dos mil 393 expedientes clínicos de primera vez del departamento de Rehabilitación Física; de ellos, 119 beneficiarios (7.13%) no fueron consultados en la fecha de la cita programada por causas diversas, por ejemplo, falta de medios de transporte, enfermedad concurrente, mal estado del tiempo, inasistencia del médico, etc. La distribución de los pacientes atendidos por sexo, en la población total fue de un 54.91% hombres y 45.09% mujeres

Figura 1. Distribución de pacientes atendidos por sexo.

El rango por edades, de los pacientes atendidos, oscila desde menor de 1 año hasta mayor a 66 años, distribuyéndose de la siguiente manera: menor de 1 año 5%, de 1 a 5 años 36%, de 6 a 15 años 32%, de 16 a 35 años 12%, de 36 a 65 años 12% y mayor a 66 años 3%. La Figura 2 presenta los rangos de edades, donde se observa que el 68% de la población estudiada tiene un rango de edad de 1 a 15 años.

33

Se observó que el diagnóstico más frecuente fue el retraso en el desarrollo psicomotor con 825 eventos (34.47%), de los cuales el 56.96% fueron hombres y 43.04% mujeres. Seguido por la parálisis cerebral, con 689 eventos (28.79%), de los cuales el 56.16% fueron varones y 43.84% mujeres. Considerando los eventos de parálisis cerebral, topográficamente, conforme la disminución de la fuerza motora o parálisis parcial que afecta a los miembros, se encontraron con cuadriparesia 293 personas (42.53%), de las cuales 53.92% corresponden al sexo masculino y 46.08% al sexo femenino; 154 pacientes con diparesia (22.35%), donde 54.54% son varones y 45.46% mujeres; 29 pacientes con triparesia (4.20%), 72.41% varones y 27.59% mujeres; 18 pacientes con monoparesia (2.61%), de los cuales el 61.11% son varones y 38.89% mujeres. En 105 pacientes no se especifican miembros afectados (15.24%), siendo 60% varones y 40% mujeres. Asimismo se encontraron 88 pacientes con hemiplejia (12.77%), de los cuales 49 pacientes (55.69%) la presentaron del lado derecho, 57.14% hombres y 42.86% mujeres; 39 pacientes (44.32%) en el lado izquierdo, 56.41% hombres y 43.59% mujeres. En 2 casos no se especificó el lado de afección, siendo la totalidad del sexo femenino (Figura 3, 4 y 5).

Revista Científica


Figura 3. Topográficamente.

Figura 5. Hemiplejia por sexo.

Fueron identificados 462 pacientes con discapacidad intelectual (19.30%), de los cuales 52.81% fueron varones y 47.19% mujeres. Se encontraron 86 casos de evento vascular cerebral (3.59%), 56.98% hombres y 43.02% mujeres.

Figura 4. Disminución de la fuerza motora por sexo.

Revista Científica

34


Para meningitis o meningoencefalitis, se observaron 75 casos (3.13%), 46.67% hombres y 53.33% mujeres En el trastorno por déficit de atención con y sin hiperactividad, se encontraron 74 casos (3.09%), de ellos el 60.81% fueron varones y el 39.19% mujeres. Los casos de espina bífida. meningocele y mielomeningocele encontrados fueron 66 (2.75%), de ellos el 56.06% pertenecen al sexo masculino y el 43.94% al femenino. Fueron identificados 48 pacientes con lesión medular (2.01%), siendo el 79.17% de sexo masculino y el 20.83% de sexo femenino. Se identificó que muchos de estos casos se relacionaron con herida por arma de fuego, 25 hombres y una mujer, concordante con la violencia social armada que ocurrió en Ciudad Juárez, en el periodo estudiado. Con respecto a los pacientes con síndrome de Down se encontraron 36 casos (1.50%), de los cuales el 55.55% fueron de sexo masculino y 44.45% fueron de sexo femenino (Figura 6).

´

Figura 6. Síndrome de Down. La esclerosis múltiple se presenta en 32 casos (1.33%) de los beneficiarios, siendo el 37.50% varones y 62.50% mujeres. Se detectaron 27 personas con autismo (1.13%) de las cuales el 77.73% fueron del sexo masculino y el 22.27% del sexo femenino. Trastornos cromosómicos se detectaron en 22 pacientes (0.92%) siendo 54.55% masculinos y 45.45% femeninos. Las miopatías detectadas fueron de Becker y Duchenne o no específicas y dieron un total de 16 (0.66%) siendo 75% varones y 25% mujeres. Síndrome de West diagnosticados fueron 20 pacientes (0.83%), siendo 55% de sexo masculino y 45% femenino. Síndrome de Guillian Barré se encontraron 10 pacientes (0.42%) de los cuales el 60% fueron hombres y 40% mujeres.

Se detectaron múltiples hallazgos, signos y síntomas, muchos de ellos asociados a otros padecimientos, en particular a la parálisis cerebral. Por orden de frecuencia y asociación a esta entidad clínica, se anotan en la Tabla 2, convulsiones, trastornos ortopédicos, hidrocefalia, etc. Donde se segmentaron para el analisis mil 668 expedientes del total, estando las proporciones calculadas en base a este número. 35

Revista Científica


Tabla 2. Hallazgos encontrados en los expedientes.

Discusión En este estudio descriptivo, transversal, retrospectivo y cuantitativo realizado en la población beneficiaria, que asistió a los servicios médicos de la Fundación Juárez Integra, A.C. en el periodo 2004-2009, se muestra que es una institución que está abierta a la atención de la población con algún tipo de discapacidad neuromotora, sensorial, cognitiva, de lenguaje, por lesión medular, enfermedades cromosómicas y otras. Por ello, la gran diversidad de diagnósticos encontrados. Sin embargo, al investigar en general la incidencia de las personas con discapacidad atendida, se observa que la edad infantil de 1 a 5 años es la más frecuente con un 36%. Si relacionamos esta información con lo manifestado por el INEGI, quienes auncian que de 32.6 millones de niños mexicanos, 236 mil tenían algún tipo de discapacidad, ubicados ellos en el grupo de 0 a 14 años de edad, mostrando esto que la población infantil es altamente vulnerable para la adquisición de algún tipo de discapacidad (INEGI, 2004). El diagnóstico más frecuentemente registrado fue retraso en el desarrollo psicomotor, con un 49%; sin embargo, por sí mismo, éste no es un diagnóstico congruente, ya que el retraso se puede relacionar tanto con una desnutrición alimenticia como con una privación socio-cultural o con un daño neurológico congénito o adquirido. Referencia que no puede cotejarse en este estudio por no tener en el expediente un registro orientado al diagnóstico diferencial de esta discapacidad; asimismo, en los estudios realizados por el INEGI (2004), no se reporta este diagnóstico, y aunque el referido estudio menciona que la discapacidad motriz es la más

Revista Científica

frecuente con 35.10%, esto es diferente al analisis realizado en Fundación Juárez Integra, A.C., ya que aquí ocupa el segundo lugar en diagnósticos, cuya frecuencia fue de 689 beneficiarios (41.30%), de los cuales el 56.16% fueron niños y 43.84% fueron niñas. Entre las causas etiológicas de la parálisis cerebral, en este estudio se reportan 400 casos con hipoxia neonatal (23.98%), registrándose en el hombre el 53.75% y en la mujer el 46.25%. Se observa que la hipoxia neonatal sigue siendo reportada como la causa principal de la parálisis cerebral. En otros países, se encontró que la causa de la parálisis cerebral tiene un componente genético, más detalles de estos estudios pueden ser observados en los trabajos de Freud (1897), Huges (1992), McHale (1999) y Gustavson (1969). En la parálisis cerebral la hiperbilirrubinemia se encontró en 44 casos (2.63%), de los cuales el 40.91% fueron niñas y 59.09% fueron niños, mostrando un bajo índice en la etiología de este padecimiento. Se observa que la prematurez predispone a la adquisición de una parálisis cerebral, encontrándose 166 casos (9.95%) de niños prematuros, de los cuales 58.43% de los casos fueron hombres y el 41.57% de los casos mujeres, equivalente a lo que sucede en otros lugares, como se puede observar en los estudios de Legido (2003) y Volpe (1998).

36


El INEGI (2004) encontró en segundo sitio la discapacidad intelectual en un 33.90%, mientras que en este estudio no se diagnosticó la discapacidad intelectual como tal, sólo se reporta la microcefalia en 52 casos (3.12%), padecimiento que prácticamente produce una discapacidad intelectual, desde leve hasta severa. En tercer lugar, el INEGI (2004) reporta la discapacidad visual con un 15.10% mientras que en esta investigación se encuentran 102 casos (6.12%), de los cuales el 55.88% son hombres y 44.12% mujeres, ocupando el noveno lugar. En la Fundación Juárez Integra, A.C. se encontraron 373 casos (22.36%) con trastornos de lenguaje, ocupando el tercer lugar de personas atendidas. En cuarto lugar las convulsiones, con 320 casos (19.18%). Un dato importante de señalar es que 99 niños con parálisis cerebral, al momento de nacer, requirieron incubadora (5.94%), 61.62% hombres y 38.38% mujeres. Aunque no todos los niños que pasan a la incubadora van a tener parálisis cerebral, algunos de estos niños llegarán a desarrollar esta discapacidad, ya que es considerado un factor de riesgo, debido a que los niños presentan hipoxia neonatal secundaria por diversas causas, como malformaciones congénitas, neuro-infecciones, desequilibrios hidroelectrolíticos o han presentado otros tipos de padecimientos, como la prematurez que generan sufrimiento fetal agudo y/o crónico; en los trabajos de Freud (1897), Huges (1992), Mchale (1999) y Gustavson (1969), se establece que es importante el diagnóstico oportuno y temprano para detectar al niño de riesgo e iniciar una terapia de estimulación temprana.

37

No se reportó en este estudio el tipo de parálisis cerebral, en el diagnóstico médico, dato que sería muy importante para relacionarlo con la topografía de esta discapacidad, la cual en muchos casos sí se establece como tal y con ello determinar la frecuencia de los tipos de parálisis cerebral; sin embargo, se puede inferir que las personas con trastornos neuromotores del tipo de la cuadriparesia-triparesia-diparesia-hemiparesia-monoparesia, se encuentran dentro del síndrome espástico y/o mixto. En los casos exclusivamente flácidos-coreoatetósicos-atáxicos no se les incluye dentro de la clasificación topográfica, ya que prácticamente todos se encuentran afectados de las cuatro extremidades, por lo que podríamos determinar que en este estudio se encontraron:

+ +

96% de ellos afectados por parálisis cerebral espástica.

2.63% de ellos afectados por parálisis cerebral distónica (coreoatetósica-atetósica).

+

1.37% afectados por otros tipos de parálisis cerebral.

Revista Científica


En la clasificación topográfica, tomada del total de los 689 casos de parálisis cerebral, la cuadriparesia -afectación topográfica de las cuatro extremidades- fue la más frecuente, con 293 casos (42.52%), siguiendo la diparesia –afectación topográfica de las cuatro extremidades, con predominio en miembros inferiores– que afectó a 154 personas (22.35%); en esta clasificación, debió establecerse si la afectación fue de los miembros inferiores o superiores, ya que tendría que definirse como una diparesia crural para diferenciar mayor afectación en los miembros inferiores, de la diparesia braquial, cuando existe una mayor afectación en los miembros superiores; en el diagnóstico de personas con hemiplejia –afectación topográfica de un hemicuerpo–, se reportaron 88 casos (12.77%), de las cuales 49 tenían afectación del hemicuerpo derecho (55.69%) y 39 tenían afectación del hemicuerpo izquierdo (44.31%). La triparesia –afectación topográfica de los miembros inferiores y uno de los superiores– se presentó en 29 beneficiarios (4.20%) y con monoparesia –afectación topográfica de un solo miembro– difícil de diagnosticar, por no ser tan frecuente y poder confundirse con otras entidades patológicas se detectaron 18 personas (2.61%). Weitzman (2005) presenta resultados de un estudio con 896 beneficiarios reportados, con edades de 4 meses a 21 años, promedio 7 años de edad, donde se encontró a 239 con cuadriplejia (26.67%), 190 con hemiplejia (21.20%) y diplejía en 186 (20.76%) resultados que, comparados con los nuestros, muestran que si bien la cuadriplejia es la más frecuente, su porcentaje es mucho más alto. Asimismo, Weitzman (2005) encuentra muy poca diferencia entre hemiplejia y diplejía, en tanto que en el estudio de Fundación Juárez Integra, A.C., es más frecuente la paraplejia (22.35%) que la hemiplejia y el porcentaje diferencial se ubica casi al doble (12.77%).

En cuanto a las complicaciones músculoesqueléticas más frecuentes en niños con parálisis cerebral se encontraron (considerando un total de mil 668 expedientes):

+

187 casos de pie equino (11.21%).

+

109 casos de pie plano (6.53%).

+

84 casos de luxación de cadera (5.04%).

+

79 casos de cifosis (4.74%).

+

73 casos de escoliosis (4.38%).

En este estudio no hubo diferenciación entre las complicaciones músculoesqueléticas que se dan en la parálisis cerebral espástica, coreoatetósica, atáxica y personas con defectos posturales. Sólo se hizo énfasis en la descripción de las complicaciones músculoesqueléticas, independientemente del defecto postural, requiriendo definirse en próximos estudios la incidencia de estos trastornos en el tipo de parálisis cerebral (Weitzman 2005). En relación a niños con cirugía ortopédica y parálisis cerebral, se encontraron 130 (7.79%) personas de los mil 668 expedientes, a las que se les realizó una intervención quirúrgica, requiriendo determinarse en otros estudios en qué tipo de parálisis cerebral se realizó la intervención quirúrgica, la región tratada y los resultados obtenidos, ya que es frecuente que estas personas vuelvan a readquirir las complicaciones músculoesqueléticas por las que se realizó la cirugía ortopédica, al no recibir y mantener el tratamiento de rehabilitación integral.

Las personas con cuadriparesia son las que tienen mayor afectación corporal, ya que los padres de familia los llevan a este centro de atención muy tardíamente, son las que requerirán de un diagnóstico y tratamiento integral desde el momento en que son ingresadas, ya que la historia de estas personas es la de ser rechazados y abandonados por no saber cómo atenderlos y tratarlos integralmente. Por ello, Fundación Juárez Integra, A.C. propone darles una terapia integral sin importar el grado de afectación topográfica y el grado de severidad –afectación– que tengan, proponiendo a la comunidad médica de esta región que se realice un diagnóstico temprano y/o tardío para evitar o disminuir las complicaciones musculo-esqueléticas, que les permita adquirir una mejor calidad de vida.

Revista Científica

38


Es importante también definir si hubo seguimiento postquirúrgico, uso de órtesis, terapia física, ocupacional, tiempos y ciclos de tratamiento, dado que es frecuente que estas personas no reciban un tratamiento postquirúrgico adecuado, factores facilitadores para la readquisición de contracturas y deformidades. Se registraron 101 casos (6.06%) con estrabismo, de los cuales no se especificó en el diagnóstico médico si se encontraban en el ojo derecho o izquierdo, con exotropía o endotropía. Siendo más alta la incidencia en los niños (56.44%) que en las niñas (43.56%). Aunque también es necesario determinar en qué tipo de parálisis cerebral se presentaron estos trastornos neuromotores, lo cual es recomendado por Fenichel (2006). Con nistagmus se reportaron 12 casos (0.72%), sin especificar en qué tipo de trastorno visual se presentó esta complicación, si fue en personas con parálisis cerebral y/o con ceguera exclusivamente. Poo (2008), señala que la tetraplejía espástica es la más grave y que la diplejía espástica es la más frecuente, no siendo así en los resultados del presente estudio. Menciona que la causa perinatal es del 60% al 70%, que hay epilepsia en el 70% de los casos de tetraplejía y sólo en 20% en la diplejía, en tanto que en el presente estudio se encuentra la epilepsia asociada a parálisis cerebral en 198 beneficiarios de un total de 320, lo que nos da un 61.87%, es decir dos de cada tres; detecta como complicaciones las contracturas, luxación de cadera, escoliosis y osteoporosis, en tanto que en esta investigación, se encontraron las contracturas, luxación de cadera y la escoliosis, pero además, la cifosis, trastornos posturales, pie equino, pie plano y estrabismo. Reporta, asimismo, trastornos sensoriales visuales en 50% y auditivos en 20% de sus casos, siendo los hallazgos en Fundación Juárez Integra, A.C., 65 casos de trastornos visuales, de un total de 102 casos asociados a parálisis cerebral (63.72%) y los auditivos en 42 casos, de un total de 61 (68.85%) que en ambos casos es mayor la incidencia. Poo (2008) establece que el rendimiento cognitivo oscila desde lo normal y que entre 50% y 70% de sus casos hubo retraso mental severo, en contraparte en el presente estudio, hubo 462 casos de discapacidad intelectual pero no se obtuvo el porcentaje en que se asoció a parálisis cerebral. En relación a comunicación y lenguaje Poo (2008) encontró que fueron más comunes en la parálisis cerebral discinética y este estudio detectó 373 casos con trastornos del lenguaje, 198 de ellos asociados a parálisis cerebral (53.08%). Otros autores, consideran por su localización y frecuencia como manifestaciones mayores de la parálisis cerebral: la parálisis espástica, la discapacidad intelectual, la epilepsia, la parálisis atáxica y las formas mixtas; como manifestaciones menores: los defectos visuales, disminución de la audición, defectos del lenguaje, hiperquinesia, falta de atención, alteraciones del sueño, dificultad en el aprenidizaje y memoria (Ayulo, 1991), todo lo anterior fue detectado en el presente estudio, salvo los trastornos del sueño, el déficit de memoria y por frecuencia parecen corresponder con lo señalado.

39

En cuanto al trastorno por déficit de atención con y sin hiperactividad, Pineda y Martínez (2008) reportan prevalencia del 17.10%, siendo la proporción por tipos de 9.40% combinado, 6.70% inatento y 1.00% hiperkinéticoimpulsivo, presentándose con mayor frecuencia en los hombres. Por escolaridad con sexto grado de primaria, se reporta una prevalencia del 15.70% con trastorno por déficit de atención y 11.40% con trastorno por déficit de atención con hiperactividad. En el caso del análisis realizado en Fundación Juárez Integra, A.C. se encontraron 74 casos de trastorno por déficit de atención con hiperactividad, de ellos 22 tenían el trastorno por déficit de atención, igual número de hombres y mujeres, 52 eran hiperactivos, 65.38% hombres y 34.62% mujeres, lo que hace un promedio de 2.37 varones afectados por cada mujer, lo anterior coincide con lo reportado en la literatura especializada. Peña y Oloqui (2008) realizaron un estudio sobre parálisis cerebral y toxina botulínica, mencionan que tuvieron resultados positivos en el 70% de los casos y efectos adversos leves en 13.10%, el estudio concluye que la atención temprana con esa sustancia se percibe con alta satisfacción tanto de padres, de niños y de profesionales que emplean ese tratamiento, en el caso del estudio realizado en Fundación Juárez Integra, A.C., algunos casos fueron tratados con toxina botulínica tipo A, pero fue mero hallazgo de la investigación y no se tiene evidencia de un empleo sistemático.

Revista Científica


Conclusiones Después de realizar este estudio, se obtuvo información importante para continuar con la detección y tratamiento temprano de personas con parálisis cerebral y otros tipos de discapacidades, siendo necesario ampliar el registro del expediente para determinar los tipos de parálisis cerebral, sus complicaciones, el grado de severidad, el tiempo de estancia en la Fundación, sus resultados y altas, así como otra información pertinente. La Fundación Juárez Integra, A.C., ante la necesidad de establecer una intervención terapéutica que beneficiará a la población con discapacidad neuromotora de Ciudad Juárez, creó un modelo de intervención terapéutico que denomina Rehabilitación Integral con características sui generis, consistente en diagnosticar por el médico especialista en rehabilitación física lo más tempranamente posible a las personas con parálisis cerebral, en un segundo tiempo, elaborar un plan terapéutico con objetivos específicos en la recuperación funcional de estas personas. Para ello, se diseña un programa individual el cual es dirigido al terapeuta físico que asiste y trabaja en la Fundación. Como se sabe, la persona con esta discapacidad, frecuentemente, no recibe la atención en el lugar, por lo que se decidió integrar a los padres de familia en esta formación terapéutica para que participe en la elaboración del ejercicio y trabajo diario tanto en el hogar como en las instalaciones de la Fundación, bajo la supervisión del terapeuta físico. Recomendándose una re-evaluación periódica en la que se ajustan los procedimientos terapéuticos y las metas a alcanzar por el médico especialista en rehabilitación física. Con este método de intervención terapéutica se mantiene un estado de alerta familiar e institucional acerca de las limitaciones, estado y progreso de la persona en rehabilitación. Este procedimiento no se limita exclusivamente a las personas con parálisis cerebral sino que se hace extensivo a aquellas discapacidades músculoesqueléticas que requieren atención especializada de rehabilitación física. Durante el proceso de revisión de expedientes de los usuarios con discapacidades múltiples, en el lapso del 2004-2009, se encontró, en el aspecto del tratamiento, que en algunos de ellos la aplicación de la toxina botulínica tipo A de 500u formaba parte del procedimiento terapéutico integral, que sin embargo, al no haberse practicado en todos, los casos se señalan como un hallazgo y en un estudio futuro se documentará lo pertinente en todos los casos tratados con este tipo de toxina botulínica.

Revista Científica

40


Bibliografía

+

Anexo CIE-10. Capítulo VI: Enfermedades del sistema nervioso; 9 (G70-G83) Parálisis cerebral y otros síndromes paralíticos

+

Little Club (1959). Memorandum terminology and classification of cerebral palsy (Mac Keit R, et al. editors). Cereb Palsy Bull. 1: 27-35. vía aérea. Edición 2008 – 2009.

+

Little, W.J. (1862). On the incidence of abnormal parturition, difficult labor, premature birth and asphyxia neonatorum on the mental and physical condition of the chold, especially in relation to deformities. Transactions of the Obstetrical society of London. 3: 293-344.

+

Freud, S. (1897). Die Infantile Cerebrallahmung. In: Nothnagel H, editor. Specielle Pathologie und Therapie. Bd IX, Teil III Vienna Holder. Pp 1-327.

+

Legido, A. y Katsetos, C.D. (2003). Cerebral Palsy: New pathogenetic concepts. Rev. Neurol. 36:157-65.

+

Sanger, T.D.; Delgado, M.R.; Gaebler-Spira, D.; Hallett, M. y Mink, J.W. (2003). Classification and definition of disorders causing hypertonia in childhood pediatrics. 111:e89-e97.

+

Delgado, M.R. y Leland, A. (2003). Movement Disorders in Children: Definitions, Classifications and Grading Systems. Journal of Child Neurol. 8:S1–S8.

+

Instituto Nacional de Estadística y Geografía (2000). Clasificación de Tipo de Disca-

41

pacidad. XII Censo General de Población y Vivienda 2000. Grupo 2-Discapacidades motrices: Subgrupo 210, Subgrupo 220, Subgrupo 299; Grupo 4-Discapacidades Múltiples y Otras: Subgrupo 401-422, Subgrupo 430, Subgrupo 499..

+

Volpe, J. (1998). Neurologic outcome of prematurity. Arch NeuroI. 55(3):297–300.

+

Weisglas–Kruperus, N.; Uleman–Vleeschdrager y Baerts, W. (1987). Ventricular hemorrhages and hipox–ischaemic lesions in preterm infant: neurodevelopmental outcome at 31/2 years. Devel Med Child Neurology. 29:623–629..

+

Weisglas–Kruperus, N.; Baerts, W., Smrkovsky, M. y Sauer, P. (1993). Effects of biological an social factors on the cognitive development of very low birth weight children. Pediatrics 92(5):658–665.

+

Bax, M.; Goldstein, M.; Rosenbaum, P.; Leviton, A.; Paneth, N.; Dan, B.; Jacobsson B. y Damiano, D. (2005). Proposed definition and classification of cerebral palsy. Developmental Medicine and Child Neurology. 47:571–576.

+

Hughes, I. y Newton, R. (1992). Genetic aspects of cerebral palsy. Dev Med Child Neurol. 34:806.

+

McHale, D.P.; Mitchell, S.; Bundey, L.; Moynihan, D.A.; Campbell, D.A. y Woods, C.G. (1999). A gene for autosomal recessive symmetrical spastic cerebral palsy maps to chromosome 2q2425. Am J Hum Genet. 64:S2632.

+

Gustavson M.L.; Hagberg, H.B. y Sanner, G. (1969).

Identical syndromes of cerebral palsy in the same family. Acta Paediatr Scand. 58:33040.

+

+

Fenichel, G.M. (2006). Neurología pediátrica clínica. Capítulo 14. Pp. 281-282. 5ta Edición. Editorial Elsevier Saunders.

+

Fenichel, G.M. (2006). Neurología pediátrica clínica. Capítulo 12. Pp. 269-270. 5ta Edición. Editorial Elsevier Saunders.

+

Fenichel, .,M. (2006). Neurología pediátrica clínica. Capítulo 15. Pp. 299-300. 5ta Edición. Editorial Elsevier Saunders.

+

Murray, John (1996). Psycholopathologycal aspects of autistic disorders: Overview. The Journal of Psychology. 130:146154.

Legido, A.; Clancy, R.R. y Berman, P.H. (1991). Neurologic outcome after EEG proven neonatal seizures. Pediatrics. 88:58396. Du Plessis, A.J. y Volpe, J.J. (2002). Perinatal brain injury in the preterm and term newborn. Curr Op Neurol. 15:1517. Greisen G, Vannucci RC. Is periventricular leukomalacia a result of Hypoxicischaemic injury? Biol Neonate 2001; 79: 194200. Volpe, J. (2000). Perinatal Hypoxic–Ischemic. In Neurology of the Newbom. Saunders 40 Ed. Pp 265–318.

+

Rivkin, M. y Volpe, J. (1993). Hipoxic–Ischemic Brain Injury in the Newbom. Seminars in Newbom. 113 (1):30–39.

+

HiII, A. y Volpe, J. (1989). Perinatal asphyxia. clinical aspect. neonatal neurology. Clinics in Perinatology. 16(2):435–457.

+

Levitt, Sophie (2002). Tratamiento de la parálisis cerebral y del retraso motor. 3era Edición. Ed. Panamericana. Pp 8-10.

+

Arteaga, R.A. y Hernández, S.J. (2010). Comunicación personal.

+

Fenichel, G.M. (2006). Neurología pediátrica clínica. Capítulo 18. Pp. 363-364. 5ta Edición. Editorial Elsevier Saunders.

+ + + +

Encuesta Nacional de Personas con Discapacidad (2001).

+

Clasificación Internacional de Deficiencias, Discapacidades y Minusvalías (CIDDM). Organización Mundial de la Salud.

+

Clasificación Internacional del Funcionamiento, de la Discapacidad y de la Salud (2001). Organización Mundial de la Salud.

+

Solsona, Montse y Viciana, Francisco (2004). Claves en la evolución demográfica en el cambio de milenio. Gaceta Sanitaria. 18:8-15.

+

Weitzman, Mariana (2005). Terapias de Rehabilitación en niños con o en riesgo de Parálisis Cerebral. Revista Pediatría Electrónica [En línea]. 271:47-52.

Revista Científica


+

Poo Arguelles, Pilar (2008). Neurología Pediátrica, en Parálisis Cerebral Infantil. Asociación Española de Pediatría. [Libro en línea] Cap. 36. Pp 272-277.

+

Hernando, R. y Ayulo, V. (1991). Parálisis Cerebral Infantil. Estado actual y posibilidades futuras de tratamiento. Salud Pública Mexicana. 33:184-189.

+

Pineda Ortiz, L.E y Martínez León, N.C. (2008). Psychologia. Avances de la disciplina. 2: 111-150.

+

Peña-Segura, J.L. y Marco-Oloqui, M. (2008). Atención temprana y toxina botulínica. Nuestra experiencia en el siglo XXI. Revista Neurol. (Supl 1):s25-s33.

Revista Científica

42


43

Revista CientĂ­fica


A P L I C AC I Ó N D E R E CO C I D O S I M U L A D O CO N R E S T R I CC I O N E S A L A

ADMINISTRACIÓN DE PORTAFOLIOS

DE INVERSIÓN

M.C. Sergio Muñoz González1, Dr. César Saldaña Carro2, M.A. Julio César Becerra Díaz3 y M.F. Héctor Martín del Campo Villegas4

1,2,3,4 Universidad Politécnica de Tlaxcala, Avenida Universidad Politécnica de Tlaxcala No. 1, San Pedro Xalcaltzinco, Tepeyanco Tlaxcala, Tlaxcala, México, C.P. 90180.

Enviado: 2 9 de octubre de 2015 Aceptado: 9 de diciembre de 2015

sergio.munoz@uptlax.edu.mx

Resumen: En el campo de la optimización, ha tenido gran aceptación la optimización heurística y su aplicación a diferentes áreas del conocimiento. Una de las herramientas más útiles, por su fácil aplicación, es el método de Recocido Simulado (SA, Simulated Annealing); sin embargo, el Recocido Simulado sólo se aplicaba a optimizar funciones sin restricciones, hasta que hace unos años se han desarrollado algoritmos, los cuales ya incluyen la optimización de funciones con restricciones. Por tal motivo, se presenta la aplicación de Recocido Simulado con Restricciones (CSA, Constrained Simulated Annealing) a la administración de portafolios de inversión utilizando la teoría moderna de portafolios de inversión dada por el modelo de Markowitz.

+

Palabras clave: Optimización, recocido simulado, recocido simulados con restricciones, portafolios de inversión y Markowitz.

A b s t r a c t : In the optimization field heuristic optimization and its application to different knowledge fields has been widely accepted. One of the most useful tools, for its easy application is the method of Simulated Annealing (SA), however SA only was applied to optimize functions without restrictions, until a few years ago, some algorithms have been developed which already consider the optimization of functions with restrictions, for the above mentioned the application of Constrained Simulated Annealing (CSA) is presented to the managing investment portfolios using the modern investment portfolio theory given by the model of Markowitz.

+ Revista Científica

Keywords: Optimization, simulated annealing, constrained simulated annealing, investment portfolio and Markowitz.

44


Introducción Los portafolios de inversión ofrecen la posibilidad de invertir en la bolsa de valores una vez que se conocen los rendimientos de cada una de las empresas que componen el portafolio en un tiempo determinado, de esta manera los históricos se utilizan para establecer el porcentaje de dinero a invertir en cada empresa del portafolio, existen infinidad de formas de hacer tal inversión, pero en 1950 Harry Markowitz en su trabajo llamado Análisis de Varianza Media, dio inicio a la teoría moderna de portafolios de inversión (Svetlozar y Rachev, 2008), donde se plantean dos problemas de optimización que permiten administrar un portafolio de inversión bajo los siguientes criterios:

+ De todos los posibles portafolios con una cota inferior en el retorno de la inversión, se encuentra aquel con el mínimo riesgo; es decir, se maximiza la diversificación del portafolio. + De todos los posibles portafolios con una cota superior para el riesgo (a un nivel de diversificación), se encuentra aquel con un retorno de la inversión máximo. Ambos problemas se consideran estacionarios, ya que sólo toman en cuenta la información generada hasta el momento; sin embargo, continuamente el mercado está variando, proporcionando nueva información del valor de los activos financieros, por ende se debe resolver nuevamente el problema para actualizarlo de manera dinámica. El Recocido Simulado es una herramienta que ha dado buenos resultados para resolver problemas de optimización multiobjetivo no lineal sin restricciones. En la última década se han hecho esfuerzos por desarrollar algoritmos de Recocido Simulado que resuelvan problemas con restricciones, en particular se considera el algoritmo Recocido Simulado con Restricciones, desarrollado por Wah (2007) para aplicarlo en la administración de portafolios de inversión y de esta forma maximizar el beneficio, minimizando el riesgo de la inversión (Tsuzuki, 2012). La forma como funciona el Recocido Simulado con Restricciones es idéntica al Recocido Simulado, sólo que las restricciones se incorporan a la función objetivo utilizando multiplicadores de Lagrange (Nocedal, 1999) haciendo así una función objetivo más grande, con la desventaja de que los multiplicadores de Lagrange aumentan el número de variables del problema; sin embargo, el método de Markowitz sólo considera dos restricciones lo cual no complica mucho el problema. Para validar los resultados obtenidos por el Recocido Simulado con Restricciones, se comparan con los resultados dados por la herramienta de optimización Solver de Excel, ya que es muy común su uso en la solución de este tipo de problemas, además que es de fácil acceso y está disponible en cualquier computadora con MS Office.

45

Revista Científica


Teoría Moderna de Portafolios de Inversión Una vez que se tiene establecido las “n empresas que conforman el portafolio de inversión, por ejemplo, al considerar aquellas empresas que tienen rendimientos anormales positivos en el intervalo de tiempo considerado (Rasmussen, 2003), es decir, las empresas que tienen rendimientos por encima del mercado, se consideran sus rendimientos R1,R2,…,Rn que al ser variables aleatorias cada rendimiento tienen un valor esperado E (Ri ) = μi y como variables del problema de optimización se tiene a los porcentajes de inversión w1,w2,…,wn, entonces el rendimiento esperado del tiene un valor esperado dado por la ecuación (1). portafolio

Donde μ es el vector de los valores esperados de los rendimientos y e es el vector donde todas sus entradas es uno. El segundo problema se plantea como: de todos los posibles portafolios con un valor máximo establecido para el riesgo R*, se encuentra aquel con un retorno de la inversión máximo. (5)

Cualquiera de los dos problemas planteado implica la optimización de una función con restricciones. (1)

Metodología El riesgo, por otro lado, está definido como la varianza de los retornos de inversión. (2)

Multiplicadores de Lagrange El método del Recocido Simulado con Restricciones es una extensión del Recocido Simulado (Kirkpatrick, 1983) ya que incorpora las restricciones impuestas a la función objetivo mediante el uso de multiplicadores de Lagrange (λ) utilizando estrategias bien definidas. De forma general se considera el siguiente problema con restricciones de desigualdad mostrado en la ecuación (6).

La cual se puede reescribir como la ecuación (3).

(3)

Donde, w es el vector de los porcentajes de inversión o pesos, w’ es su transpuesta y Σ es la matriz de covarianzas de los retornos de inversión (Rasmussen, 2003). Los porcentajes de inversión deben cumplir la condición w1+w2+…+ wn= 1 ya que el total de la inversión debe ser igual al dinero que se tiene disponible para invertir. Así en la teoría moderna de portafolios de inversión, se consideran dos variables importantes, el rendimiento y el riesgo, de donde se desprenden los dos problemas a optimizar. El primero es aquel que de todos los posibles portafolios con un retorno de la inversión R* mínimo establecido, se encuentra aquel que implique el menor riesgo.

(6)

Donde cada restricción de (6) se pasa a una de igualdad utilizando la función valor máximo como se muestra en la ecuación (7).

(7)

Y al final cada una de las restricciones se integran a la función objetivo utilizando multiplicadores de Lagrange definiendo con ello una nueva función objetivo (Wang, 2001).

(4)

(8)

Revista Científica

46


Consideremos primero la ecuación (4) donde se minimiza el riesgo dado un retorno de la inversión mínimo. La restricción se puede transformar en una restricción de igualdad al utilizar la función valor máximo quedando , así todas las restricciones son ahora restricciones de igualdad excepto la última que tiene que ver con los pesos positivos, pero en la implementación del recocido Simulado con Restricciones se consideran dentro de un intervalo determinado. Entonces para la ecuación (4) se tiene el siguiente problema de optimización acorde a la ecuación (8).

enfriamiento 0 < α < 1.

4 Escoger NT (número de evaluaciones antes del cambio de temperatura). 5

While la condición de paro no es satisfecha do.

6

For k=1 to NT do.

7

Por diez veces generar un nuevo punto y’ usando g(yk,T).

8

Aceptar y’ con probabilidad AT (y,y’).

9

Generar un nuevo punto λ’ usando g (λk,T).

(9)

10 Aceptar λ’ con probabilidad AT (λ,λ’). De manera similar se incluye las restricciones del problema (5) en la función objetivo dando como resultado la ecuación (10).

(10)

Las ecuaciones (9) y (10) son las funciones generalizadas de Lagrange (Nocedal, 1999) y son los problemas de optimización de portafolios de inversión que se resuelven mediante el Recocido Simulado con Restricciones.

Recocido Simulado con Restricciones De manera general el algoritmo está compuesto por dos procesos de optimización, en el primero se minimiza la función objetivo en función del vector de variables w y en el segundo se maximiza la función objetivo con respecto a los multiplicadores de Lagrange (λ), se hace una diferencia entre ambos procesos debido a que estos se perturban una vez, por diez que se perturba w. Una vez que todos los parámetros y multiplicadores de Lagrange han sido perturbados y se ha generado un nuevo vector solución, el sistema es enfriado (la temperatura disminuye) y este modelo es introducido nuevamente al algoritmo hasta que se cumpla algún criterio para terminar el proceso. El proceso del Recocido Simulado con Restricciones fue propuesto por Wah (2007) y está definido en el siguiente algoritmo: 1 Procedimiento del Recocido Simulado con Restricciones. 2 Inicializa un punto inicial y=(y0,λ0). 3 47

11

End for.

12

Reducir la temperatura T=α×T.

13

End while.

14

Fin procedimiento.

El algoritmo del Recocido Simulado con Restricciones presentado esta diseñado para minimizar funciones, en el caso de (5) sólo se multiplica la función objetivo por menos uno y se puede utilizar el mismo algoritmo, es importante decir que el Recocido Simulado con Restricciones está compuesto de dos procesos importantes uno de minimización en las variables w y otro de maximización en los multiplicadores de Lagrange (λ). En el proceso del algoritmo del Recocido Simulado con Restricciones se debe perturbar la solución para generar una nueva, la cual puede ser aceptada o rechazada, se podría generar una solución de forma aleatoria en todo el espacio de búsqueda, pero eso no sería del todo eficiente y se propone cotas dinámicas que expanden o contraen el espacio donde se genera una nueva solución dentro del espacio de búsqueda general.

(11)

Mediante la ecuación (11) se genera un nuevo punto al variar cada una de los componentes del vector de variables y el de parámetros, donde θi se distribuye uniformemente en el intervalo [-σi,σi ] (Corona, 1987) y ηi en [ -ϕj,ϕj ] (Wah, 2007), los cuales se modifican dinámicamente antes de cada cambio de temperatura mediante la ecuación (12).

Inicializa una temperatura inicial T=T0 y un rango de Revista Científica


(12)

Para la primera parte de (12) se consideran los siguientes valores: β0=2, β1=2, Pu=0.6, Pv=2 y Pi es la razón entre los rechazados y los aceptados en cada cambio de temperatura. En el caso de ϕ, qj se calcula mediante (13) donde ϕj se ajusta al modificar qj de acuerdo a que tan rápido cambia h(y)j con respecto a T.

(13)

Donde h1=max (R*-w∙μ,0) y h2=w∙e-1, que son las restricciones de igualdad en el problema (4), en el caso del problema (5) h1=max (w’ Σw-R*,0) y h2=w∙e-1.

Resultados Se aplica el Recocido Simulado con Restricciones a los precios históricos de trece años de las acciones de ocho empresas que cotizan en la Bolsa Mexicana de Valores, tomando los rendimientos mensuales como el incremento de sus precios con respecto al precio anterior, se calcula la media de los rendimientos y la matriz de covarianzas de los mismos como datos de entrada del algoritmo, cabe señalar que se restringe el monto máximo a invertir en cada empresa al 70% por lo que los pesos se consideran en el intervalo de [0,0.7] y de esta manera propiciar una mayor diversificación. El algoritmo del Recocido Simulado con Restricciones es comparado con el método llamado evolutivo que se incluye en Solver de Excel. Para el problema (4) de minimizar el riesgo dado un rendimiento fijo, el problema tiene solución para rendimientos menores al 4% mensual de acuerdo a los rendimientos de las empresas, es decir, el portafolio puede a lo más brindar el 4% de rendimiento a diferentes valores de riesgo.

Los parámetros que se consideran en (13) son: η0=1.25, η1=0.8, τ0=1.0 y τ1=0.01 (Wang, 2001).

(14)

Si definimos δ(w)=L(w’,λ) - L(w,λ) y δ(w)=L(w,λ’) - L(w,λ), cualquier nuevo punto que no minimice o maximice la función objetivo según sea el caso, deberá aceptarse de acuerdo a la probabilidad que se muestra en (12) que se conoce como regla clásica o criterio de metrópolis (Kirkpatrick, 1983). Por último, para definir el número de iteraciones antes de cada cambio de temperatura se utiliza la regla NT= max (100,5*(10*n + m)), donde n es el número de variables y m es el número de multiplicadores de Lagrage que en este caso son dos (Corona, 1987).

Figura 1: Comparación del rendimiento contra riesgo, de los resultados obtenido por Recocido Simulado con Restricciones y Excel Solver, para el problema de minimizar el riesgo a un nivel de rendimiento dado.

Revista Científica

48


En la Figura 1 se muestra el rendimiento y el riesgo dado por el Recocido Simulado con Restricciones y por Excel Solver para diferentes corridas al 4% de rendimiento fijo. Se observa que el Recocido Simulado con Restricciones es un método más estable en ambos aspectos, puesto que tiene un coeficiente de variación (CV) del 1.81% en el rendimiento y en el riesgo del 9.55%; que en comparación con Excel Solver, el coeficiente de variación es del 9.18% para el rendimiento y de 36.15% en el riesgo. Si consideramos el promedio del rendimiento ambos cumplen con la cota para éste, el Recocido Simulado con Restricciones tiene en promedio 0.0406 mientras que Excel Solver de 0.0434, lo que representa un incremento del 6.88% de rendimiento para Excel Solver en comparación con el Recocido Simulado con Restricciones; por otro lado al considerar el riesgo Excel Solver en promedio estima el riesgo en 0.0306, que es 41.68% más del riesgo promedio de 0.0216 obtenido por el Recocido Simulado con Restricciones. Es razonable pensar que a mayor rendimiento se tiene un mayor riesgo, pero el incremento en el rendimiento promedio entre ambos métodos de 6.88% no se compara con el incremento del 41.68% en el riesgo, por lo que Excel Solver estima mejores rendimientos pero con mucho mayor riesgo. Para el problema de optimización (5) donde se maximiza el retorno de la inversión dado un riesgo fijo, el valor mínimo de riesgo de acuerdo a los históricos de los rendimientos para el cual se puede tener una solución factible es del 1.7%. En este caso se hicieron diferentes corridas considerando un riesgo fijo del 8%. En la Figura 2 se puede apreciar que el Recocido Simulado con Restricciones es también en este caso un método más estable puesto que el coeficiente de variación para el rendimiento es del 0.06% y 0.25% para el riesgo, los cuales son pequeños en comparación con el coeficiente de variación del 3.97% y 21.93% de Excel Solver, lo que representa variaciones significativas de un poco más del 60% para Excel Solver contra el Recocido Simulado con Restricciones. Por otro lado el Recocido Simulado con Restricciones estima en promedio un riesgo del 0.0451 y un rendimiento del 0.0486, que al compararlo con Excel Solver, que en promedio estima un riesgo del 0.0234 y un rendimiento del 0.0361 provee así resultados totalmente diferentes, sin embargo, el recocido simulado con Restricciones tiene un incremento del 92.4% con respecto a Excel Solver en el riesgo y 34.62% en el rendimiento, implicando que Excel Solver tiene un mejor rendimiento conforme al riesgo estimado, se puede observar en la Figura 2 que el rendimiento es similar al riesgo en cantidad para el Recocido Simulado con Restricciones pero el rendimiento en Excel Solver es mayor que el riesgo.

Figura 2: Comparación del rendimiento contra riesgo de los resultados obtenido por Recocido Simulado con Restricciones y Excel Solver, para el problema de maximizar el rendimiento dado un nivel de riesgo fijo.

49

Revista Científica


Conclusiones Como anteriormente se observó, el Recocido Simulado con Restricciones es un método más estable en las soluciones que Excel Solver, en general ambos cumplen con la optimización de la función objetivo acorde a las restricciones establecidas; sin embargo, el Recocido Simulado con Restricciones muestra un mejor desempeño al resolver el problema (4) ya que el nivel de riesgo calculado, aproximadamente del 2%, da rendimientos estables, alrededor del 4%, mientras que Excel Solver en algunos casos calcula un riesgo del 4% con rendimientos del 4.8%. Recordemos que lo importante en este caso es minimizar el riesgo lo cual hace mejor el Recocido Simulado con Restricciones. Caso contrario sucede con el problema (5), el Recocido Simulado con Restricciones estima niveles de riesgo y rendimiento similares, alrededor del 4.5%, lo que no sucede con Excel Solver, que calcula rendimientos alrededor del 3.5% con riesgo aproximado de 2.2%, demostrando que Excel Solver tiene mejor desempeño que el Recocido Simulado con Restricciones en el sentido de inversión puesto que Excel Solver da mejores rendimientos en comparación con el riesgo. En este caso el problema es maximizar los rendimientos, dando el Recocido Simulado con Restricciones mejores resultados pero con el inconveniente que presenta un nivel de riesgo alto. Ambos algoritmos cumplen con las restricciones y resuelven los problemas planteados, sin embargo el Recocido Simulado con Restricciones es más confiable en sus soluciones, es decir, no cambian bruscamente conforme se cambian las condiciones iniciales, caso que no ocurre con Excel Solver. Acorde a los resultados, el Recocido Simulado con Restricciones es un mejor algoritmo si la intención es resolver el problema de minimizar riesgo dado un rendimiento fijo y Excel Solver es mejor para resolver el problema de maximizar el rendimiento dado un riesgo fijo.

Revista Científica

50


Bibliografía

ger Verlag. ISBN # 0387303030.

+

Kirkpatrick, G. C. (1983). Optimization by Simulated Annealing. Science, 220(4598), 671-680. ISSN # 0036-8075.

Corona, M. M. (1987). Minimizing Multimodal Functions of Continuous Variables with the “Simulated Annealing” Algorithm. ACM Transactions on Mathematical Software, 13(3), 262-280. ISSN # 0098-3500

+

Wah, B.W. (2007). Simulated annealing with asymptotic convergence for nonlinear constrained optimization. Journal of Global Optimization, 39(1), 1-37. ISSN # 0925-5001.

+

Nocedal, S.W. (1999). Numerical Optimization. Sprin-

51

+ +

Ingber, L. (1989). Very fast simulated re-annealing. Journal of mathematical and computer modelling. 12(8), 967973. ISSN # 0895-7177..

+

Maringger Dietmar. (2005). Portfolio Management with Heuristic Optimization. Netherlands: Springer. ISBN # 0-387-25852-3.

+

Amenc, V. L. (2003). Portfolio Theory and Performance Analysis. England: Wiley. ISBN # 0-470-85874-5.

+

Rasmussen, M. (2003). Quantitative Portfolio Optimization, Asset Allocation and Risk Managenment. New York, United States of America: Palgrave Macmillan. ISBN # 1-40390458-8.

+

Svetlozar, T. y Rachev, S.V. (2008). Advanced Stochastic Models, Risk Assessment, and Portfolio Optimization. New Jersey, United States of America: John Wiley & Sons. ISBN # 047005316X.

+

Tsuzuki, M. D. (2012). Simulated Annealing Advances, Applications and Hybridizations. Rijeka, Croatia: InTech. ISBN # 978-953-51-0710-1.

+

Wang, T. (2001). Global Optimization for Constrained Nonlinear Programing. Illinois, United States of America: Urbana Illinois Thesis.

+

Brun, M. M. (2008). Análisis y Selección de Inversiones en Mercados Financieros. Barcelona: Bresca Editorial. ISBN # 9788496998759.

Revista Científica


S I S T E M A PA R A L A

MANIPULACIÓN SIN TACTO D E D O C U M E N TO S M É D I CO S : K I N E C T H O S P I TA L A R I O

Dra. Rocío Arceo Díaz1, Ing. Carlos Roberto Esquivel Briceño2, Ing. Ismael Agustín Silva Dzib3 y Dr. Mariano Xiu Chan4

Universidad Tecnológica de Cancún, Carretera Cancún-Aeropuerto, Km. 11.5, S.M. 299, Mz. 5 Lt. 1, tel. 998 881 19 00, ext. 1260 1,3

Centro de investigación en computación del IPN Av. Juan de Dios Batiz, Esq. Miguel Othón de Mendizábal S/N, Nueva Industrial Vallejo, Gustavo A. Madero, 07738, tel 55 57 29 6000 Ciudad de México, D.F 2

Universidad Politécnica de Quintana Roo Av. Arco Bicentenario, Mza. 11, Lote 1119-33, Sm 255, 77500 Cancún, Q.R. 4

Enviado: 29 de octubre de 2015 Aceptado: 1 de diciembre de 2015

rarceo@utcancun.edu.mx a150179@sagitario.cic.ipn.mx isilva@utcancun.edu.mx chuleenmx@gmail.com

Revista Científica

R e s u m e n : El sistema Kinect Hospitalario brinda una alternativa para que el personal que labora en los quirófanos pueda visualizar, manipular y acceder a información del paciente mediante la tecnología Kinect y software especializado, la cual captura los movimientos del usuario y los traduce en acciones dentro del sistema. El sistema Kinect Hospitalario tiene la capacidad de conectar al sistema administrativo del hospital y así obtener la información del paciente, la cual puede ser su historial, estudios realizados e imagenología. La metodología utilizada en el proyecto fue el prototipado evolutivo, ya que durante el ciclo de vida del proyecto, las tecnologías que se usaron no estaban liberadas por lo que se fueron analizando y aplicando conforme se estudiaban y salían al mercado. Como resultado obtenido, se logró utilizar la plataforma Kinect 2.0 en conjunto con el framework.net para Windows 8.1, el cual permitió ejecutar acciones del sistema sin tacto y con comandos de voz.

+

Palabras clave: Kinect, manipulación sin tacto, prototipado evolutivo y control por voz.

A b s t r a c t : Kinect hospital system provides an alternative to staff working in operating rooms can visualize, manipulate and access patient information by Kinect technology and specialized software, which captures the user’s movements and translates them into actions within the system. Kinect hospital system has the ability to connect to the hospital’s administrative system and obtain patient information which may be its history, studies and imaging. The methodology used in the project was evolutionary prototype, as during the life cycle of the project, the technologies that were used were not released so they were analyzing and applying as they studied and went to market. As a result, we were able to use the Kinect 2.0 platform in conjunction with the framework.net for Windows 8.1, which allowed the system to execute actions without touch and voice commands.

+

Keywords: 8-Disciplines, quality defects and manufacturing systems.

52


Introducción

Tabla 1. Impacto de la Infección del Sitio Quirúrgico.

Las cirugías son ahora comúnmente ejecutadas en los hospitales, sin embargo una cirugía conlleva varios riesgos hacia el paciente, el principal de ellos es la Infección del Sitio Quirúrgico (ISQ) (Baridó Murguía, 2010). En la actualidad se realizan millones de intervenciones quirúrgicas al año, estadísticas del Instituto Mexicano del Seguro Social (IMSS) mencionan que en el año 2010 se realizaron aproximadamente 4 millones de cirugías en el país. El 10% de los pacientes que se sometieron a cirugías sufrió de complicaciones médicas relacionadas con la Infección del Sitio Quirúrgico, es decir, 400 mil pacientes sufrieron de una infección relacionada al proceso de su tratamiento quirúrgico. Existen tres causas principales por las que un paciente presenta eventos adversos al someterse a una cirugía, las relacionadas con los medicamentos, con las infecciones de heridas y con complicaciones técnicas. El 14% de estas complicaciones suelen ser por infecciones de heridas, las cuales son causadas por una mala higiene del personal médico o del área de trabajo. A continuación se presenta una tabla comparativa del impacto de la Infección del Sitio Quirúrgico (Kimberly-Clark de México, 2009).

53

$5,038 dólares

Analizando estas cifras, las organizaciones de la salud se han preocupado por reducir el impacto de la Infección del Sitio Quirúrgico en pacientes. Los métodos normalmente involucran una higiene y un cuidado extremo de parte del cirujano y su equipo, sin embargo sigue existiendo el riesgo de que el área de trabajo no esté esterilizada y el cirujano entre en contacto con ella. Una causa de esto es que el cirujano necesita revisar cierta información del paciente durante la cirugía, así como utilizar ciertas herramientas o una computadora, que no siempre se encuentran esterilizadas.

Revista Científica


Cabe mencionar que se tomaron las estadísticas del IMSS, ya que clínicas privadas no brindan información al respecto. Para solucionar la problemática de infección por manipulación de instrumentos se consideró a Kinect, para el desarrollo de la aplicación que permitiera la interacción con la computadora sin tacto, ya que es un controlador de juego libre y de entretenimiento desarrollado por Alex Kipman para la consola de videojuegos Xbox 360 y desde junio del 2011 para PC a través de Windows 7 y Windows 8 (Microsoft, 2012).

Justificación Este trabajo presenta el desarrollo de una solución a los problemas de Infección del Sitio Quirúrgico, la solución está basada en la plataforma Kinect 2.0, que Microsoft proporciona junto con su consola de videojuegos Xbox One. Kinect es un dispositivo, inicialmente pensado como un simple controlador de juego, que gracias a los componentes que lo integran: sensor de profundidad, cámara RGB, array de micrófonos y sensor de infrarrojos (emisor y receptor), es capaz de capturar el esqueleto humano, reconocerlo y posicionarlo en el plano. Kinect permite a los usuarios controlar e interactuar con la consola sin necesidad de tener contacto físico con un controlador de videojuegos tradicional, mediante una interfaz natural de usuario que reconoce gestos, comandos de voz y objetos e imágenes. El kit de desarrollo de software de Kinect permite a los desarrolladores crear aplicaciones que soportan el gesto y reconocimiento de voz, utilizando tecnología de sensor Kinect en equipos con Windows 7, Windows 8 y Windows 8.1. Se prefirió la versión Kinect 2.0 porque ofrece grandes mejoras en comparación a la versión Kinect 1.0, entre las características mejoradas destacan la incorporación de una cámara de 1920x1080, un aumento en el área de visión, detección de movimientos, detección de comando de voz, detección por medio de infrarrojos que permite localizar a las personas en ambientes sin luz, aumento en la detección de profundidad, entre otras cosas, lo que permitiría la interacción de los médicos de una manera más fluida y sencilla (Brekel, 2013). Microsoft también lanzo un kit de desarrollo de software para su dispositivo Kinect 2.0, llamado Kinect for Windows, con el cual abre las puertas a los usuarios para desarrollar aplicaciones de computadora, lo que permite la programación de la aplicación de acuerdo a las necesidades detectadas. Utilizando el dispositivo y su kit de desarrollo, se puede implementar un software que permita a los cirujanos no tener contacto con ningún computador de la sala, además de las herramientas que estén esterilizadas, ya que podrá manipular una computadora sin necesidad de tocarla, pudiendo así obtener información del paciente en cualquier momento que se requiera.

Revista Científica

54


Metodología El desarrollo del proyecto fue realizado en las instalaciones de la Universidad Tecnológica de Cancún a solicitud y convenio de la empresa EyeSoft, S.A. de C.V. patrocinado por la misma empresa y por el Consejo Nacional de Ciencia y Tecnología, al ser beneficiado con el apoyo dado en la convocatoria PROINNOVA 2014 con clave 211507.

La ventaja del ciclo de vida basado en prototipos se fundamenta en que es el único apto para desarrollos en los que no se conoce a priori las especificaciones o la tecnología a utilizar. Como contrapartida por este desconocimiento, tiene la desventaja de ser altamente costoso y difícil para la administración temporal (usr. code, 2013).

El sistema Kinect Hospitalario se desarrolló bajo el ciclo de vida de prototipado evolutivo, debido a que era necesario desarrollar partes del proyecto rápidamente para comprender con facilidad y aclarar ciertos aspectos que debían ser tratados con la gente especializada de la empresa EyeSoft y los expertos del área médica contratados por dicha empresa.

En cuanto a la metodología que se siguió para el desarrollo de la aplicación:

Si no se conoce exactamente como desarrollar un determinado producto o cuáles son las especificaciones de forma precisa, suele recurrirse a definir especificaciones iniciales para hacer un prototipo parcial o provisional, donde el objetivo es lograr un producto intermedio, antes de realizar el producto final, para conocer mediante el prototipo como responderán las funcionalidades previstas para el producto final. El prototipo funcional evolutivo desarrolla un comportamiento que satisface los requisitos y necesidades que se han entendido claramente. Realiza por tanto un proceso real de datos, para contrastarlo con el usuario. Se va modificando y desarrollando sobre la marcha según las apreciaciones del cliente. Esto ralentiza el proceso de desarrollo y disminuye la fiabilidad, puesto que el software está constantemente variando pero, a la larga, genera un producto más seguro en cuanto a la satisfacción de las necesidades del cliente (Lawrence, 2002). Se utilizó el modelo basado en prototipos porque este es empleado mayoritariamente en el desarrollo de productos con innovaciones importantes, o en el uso de tecnologías nuevas o poco probadas, como lo es el uso del Kinect for Windows versión 2.0, en las que la incertidumbre sobre los resultados a obtener, sobre el comportamiento, impiden iniciar un proyecto secuencial.

55

1.

Revisión de literatura; en esta fase se realizó la revisión de documentación acerca de las posibilidades de desarrollo de aplicaciones con Kinect 1.0, además de estudiar los procedimientos de seguridad e higiene en quirófanos para determinar las necesidades de interacción sin tacto por parte del personal médico.

2.

Documentación de requerimientos; se realizó el análisis en conjunto con la empresa EyeSoft, detectando las necesidades del personal médico en quirófanos, determinándose en esta etapa que la aplicación debería contener el expediente del paciente, la información general, la sección de búsqueda, la historia clínica, la imagenología y los análisis clínicos.

3.

Selección del Software SDK; para poder determinar el SDK a utilizar se realizó el análisis de las capacidades de interacción contenidas en Kinect 1.0 y Kinect 2.0, en esta fase se decidió trabajar con Kinect 2.0, a pesar de su reciente lanzamiento y nula documentación, para aprovechar las ventajas de mejoras incorporadas a la versión.

4.

Diseño del software; conforme se realizó el análisis, se presentaron los casos de uso para evaluación, así como el desarrollo de cada módulo de interacción y el desarrollo del prototipo, hasta llegar a la versión final.

Revista Científica


Desarrollo En los requerimientos iniciales del área médica se contempló como usuario único del sistema, al médico encargado del área de quirófano; por lo cual la interacción de todos los componentes del sistema están bajo el control del usuario único, estos componentes de interacción están definidos como se muestra en el siguiente diagrama de casos de uso.

Figura 1. Caso de uso usuario único.

Se integraron las siguientes expresiones y gestos de la mano disponibles en Kinect 2.0, que es capaz de reconocer algunas expresiones faciales, actividades de manos y accesorios básicos.

+ + + + + + +

Eyes closed (Ojos cerrados). Eyes looking away (Mirar a otra dirección). Mouth open (Boca abierta). Mouth moved (Movimiento de boca). Glasses accessory (Reconocimiento de lentes).

De la misma manera puede reconocer estados básicos de las manos (Hand state), tales como:

+ + + + + +

Open (Abrir). Close (Cerrar). Lasso (Gesto de dos dedos). Unknow (Desconocido). Not tracked (No encontrado). Reconocimiento de voz.

Happy expression (Expresión feliz). Neutral expression (Expresión normal).

Revista Científica

56


Kinect 2.0 presenta una significativa mejora en el reconocimiento de voz, es capaz de diferenciar a la persona que se encuentra hablando entre las demás que se encuentren capturadas por el sensor, lo que evita la pérdida de sincronización al momento del reconocimiento de voz. El desarrollo de la aplicación fue realizada con el kit de desarrollo de software, utilizando el patrón de diseño Modelo Vista Vista Modelo (MVVM) porque en este patrón de diseño se separan los datos de la aplicación, la interfaz de usuario, pero en vez de controlar manualmente los cambios en la vista o en los datos, estos se actualizan directamente cuando sucede un cambio en ellos, por ejemplo si la vista actualiza un dato que está presentando se actualiza el modelo automáticamente y viceversa.

crosoft lanzo el sensor Kinect con el kit de desarrollo que incluye soporte para la interacción con los controles de Windows de manera completa, no así con el reconocimiento de voz, esperando a futuro que Microsoft incluya soporte de voz en el SDK Kinect for Windows, por lo pronto solo se han incorporado comandos de voz básicos como abrir, cerrar, acercar, alejar y dividir, mismos comandos con los que el médico puede interactuar con la aplicación sin necesidad de las manos. El médico interactúa con la aplicación con sus manos y el movimiento de las mismas, no se requiere ningún aditamento especial, solo estar en el campo de visión de Kinect, una vez que el médico se pone al frente y es reconocido puede mover las manos e interactuar con la pantalla, acercar, alejar, dividir, cerrar, esta interacción se da de manera natural como si la mano fuera el cursor.

Resultados A continuación se presenta el análisis de los resultados relacionados con los objetivos establecidos:

Estudio del estado del arte; la investigación realizada sobre la nueva tecnología que representa Kinect 2.0 y su kit de desarrollo de software (SDK) permitió obtener información que facilitó entender el funcionamiento y el potencial que se puede aprovechar en el uso de este equipo para el proyecto, de esta manera se realizó el desarrollo del software obteniendo los resultados esperados. Investigar la información quirúrgica normalmente consultada; la empresa EyeSoft rea-

lizó un estudio de la información e imágenes que son demandadas actualmente en los procesos quirúrgicos, siendo el autor intelectual del proyecto y el encargado de realizar la investigación, de la cual únicamente compartieron la información necesaria para el desarrollo del proyecto, esto fue por la naturaleza sensible de la información.

Diseñar el software de interacción: Se diseñaron las pantallas principales del sistema permitiendo la visualización de las imágenes e información del paciente, se ha desarrollado el prototipo del sistema con la implementación completa de la interfaz gráfica de usuario y con la interacción sin tacto, con respecto a la integración de control por voz, se han realizado avances significativos a través de la implementación de servicios web para el acceso a los datos contenidos en la base de datos; esta etapa no se considera concluida debido a que la interfaz de programación de aplicaciones de control por voz de Microsoft aún se encuentra en una versión beta y se colabora con los desarrolladores de la misma con pruebas del sistema e identificación de bugs en el sistema de errores de Kinect 2.0. Realizar el software de reconocimiento de voz y movimientos; se interpretaron los movimien-

tos directamente con el sensor con un SDK Preview de Microsoft transfiriendo la información necesaria que reconocerá el software de interacción. Se logró manipular el sistema pero la empresa Mi57

Revista Científica


A continuación se presentan las pantallas principales del sistema desarrollado:

La Figura 4 presenta el menú principal del paciente seleccionado, permite visualizar los 4 módulos del paciente con el propósito de no saturar los módulos y aprovechar el espacio en ellos.

La Figura 2 presenta la pantalla principal del sistema, permite visualizar el alfabeto e interactuar con el sistema a través del sensor o por medio de comandos de voz de forma que el usuario se le facilite la interacción con los controles. Al presionar alguna letra se despliega una lista de pacientes precargados que empiecen con la letra presionada.

Figura 4. Pantalla 03 - Búsqueda de paciente.

La Figura 5 presenta la información general del paciente, esté módulo permite visualizar datos. Cuenta con una barra de desplazamiento que manipula la ventana con desplazamiento de arriba hacia abajo y viceversa para proporcionar una amplia visualización de controles grandes. Figura 2. Pantalla 01 - Búsqueda de paciente.

Cabe mencionar que puede estar precargada la información del paciente, no es necesario realizar la búsqueda cada vez que se inicie la aplicación en el quirófano, el médico puede acceder a la información ya lista y solo ingresar a los detalles que requiera en su momento. La Figura 3 presenta el resultado obtenido después de presionar una letra o decir un comando correcto, permite visualizar los nombres y folios. Para su máxima visualización también se presenta una ilustración y el usuario tiene facilidad de desplazarse. El usuario presiona un usuario o menciona el comando correcto para navegar al menú principal del paciente seleccionado.

Figura 3. Pantalla 02 - Búsqueda de paciente.

Revista Científica

Figura 5. Pantalla 04 - Información general.

La Figura 6 presenta la pantalla de historia clínica, el usuario visualiza el historial clínico del paciente, permite desplazarse de arriba hacia abajo y viceversa para su amplia visualización.

Figura 6. Pantalla 05 - Historia clínica.

58


La Figura 7 presenta la pantalla de imagenología, permite visualizar una o varias imágenes para la comparación entre ellas, cuenta con una barra de desplazamiento lateral que presenta una serie de imágenes que tiene el paciente para arrastrar y determinar el espacio a mostrar. El usuario selecciona o menciona el comando correcto para la división de pantalla.

En cuanto a las limitaciones de la aplicación, mismas que están provocadas por la versión del software Kinect 2.0 y su kit de desarrollo de software (SDK) están la falta de inclusión de otros comandos de voz, como buscar, seleccionar, decir el nombre del paciente para que la búsqueda sea inmediata y tener un comando de voz por cada interacción de movimiento existente. Puede haber interacción de dos usuarios reconocidos por Kinect, mientras permanezcan en el campo de acción, sin embargo es recomendable que sea un usuario único el que interactúe. Con los resultados obtenidos se espera que al implementar el sistema en los quirófanos de los hospitales se reduzca la tasa de infecciones en pacientes que son intervenidos quirúrgicamente hasta en un 80 por ciento, dado que se considera como riesgo principal la Infección del Sitio Quirúrgico (ISQ), por manipulación de herramientas, utensilios o materiales no esterilizados, lo que se evita con el sistema que permita acceder a información del paciente sin necesidad de tocar ningún elemento.

Figura 7. Pantalla 06 - Imagenología.

El sistema fue aprobado por la empresa EyeSoft ya que cubre todos los requerimientos determinados en el análisis, cumple con los objetivos planteados y es una solución innovadora a la problemática planteada.

Conclusiones Se desarrolló la aplicación Kinect Hospitalario utilizando el framework.net para Windows 8.1 el cual permite realizar búsquedas de pacientes, acceder a su historial médico, consultar sus análisis clínicos, mostrar la imagenología mediante varios esquemas y poder realizar comparaciones entre los diferentes estudios contenidos en el expediente del paciente, todo ello en una interacción sin tacto o por voz. Se logró implementar la interacción con el sistema y el usuario mediante un dispositivo Kinect 2.0, permitiendo realizar acciones mediante gestos sin necesidad de tocar algún dispositivo de entrada. Asimismo se realizó un servicio web para capturar las señales de voz, la cual es filtrada utilizando un diccionario de palabras y permitiendo detectar un patrón que se traduce en comandos que realizan determinadas tareas dentro del sistema. Cabe destacar que el sistema funciona con los dispositivos de entrada tradicionales como teclado y mouse, pero está diseñado para que no se requieran estos dispositivos. Se realizaron pruebas de funcionalidad con resultados satisfactorios, en donde los usuarios pudieron interactuar con el sistema permitiendo acceder a los datos del paciente de manera fluida y sin necesidad de tocar algún dispositivo, logrando así el objetivo principal que es que el usuario no se vea contaminado al interactuar con otros instrumentos que no estén debidamente esterilizados.

59

Revista Científica


Bibliografía

+

Sandoval, R. (2009). Municipios: Dinero y TIC. Portal Ciudadano. México: Reforma.

+

Sells, C., & Griffiths, I. (2009). WPF. Madrid: Anaya Multimedia-Anaya Interactiva. ISBN #9788441525917

+

Shari Lawrence Pfleeger, E. Q. (2002). Ingeniería del software: teoría y práctica. Prentice Hall. ISBN #9789879460719

+

usr.code. (05 de 2013). From http://img.redusers.com/: http://img.redusers.com/imagenes/libros/lpcu097/capitulogratis.pdf

+

Boyce, J., Shapiro, J., & Tidrow, R. (2014). Windows 8.1 Bible. Indianapolis: John Wiley & Sons, Inc. ISBN 10 #111883531

+

Brennan, W. (2011). Microsoft Expression Blend 4 Unleashed. Pearson Education. ISBN-13 #978-0-672-33107-7

+

Heddle, B. (n.d.). http:// blogs.windows.com/international/b/latam/archive/2013/05/23/ la-nueva-generaci-243-n-delsensor-kinect-para-windows-llegar-225-el-pr-243-ximo-a-241-o. aspx. (Director Kinect para Windows) Retrieved 09 de junio de 2014 from http://blogs.windows.com/international/b/latam/ archive/2013/05/23/la-nueva-generaci-243-n-del-sensor-kinect-

Revista Científica

para-windows-llegar-225-el-pr243-ximo-a-241-o.aspx

+

Gabillaud, J. (2013). SQL Server 2012, Administración de una base de datos transaccional con SQL Management Studio. Barcelona: ENI. ISBN #9781118441701

+

Iacono, M. (2009). Silverlight. Buenos Aires: MP Ediciones.

+

Katrib Mora, M., del Valle Matos, M., Sierra Zaldívar, I., & Hernández Saa, Y. (2009). Windows Presentation Foundation. Madrid: Laurna Ediciones.

+

+

México, p. (n.d.). http://www.pcworld.com.mx/ Articulos/13303.htm. Retrieved 09 de junio de 2014 from http:// www.pcworld.com.mx/Articulos/13303.htm

+

Microsoft. (2012).http:// www.kinectfordevelopers.com/ es/2012/11/06/que-es-el-dispositivo-kinect/

+

Microsoft. (2014). http://www.visualstudio.com/ es-es/explore/application-development-vs. Retrieved 08 de junio de 2014 from http://www. visualstudio.com/es-es/explore/ application-development-vs

México, K. C. (2010). Informe Anual 2009, 36.

60


61

Revista CientĂ­fica


I M P O R TA N C I A D E L

TRABAJO EN EQUIPO Dr. Luis Arnulfo Guerrero Chávez1 y M.S.M. María Dolores Ruiz Gandarilla2

Instituto Tecnológico de Chihuahua Av. Tecnológico, 2909 Chihuahua, Chihuahua, México, C.P. 31310

1,2

Enviado: 30 de octubre de 2015 Aceptado: 7 de diciembre de 2015

lguerrer@itch.edu.mx

R e s u m e n : La naturaleza gregaria y social del ser humano, busca de forma activa la relación con su entorno, con variados propósitos, fundamentalmente para el logro de metas. Las empresas han reconocido, de una forma cada vez mayor, los beneficios que el trabajo en equipo ofrece y han incluido dentro de sus estrategias su uso. Sin embargo no cuentan con las estrategias apropiadas para el desarrollo de la madurez de los grupos que forma y por ello, los beneficios no se dan. Es importante conocer y establecer dichas estrategias y los elementos o factores clave que las componen, para lograr que el trabajo en equipo se presente y se logren las metas propuestas.

+

Abstract: The human been is gregarious and social, searching in active way the relationship with is environment, with several purposes, pursuing his goals. Companies have recognized increasingly the teamwork benefits and have adopted its strategies to apply them. However, the companies ignore the appropriate strategies to maturity groups development and therefore, so the benefits will not be accomplished. It is important become aware and establish those strategies and their elements or key factors to be able to reach to create work teams and reach the desired goals.

+

Revista Científica

Palabras clave: Trabajo en equipo, madurez y metas.

Keywords: Teamwork, maturity and goals.

62


Introducción En los valores de la Ford Motor Company es posible encontrar la siguiente declaración: “Nuestra gente es la fuente de la fuerza. Ellos proveen nuestra inteligencia corporativa y determinan nuestra reputación y vitalidad. El involucramiento y trabajo en equipo son nuestros valores centrales”. Asimismo, dentro de sus principios guía se encuentra que “El involucramiento de nuestros empleados es nuestra forma de vida. Somos un equipo. Debemos tratarnos unos a otros con respeto”. Como Ford, muchas grandes corporaciones establecen dentro de su misión, visión y principios guías, la prioridad que para ellas significa su gente y la aplicación del trabajo en equipo, más que una iniciativa o una herramienta, es un estilo de vida para el logro de sus metas (Satterfield, 2014). Un estudio realizado desde el 2005 al 2014, determinó que el interés de las empresas, ubicadas en la ciudad de Chihuahua, por el trabajo en equipo ha crecido de un 14% en junio de 2005 a un 26% en mayo de 2014, pero aunque muchas de esas empresas incluyen dentro de las características que solicitan al personal que van a contratar el trabajo en equipo, en una encuesta aplicada a empresas que requieren trabajo en equipo, se determinó que no cuentan con el conocimiento y las estrategias requeridas para lograr el desarrollo de sus grupos, y con ello, obtener los beneficios buscados (Guerrero, Delgado y Sánchez, 2014), porque piensan que por el solo hecho de ponerlos a trabajar juntos, su proceso de desarrollo se completará, pero el desarrollo de los grupos es un proceso que tiene fecha de inicio, pero no de término, en el cual hay que desarrollar las habilidades que requieren sus integrantes, que si no se adquieren, no podrán alcanzar su potencial como equipo y lograr sus metas (Harper y Harper 1994). La madurez de un grupo se define como la etapa de desarrollo en que se encuentra un grupo de trabajo, que debe medirse en porcentaje, indicando su grado de productividad, motivación y satisfacción personal. Por otro lado, un grupo maduro, al ser eficaz en el logro de sus metas, deberá también ser muy productivo (Schein, 1973). Cada ser humano se desarrolla en un contexto social, económico y político, donde aprende y expresa sus habilidades en base a sus capacidades y actitudes. Cada individuo proviene de un ambiente diferente, con una cultura particular, el cuál le da una perspectiva independiente de los demás miembros del grupo al que se integra. La cultura es un sistema aprendido que comprende conducta, actitudes, creencias, valores y normas compartidos por un grupo de personas (Wilson, 2007). La diversidad cultural en los grupos es reconocida por la mayoría como una ventaja importante de los grupos. Los miembros de algunos grupos van más allá de tolerar las diferencias y usarlas para crear un mejor resultado en la asignación. La clave para hacer que suceda parece estar principalmente en el liderazgo aplicado, a la comunicación efectiva, a los roles aplicados por cada uno de los integrante y al involucramiento en la toma de decisiones.

63

Revista Científica


Desarrollo

¿Por qué trabajar en equipo? El desarrollo de la tecnología y prestación de servicios en el entorno económico actual, representa para las empresas una oportunidad de implantar mejoras y cambios para ser más competitivos y mantenerse activos en el mercado. Sin embargo para lograr tales mejoras es inminente que el ritmo y la velocidad del trabajo se vean afectados; por ello es de vital importancia buscar estrategias y mejores procesos considerando los recursos con que se cuenta. El recurso humano se ha convertido en la principal estrategia para procesar los cambios y mejoras de forma efectiva. Entonces el trabajo en equipo se ha consolidado como la estrategia fundamental para lograr el desarrollo y crecimiento de las organizaciones. Un error muy común en las organizaciones es que, aunque quieren crear grupos efectivos, no proporcionan el desarrollo correcto para construirlos; tienen la idea equivocada de que con solo poner a las personas a trabajar juntas, se convertirán automáticamente en un equipo de trabajo. El desarrollo de equipos de trabajo efectivos es un proceso, en el cuál existen muchas habilidades que es necesario proporcionarle a la gente, de tal manera que si no las obtienen, el equipo nunca alcanzará todo su potencial en términos de productividad y satisfacción en el trabajo (Harper y Harper, 1994).

¿Qué es un equipo de trabajo?

El primero corresponde a los factores higiénicos o factores de insatisfacción que son los salarios, tipo de dirección o supervisión que las personas reciben de sus superiores, las condiciones físicas y ambientales de trabajo, políticas y reglamentos de la empresa. Según Herzberg (1959), cuando los factores higiénicos son óptimos, evitan la insatisfacción de los empleados y cuando los factores higiénicos son pésimos provocan insatisfacción. El segundo contempla los factores motivacionales o de satisfacción, los cuales están bajo el control del individuo, ya que se relaciona con lo que él hace y desempeña. Los factores materiales involucran sentimientos relacionados con el crecimiento individual, el reconocimiento profesional y las necesidades de autorrealización que desempeña en su trabajo. Las tareas y cargos son diseñados para atender a los principios de eficiencia y de economía, suspendiendo oportunidades de creatividad de las personas. Esto hace perder el significado psicológico del individuo, el desinterés provoca la desmotivación ya que la empresa solo ofrece un lugar decente para trabajar. El comportamiento de las personas bajo los factores motivacionales, de acuerdo a Maslow, es mucho más profundo y estable cuando los factores son óptimos, como son los logros, el reconocimiento, la independencia, la promoción el crecimiento, la madurez y la consolidación. Se define la madurez como la etapa, medida en porcentaje, de desarrollo en que se encuentra un grupo. Establece que un grupo maduro, será más eficaz y productivo, tendrá una gran motivación, satisfacciones personales y una alta moral grupal cuando alcance un alto grado de madurez (Schein, 1973). La Figura 1 presenta el modelo integral y dinámico para el desarrollo de grupos de trabajo propuesto por Guerrero (2013).

Un equipo es un grupo de trabajo que ha alcanzado un nivel más alto de calidad, ha desarrollado cohesión entre sus miembros, crea un proceso de trabajo crítico, proporciona liderazgo para su propio desarrollo y desempeño (Kinlaw, 1991). Un grupo de trabajo se define como la serie de tres o más individuos que interactúan sobre algún problema común o meta interdependiente y que pueden ejercer influencia mutua entre sí (Wilson, 2007), también se conoce a un equipo de trabajo como un número pequeño de personas con habilidades complementarias que están comprometidos con un propósito común, con metas de desempeño y con una propuesta por las que se consideran mutuamente responsables (Katzenbach y Smith, 2002).

Factores que afectan el desempeño del equipo de trabajo Los factores motivacionales establecidos por Abraham Maslow y los factores motivacionales e higiénicos definidos por Frederick Herzberg inciden solo en la motivación de los individuos, pero existen otros factores que influyen directamente en el desempeño de un equipo de trabajo. De acuerdo a la teoría de Herzberg, existen dos factores que orientan el comportamiento de las personas (Herzberg, 1959). Revista Científica

64


+

Resolución de problemas.

+

Revisión del avance.

+

Toma de decisiones.

+ Creatividad. Es decir:

Madurez = ƒ (Liderazgo, comunicación, roles y responsabilidades, clima laboral, objetivos y metas, solución de problemas, revisión del avance, toma de decisiones y creatividad).

Figura 1. Modelo integral y dinámico para el desarrollo de grupos de trabajo.

De acuerdo al modelo integral y dinámico para desarrollo de grupos de trabajo, que está compuesto por cuatro fases (formación, integración, desarrollo y consolidación), nueve factores (mencionados adelante) y tres enfoques de evaluación (por el supervisor, por un asesor externo y por el mismo grupo de trabajo); un grupo de trabajo debe pasar por cuatro fases en su camino hacia la autonomía (Guerrero, 2013), fases que se muestran en la Figura 2.

Para ello, diseñó un instrumento válido (validez de constructo r = 0.8176 ) y confiable (alfa de Cronbach α = 0.805) y contrastó la madurez medida a los grupos (variable dependiente) contra los resultados de los grupos de trabajo (variables independientes) como calidad, entrega, productividad y desperdicio, logrando correlaciones superiores a 0.7, como puede verse en el caso de la gráfica de correlación de madurez – calidad presentado en la Figura 3.

Figura 3. Relación entre la madurez -calidad y los resultados de un grupo de trabajo. Figura 2. Proceso de desarrollo de un grupo de trabajo.

El modelo integral y dinámico, propuesto por Guerrero (2013), establece que para determinar el nivel de desarrollo de un grupo de trabajo, debe calcularse la madurez; para ello encontró que la madurez es función de nueve factores:

65

+

Liderazgo adecuado al crecimiento del grupo.

+

Buena comunicación.

+

Roles y responsabilidades bien definidos.

+

Clima laboral favorable.

+

Objetivos y metas claros.

De tal manera que concluyó que si la madurez es función de los factores y los resultados son función de la madurez, entonces los resultados serán función de los factores, por lo que la supervisión y la gerencia de las empresas deben concentrarse en mejorar los factores y los buenos resultados, logro de las metas, se darán como consecuencia:

Si la Madurez = ƒ (factores) y los Resultados = Madurez, entonces los Resultados = ƒ (factores) Al mismo tiempo, Guerrero (2013) mide con el instrumento mencionado, la penetración de cada factor en cada fase del modelo y encuentra en qué factor deberá concentrarse el grupo de trabajo para continuar madurando (Figura 4). Revista Científica


Figura 4. Penetración de los factores de un grupo de trabajo.

Resultados y conclusiones Los resultados logrados con la aplicación del modelo integral, dinámico y su instrumento válido y confiable, demuestran que la madurez de un grupo de trabajo, es decir, su grado de desarrollo, está ampliamente relacionada con los nueve factores propuestos y como los resultados del grupo de trabajo en términos de calidad, cumplimiento del programa de producción, de la generación de desperdicios y de su productividad, correlacionan en gran medida con la madurez calculada; entonces, en lugar de que la supervisión y la gerencia se enfoquen al cumplimiento de los métricos, deben dedicar sus esfuerzos a acrecentar el nivel de los factores y los resultados vendrán por añadidura. La importancia de trabajar en equipo sobrepasa cualquier objetivo, estrategia, proceso o programa de una organización, ya que es una realidad que el recurso humano es el activo más valioso de cualquier organización. Siendo que el ser humano, por su misma naturaleza gregaria, complementa con sus características naturales a todos aquellos que lo rodean, presenta un gran beneficio en el ámbito social, comercial, de servicio o productivo. Sin embargo, es necesario complementar ese interés y cuidado por la gente, con un sistema que garantice que los esfuerzos tendrán resultados que incidan en el logro de las metas de esas organizaciones. Sistemas como el modelo integral y dinámico para desarrollo de grupos de trabajo, llevado a la práctica consciente y comprometida, coadyuvarán a que ello se logre.

Revista Científica

66


Bibliografía

+

Guerrero Chávez, Luis Arnulfo, Delgado Ontiveros, María Elena y Sánchez Santiago, Pedro (2014). El Trabajo en Equipo en las Empresas de la ciudad de Chihuahua. Querétaro, México. I Congreso Internacional de Investigación y de Redes de Colaboración COIINRECO 2014. 153-169. ISBN # 978-607-8324-16-3.

+

Katzenbach, Jon y Smith, Douglas. (2002). La sabiduría de los equipos. México. CECSA. Pp 39. ISBN # 968-261282-9.

+

+

Kinlaw, DC. (1991). Developing superviser work teams: Building quality and the competitive edge. Lexington, MA: Lexington Books.ISBN # 978-0669249835.

+

Schein, Edgar H. (1973). Consultoría de procesos: su papel en el desarrollo organizacional. Prentice Hall. Tarjeta del catálogo de la Biblioteca del Congreso de los E.U.A.: 7291855.

Guerrero, Luis. (2013). Modelo Integral y Dinámico para Desarrollo de Grupos de Trabajo. Chihuahua, México. Editorial Gestoría. ISBN # 978607-833-00-4. Harper Ann, Harper Bob (1994). Team Barriers. U.S.A. MW Corporation. ISBN # 978-1880859032

67

+

Herzberg, Frederick (1959). Teoría de los dos factores. Universidad de UTAH.

+

Statterfield, Douglas (2014). Core Values: Ford Motor Company. The Leader Maker. http://www.theleadermaker.com/ core-values-ford-motor-company/

+

Wilson, L. Gerard (2007). Grupos en contexto: liderazgo y participación en grupos pequeños. University of South Alabama.McGraw-Hill. ISBN # 978-9701061541.

+

Revista Científica


DINÁMICA MOLECULAR I M P O R TA N C I A

D E L A S I M U L AC I Ó N

D E M AT E R I A L E S A M O R F O S

M.C. Francisco Javier A. Díaz Camacho1

Tecnológico de Estudios Superiores de Jocotitlán Carretera Toluca-Atlacomulco km. 44.8, Ejido de San Juan y San Agustín. Jocotitlán, Edo. de México. C.P. 50700 1

Enviado: 31 de octubre de 2015 Aceptado: 8 de diciembre de 2015

fjadiaz@hotmail.com

Resumen: El estudio de las aleaciones metálicas amorfas ha llamado la atención de muchas aplicaciones tecnológicas, debido a que presentan buenas propiedades mecánicas y físicas, mejoran la resistencia a la corrosión y tienen menor densidad comparado con las aleaciones que tienen estructuras cristalinas. Se han diseñado simulaciones computacionales que permiten estudiar, modelar, predecir y comprender fenómenos físicos complejos. La técnica de simulación que permite estudiar la estructura y composición de los materiales es la dinámica molecular, que surge como una alternativa a ser utilizada cuando no se cuenta con equipos de prueba para caracterizar los materiales, los costos por pruebas son altos y los tiempos de proceso disminuyen la velocidad de respuesta a los requerimientos por mejorar las aleaciones actuales.

+

A b s t r a c t : The research on metallic amorphous alloys has interested several technological applications as they have improved mechanical and physical properties, corrosion resistance and they have also lower density compared to the alloys that have a crystalline structure. Now a days the design of computing simulation has allowed to studying, modeling, predicting and bearing in mind about the physical complex phenomenon. The simulation technique that allows to study the structure and composition of the materials is the molecular dynamics, which is an alternative when the researcher does not have a laboratory with the necessary equipment in order to characterize the materials, the high cost of testing is and the processing times to reduce the progress of the present alloys.

+ Revista Científica

Palabras clave: Amorfas, simulaciones computacionales, dinámica molecular y caracterización.

Keywords: Amorphous, computing simulation, molecular dynamics and characterize.

68


Introducción Desde la perspectiva de simulaciones computacionales de Dinámica Molecular*, se puede modelar y estudiar la estructura, mecanismos de deformación y el comportamiento de los materiales ante cargas externas, gracias al conocimiento de la trayectoria de los átomos durante la simulación (Casas, 2010). Se pueden generar metodologías para realizar simulaciones que permitan obtener aleaciones amorfas usando Dinámica Molecular diseñando modelos amorfos a partir de sus fases cristalinas. Los vidrios metálicos han sido estudiados durante décadas, particularmente en la última, con cientos de artículos publicados y mucha expectativa en los descubrimientos actuales y futuros, siendo un campo de investigación con mucha actividad en el presente (Lozada, 2013). Una aleación metálica amorfa o vidrio metálico es aquella en la que los átomos que la conforman se encuentran distribuidos de forma aleatoria (Casas, 2010), a diferencia de una aleación cristalina donde los átomos se encuentran ordenados periódicamente como se muestra en la Figura 1. Existe un creciente interés en fabricar nuevos materiales por diversas técnicas que impliquen costos económicos cada vez menores.

Figura 1. Diferencias en la estructura cristalina y amorfa.

Durante las últimas décadas ha crecido el interés por las investigaciones teóricas y experimentales de estructuras a escalas mesoscopicas así como de la microestructura de materiales desordenados (Medina, 2010). Ello con el objetivo de obtener mejores propiedades físicas que los sólidos convencionales, así como el control de las mismas. Dentro de estos nuevos materiales se encuentran las aleaciones metálicas amorfas y nanocristalinas en particular, de inusuales propiedades físicas y químicas y con potenciales aplicaciones tecnológicas. *El software utilizado para realizar las simulaciones es “Materials Studio” de Accelrys y está disponible a cargo del Profesor Martin Reich del Departamento de Geología de la Universidad de Chile, con conexión al cluster computacional de la Universidad de Michigan, Ann Arbor, Estados Unidos (Casas, 2010). Las simulaciones de Dinámica Molecular se realizan utilizando el software Materials Studio 4.1 de Accelrys Software Inc., el cual permite realizar las simulaciones y ofrece herramientas avanzadas de visualización y análisis de datos post-simulaciones.

69

Revista Científica


Los materiales amorfos metálicos o vidrios metálicos (Casas, 2010) son sistemas o aleaciones metálicas que carecen de un ordenamiento periódico de largo alcance de sus átomos. En estos materiales no existe el concepto de celda primitiva o grupo espacial de simetría. Los difractogramas típicos de los rayos X no presentan picos bien definidos, más bien en muchos casos consisten de una sucesión de halos que están relacionados con la distribución promedio de las distancias interatómicas. Algunos métodos para sıntetizar materiales nanocristalinos son similares a aquellos usados para obtener aleaciones amorfas. La manipulación controlada del tamaño de grano, morfología y textura se puede obtener modificando apropiadamente las variables que controlan los dispositivos de síntesis. Los principales métodos de preparación de materiales nanocristalinos son: condensación de gas inerte, solidificación rápida, electrodeposición, reacciones químicas, desvitrificación y mecano-síntesis (Koch, 2007). Las aleaciones metálicas amorfas y nanocristalinas son sistemas en estados metaestables con interesantes propiedades mecánicas, químicas y magnéticas para potenciales aplicaciones tecnológicas actuales. Medina (2010) enuncia que los materiales amorfos son sistemas caracterizados por el desorden estructural y químico; es decir, no presentan orden de largo alcance, pero mantienen un orden de corto alcance (Figura 2). Mientras los materiales nanocristalinos son definidos por cristalitos, con dimensiones menores a 100 nanómetros y contornos de grano o interfaces compuestas por aleaciones desordenadas (principalmente soluciones sólidas y aleaciones amorfas).

nos. Una de las más notables características de las fases amorfas, investigada en la última década, son los comportamientos magnéticos complejos que dan origen a materiales magnéticos duros y blandos (Díaz, 2012).

Metodología En la actualidad las simulaciones computacionales se han transformado en una poderosa herramienta que permite modelar, predecir y comprender sistemas físicos de interés. La capacidad de obtener resultados concretos está estrechamente relacionada con la complejidad del modelo físico y el grado de precisión que desea obtener. Las simulaciones de fenómenos físicos utilizando avanzadas técnicas de programación y computación permiten abarcar problemas complejos y verificar la validez de las aproximaciones realizadas con los resultados teóricos y numéricos. Además se puede extender el dominio de teorías de las cuales es posible extraer resultados verificables experimentalmente, al tener a disposición una herramienta alternativa y complementaria a las ya conocidas. En resumen, como se muestra en la Figura 3 se puede utilizar una simulación computacional para verificar la validez del modelo comparando los resultados numéricos con los experimentales (Casas, 2010).

Figura 3. Conexión entre teoría, realidad y simulaciones computacionales.

Figura 2. En la imagen del lado izquierdo es representado el orden de largo alcance y en el lado derecho el orden de corto alcance en el dióxido de silicio en estado cristalino y amorfo respectivamente.

Debido a la ausencia de orden de largo alcance, los materiales amorfos presentan varias propiedades únicas. La carencia de una estructura cristalina ordenada conduce a la ausencia de contornos de grano, dislocaciones y fracturamiento. La carencia de contornos de grano dentro del bulk o placa sólida en bulto y en la superficie hace que no se encuentren sitios atómicos que sean propensos a una reacción química, de tal forma que tienen una alta resistencia a la corrosión (Casas, 2010). Los responsables de la deformación plástica en los materiales cristalinos metálicos, son las dislocaciones, pero estas se realizan en los planos atómicos, pero ante su ausencia en los materiales amorfos, estos tienen mucha mayor resistencia a la deformación que los materiales cristali-

Revista Científica

70


De acuerdo a Casas (2010), se exponen a continuación los pasos generales de la Simulación de Dinámica Molecular, que fueron propuestos originalmente por Allen (2004):

Paso 1:

Inicialización. De acuerdo a las capacidades computacionales se fijan el número de átomos con los cuales se trabajará en la simulación y el tamaño de la caja de simulación. Se fija el tiempo que durará la simulación (t max) y el paso de tiempo con el que se realizarán cada uno de los cálculos δt. Junto con lo anterior se fija el tipo de ensamble que se utilizará durante la simulación, con esto se fijan la presión, temperatura, volumen o densidad y las condiciones de borde. También se elige el tipo de potencial que gobernara el modelo.

Paso 2:

Posiciones y velocidades iniciales. Se fijan las posiciones y velocidades iniciales para todos los átomos que forman el modelo.

Paso 3:

ral, la que puede ser analizada mediante funciones de distribución radial, análisis de poliedros de Voronoi y difracción de rayos X. Los dos primeros análisis se pueden obtener a partir de una Simulación de Dinámica Molecular (Bailey, Schiotz y Jacobsen, 2004). En el trabajo de Casas (2010) se explican estos tres análisis. Complementando se puede estudiar el comportamiento de los materiales ante cargas externas, gracias al conocimiento de la trayectoria de los átomos durante la simulación. Otro análisis corresponde al de los mecanismos de deformación de los modelos amorfos ante un esfuerzo de corte. El análisis y las interpretaciones de los resultados no se podrán hacer sin tener las bases suficientes de la materia, por ejemplo, la Dinámica Molecular analiza los potenciales de interacción que existe entre los átomos que forman un determinado material, conociéndose así la posición y velocidad de cada átomo del material en cada instante. La calidad de los resultados de la simulación depende directamente de si el potencial interatómico refleja realmente la interacción entre los átomos (Cheng, Cao y Sheng, 2008).

Fuerzas. Se realiza el cálculo de las fuerzas de interacción mediante el uso de los potenciales que gobiernan el modelo en simulación.

Paso 4:

Resolución de las ecuaciones de movimiento. Se resuelven las ecuaciones de movimiento para todos los átomos usando un algoritmo de integración numérica, obteniendo la posición y velocidad de los átomos para cada paso de la simulación.

Paso 5:

Se calculan las magnitudes de interés y se realiza la pregunta si el tiempo de simulación t +δ t t max. Si el tiempo de simulación es menor que t max se vuelve al paso 3, en caso contrario se termina la simulación.

Efectuar estudios de comportamientos estructurales de los materiales implica el manejo eficiente del software, contar con equipo de precisión para analizar los modelos amorfos, así como una alta preparación académica en la materia para saber analizar e interpretar los resultados obtenidos, sobre todo de física teórica, termodinámica y de ciencia de materiales. En la formulación del modelo se consideran todos los parámetros necesarios para realizar una simulación y no se podrá dejar de fuera ninguno. De acuerdo a un estudio realizado por Casas (2010) sobre Simulación de Dinámica Molecular de aleaciones amorfas de CuZr-Al, en primer término se generaron los modelos de aleaciones amorfas empleando diferentes composiciones químicas de los elementos de aleación Zr y Al validados en la bibliografía disponible. Después se realizó un calentamiento arriba de la temperatura de fusión. Posteriormente se simuló un enfriamiento a 273ºK para obtener los modelos amorfos. Con este estudio se concluye que al realizar una Simulación de Dinámica Molecular se pueden obtener las posiciones de los átomos que conforman un determinado material, de lo cual se puede extraer importante información estructu71

Revista Científica


Otras aportaciones que fundamentan la simulación dinámica Simular significa representar o hacer parecer algo que no es o no sucede en realidad (White, Luque, Budarin, Clark y Macquarrie, 2009) y efectivamente, en las simulaciones computacionales se busca, mediante algoritmos, representar y reproducir un fenómeno que no ha sucedido en realidad. La correlación de lo simulado con la realidad es función exclusiva del modelo matemático. Entre mayor sea la semejanza de lo simulado con la realidad y con las implicaciones de esta, mejor será el modelo empleado (Santiago, 2011). Las simulaciones conocidas como ab initio o cuánticas ab initio son un ejemplo de simulaciones de teoría pura, que no utilizan datos experimentales, que se basan exclusivamente en la teoría cuántica para simular el comportamiento de un sistema a nivel atómico. Los algoritmos creados con las ecuaciones de la teoría cuántica suelen ser muy demandantes computacionalmente y esta demanda aumenta, casi siempre, cúbicamente con el número de átomos simulados (Santiago, 2011). Por esta razón, en las técnicas ab initio se simulan normalmente menos de 500 átomos. Las simulaciones que no son ab initio emplean mayor número de átomos en sus simulaciones, como las planteadas en Gómez (2010), en donde se generaron modelos amorfos de Cu50Zr50 de 2,662 átomos a partir de un modelo cristalino que corresponde a 11x11x11 veces la celda unitaria. El desarrollo tecnológico orientado a la manipulación y creación de sistemas nanométricos, de tanto interés económico y académico, se vale de las simulaciones ab initio para desarrollar, estudiar y comprender estructuras y fenómenos que se manifiestan a esa escala. Los resultados presentados en estos estudios solo son predictivos, no por ser producto de una simulación, sino porque pudieran no encontrarse resultados experimentales que describan sistemas semejantes a los simulados. De esta manera se puede contribuir al campo del conocimiento de nuevos materiales.

nales y permitiendo el acceso a todas las escalas de tiempo y movimiento con resolución atómica (Aliseda, 2011). Por lo tanto, la Dinámica Molecular permite a los científicos escudriñar en el movimiento de los átomos individuales de un modo que no es posible en experimentos de laboratorio. Para realizar estas simulaciones, es necesaria la representación en el ordenador de todos los átomos y moléculas que intervienen en el proceso. Estas simulaciones conllevan un gran consumo de recursos, tanto de memoria como de capacidad de procesamiento. La UIB (2003) describe que esta técnica permite calcular las trayectorias (las diferentes posiciones de las partículas en función del tiempo) de los átomos o partículas que forman la materia y esto nos permite simular el comportamiento microscópico del sistema. A partir de ese conocimiento se pueden obtener los valores de diferentes propiedades macroscópicas (tanto estáticas como dinámicas). En las Simulaciones de Dinámica Molecular se asume que la dinámica de las partículas (átomos, moléculas,...) está gobernada por las leyes de la mecánica clásica, es decir el movimiento de las partículas se realiza de acuerdo con las leyes de Newton del movimiento. Se puede indicar que las Simulaciones de Dinámica Molecular consisten en la integración de las ecuaciones de movimiento de Newton para determinar cómo varía la posición de las partículas en función del tiempo.

Discusiones Por tratarse de un estudio teórico de investigación que pretende aportar a los estudiantes e investigadores una panorámica de la simulación dinámica en materiales metálicos amorfos, se exponen como resultados de la investigación los comportamientos atómicos que se esperan con la simulación de cualquier aleación metálica que el investigador desee desarrollar en la innovación de los materiales ya existentes. Se muestra en la Figura 4, de acuerdo a Casas (2010), un modelo de representación donde Cu son las esferas rojas y Zr corresponde a las esferas celestes.

La nanociencia pretende manipular la materia a escala atómica y molecular. En este sentido, la nanociencia no tiene límites, potencialmente toda la materia, es decir, todo aquello constituido por átomos, puede ser manipulado: metales, no metales, semimetales; cualquier elemento de la tabla periódica, cualquier compuesto, cualquier solución, cualquier estructura (Santiago, 2011). ¿Qué es lo que hace tan diferente a la materia cuando se manipula a escala nanométrica? Se sabe que cuando se manipula la materia a esta escala, se manifiestan variaciones en las propiedades eléctricas, ópticas, magnéticas y químicas Moriarty (2001). Se podrían describir estas simulaciones por ordenador como una técnica de microscopio virtual con alta resolución temporal y espacial. Considerando que es posible tomar instantáneas de las estructuras, que no podrían tomarse en experimentos convencioRevista Científica

Figura 4. Modelos de simulación.

72


De acuerdo a la metodología, los modelos de cristales fueron calentados mediante simulación a 2,000ºK, temperatura mayor a la temperatura de fusión para estas aleaciones, durante 100ps a un paso de simulación 0.5fs con condiciones de borde periódica en las tres dimensiones y en un ensamble NPT (sistema que mantiene constante el número de átomos N, presión y temperatura), luego fueron enfriados a una tasa de enfriamiento de 1,013K/s hasta llegar a 273ºK donde se mantuvieron por 100ps para relajar la estructura de los modelos, siguiendo el perfil de temperatura mostrado en la Figura 5, evitando que las aleaciones cristalicen (Casas, 2010).

Siguiendo la metodología indicada, estos modelos son analizados posteriormente aplicando las funciones de distribución radial, los poliedros de Voronoi (los diagramas de Voronoi son herramientas fundamentales dentro de la geometría computacional, ya que almacenan información importante referente a la proximidad entre puntos) y la difracción de rayos X. Una vez terminada esta simulación, se procede a aplicar la prueba de corte al modelo inicial (Figura 7) y después de la deformación son analizados nuevamente.

Figura 5. Ciclo Térmico de Amorfización. Figura 7. Deformación de cristal de 2,662 átomos.

A continuación se muestra en la Figura 6 un resumen de las evoluciones de las simulaciones desde el estado inicial del cristal, calentamiento y al final del enfriamiento.

Conclusiones Manipular la materia a nivel atómico en prácticas de simulación nos ofrece hoy en día grandes beneficios para desarrollar e innovar nuevos materiales. El hacerlo requiere de amplios conocimientos en física teórica y en ciencia de materiales. La interpretación de resultados es especializada y precisa, sobre todo para la formulación de los modelos a practicar. La simulación no se queda únicamente en la interpretación, tiene un destino más profundo hacia la comparación con datos experimentales y bibliográficos. El contar con el software e instrumentación especializada es la desventaja de centros de estudio, quienes tienen que buscar la vinculación con centros de investigación que permitan al estudiante y al personal de investigación lograr cumplir con sus objetivos. La aplicación de esta técnica es amplia en los centros de investigación de nuevos materiales que buscan innovar y mejorar los productos actuales que se emplean en la industria y en el mundo moderno de la manufactura.

.

Figura 6. Amorfización de 2,662 átomos.

73

Revista Científica


Bibliografía

+

Casas, C.A. (2010). Simulación dinámica molecular de aleaciones amorfas de Cu-Zr-Al. Universidad de Chile. Pp. 1-30.

+

Lozada, O. (2013). Cinética de cristalización de una aleación binaria vítrea base Cu. México: UNAM.

+

Medina, J.J. (2010). Estudio de las fases amorfas y nanocristalinas del sistema Fe2Zr obtenidas por técnicas de mecano síntesis. Lima, Perú. Facultad de Ciencias, Pp. 1-6.

+

Koch, C. (2007). Nanostructured materials. William Andrew Publishing. Norwich, N.Y., U.S.A.

+

Díaz, J.A. (2012). Estudio del sistema Aluminio-Silicio líquido y amorfo. UNAM, IX.

+

Allen, M.P. (2004). NIC Series. Vol. 23. Pp 1-28. ISBN # 3-00-012641-4.

+

Bailey, N.P.; Schiotz, J. y Jacobsen, K.W. (2004). Physical Review, B69. 144205.

Revista Científica

+

Cheng, Y.Q.; Cao, A.J. y Sheng, H.W. (2008). E.Ma. Acta materialia. 56. 5263-5275.

+

White, R.J.; Luque,R.; Budarin, V.L.; Clark, J.H. y Macquarrie, D.J. (2009). Supported metal nanoparticles on porous materials: methods and applications. Chem. Soc. Rev. 38:481-494.

+

Santiago, C.U. (2011). Simulación de sistemas metálicos amorfos y porosos de elementos nobles. UNAM. Pp. 13-17.

+

Moriarty, P. (2001). Nanostructured materials. Rep. Prog. Phys., 64:297-381.

+

Aliseda, F.J. (2011). Diseño de un simulador de dinámica molecular en CORBA. Madrid: Universidad Carlos III, 2.

+

UIB-Universidad de LES ILLES BALEARS (2003). Simulaciones de dinámica molecular. Capítulo 3. QFC-T3, 27-28.

74


75

Revista CientĂ­fica


factor de ANÁLISIS DEL

potencia el É C T R I CO

Ing. Éder Alberto Flores López 1, Ing. María Yuridia Bahena Landa 2 y Dr. José Andrés Alanís Navarro3

Universidad Politécnica del Estado de Guerrero Taxco de Alarcón, Guerrero, México, C.P. 40321

1,2,3

Enviado: 31 de octubre de 2015 Aceptado: 7 de diciembre de 2015

aalanis@upeg.edu.mx

Resumen: En este documento, se presenta el estudio del factor de potencia que se realizó a una institución que trabaja en tarifa HM de la Comisión Federal de Electricidad (CFE), la cual corresponde a la tarifa horaria para un servicio general en media tensión con demanda de hasta 100 kW. El factor de potencia es un parámetro esencial para medir la calidad y la cantidad de la utilización de la energía eléctrica en relación a la potencia instalada. En este trabajo, se presenta un análisis estadístico del factor de potencia del año 2014, así como un estudio de la relación a través del cálculo del coeficiente de correlación lineal entre diferentes parámetros eléctricos asociados al factor de potencia y algunas medidas para corregirlo. Se realizó el cálculo del coeficiente de correlación lineal para determinar la relación entre la demanda máxima de potencia, el factor de potencia y el factor de carga de la instalación eléctrica. El coeficiente de correlación lineal entre las variables de demanda máxima y factor de potencia es de 57.40%, mientras que el coeficiente de correlación lineal entre el factor de potencia y el factor de carga es de 57.10%

+

Palabras clave: Factor de potencia, factor de carga, consumo de energía y coeficiente de correlación lineal. A b s t r a c t : The purpose of this paper is to present the study of the power factor observed in an institution that works at an HM rate of the Comisión Federal de Electricidad (CFE), which corresponds to the hour rate of a medium-tension general service with a demand of up to 100 kW. The power factor is an essential parameter to measure the quality and quantity of the use of electricity according to the installed power. This work presents a statistical analysis of the power factor in 2014, as well as a study

Revista Científica

76


of the relationship through the calculus of the lineal correlation coefficient among different electrical parameters linked to the power factor and some measurements to correct it. The calculus of the lineal correlation coefficient was made to determine the relationship between the maximum power demand, the power factor and the charge power of the electrical installation. The lineal correlation coefficient between the maximum demand variables and the power factor is 57.40%, on the other hand the lineal correlation coefficient between the power and the charge factor is 57.10%.

+ Keywords: Power factor, charge power, energy consumption and lineal correlation coefficient. Introducción La potencia eléctrica que demanda un aparato eléctrico es una transferencia de energía eléctrica por unidad de tiempo (Joule por segundo), ésta se relaciona con la intensidad de corriente eléctrica (I), la tensión eléctrica (V) y el ángulo de fase entre ambas señales ( ). Existen tres tipos de potencia eléctrica, éstas son:

Potencia activa (P): Es la potencia que se aprovecha para ser transformada en diferentes tipos de energía (térmica, mecánica, lumínica, etc.), su unidad es el Watt (W). (1)

Potencia reactiva (Q): Es la potencia que se utiliza para la generación de campos eléctricos y magnéticos, mas no para generar trabajo eléctrico útil, su unidad es Volt-Ampere reactivo (VAr). (2)

Potencia aparente (S): Es el vector resultante del triángulo de potencias, su unidad es Volt-Ampere (VA). (3)

77

Revista Científica


En el caso ideal, no existe un ángulo de fase entre las señales de tensión y corriente eléctrica, es decir, cuando = 0°, esto implica que la potencia activa (P) es máxima debido a que cos = 1; mientras que la potencia reactiva (Q) es mínima, ya que sen = 0. El factor de potencia de una carga, que representa la energía total que consume la instalación, está dado por la relación entre la potencia activa y la potencia aparente, ver ecuación (4); es decir, el cociente entre la cantidad de energía utilizada y la cantidad de energía disponible en un momento determinado. Si las señales de corriente y tensión eléctricas son señales perfectamente sinusoidales, el factor de potencia es igual a la función coseno del ángulo de fase ( ) entre ellas. Numéricamente, el factor de potencia oscila entre valores de 0 a 1 para indicar la mínima y máxima utilización de la energía, respectivamente. Cuando el factor de potencia es menor a 0.9, la CFE cobra una penalización económica por el deficiente aprovechamiento de la energía; cuando el factor de potencia es mayor a 0.9, realiza una bonificación, y si el factor de potencia es igual a 0.9 la CFE no penaliza ni bonifica económicamente al usuario (CFE, 2015). La adecuada administración del consumo de energía se ve reflejada en el pago por el consumo de la misma. La instalación de bancos de capacitores permite al consumidor reducir el gasto económico al mantener el nivel de consumo de potencia reactiva por debajo del valor de penalización, porque el banco de capacitores corrige el desfase entre las señales de tensión y corriente eléctrica (sen = 0). La adecuada gestión de la energía eléctrica tiene un efecto positivo sobre el medio ambiente debido a que comúnmente la energía es generada por turbinas cuyos combustibles son hidrocarburos que generan gases de efecto invernadero; es decir, cuando existe un eficiente consumo de la energía eléctrica se reduce el impacto ambiental. En el triángulo de potencias de la Figura 1 se muestra una referencia gráfica de qué es el factor de potencia, definido como la función cos y la relación entre las potencias P, Q y S en un circuito de corriente alterna (Schneider, 2010). Cuando el factor de potencia tiende a 1, implica que Q < P, ver ecuación (4).

Caso de estudio En la Figura 2 se presentan los datos del factor de potencia eléctrico y el factor de carga, expresados como porcentaje, para cada mes del año. El factor de carga es un número que indica el porcentaje de utilización de la demanda contratada durante un mes, en este caso la demanda contratada es de 280 kW. Se observa una tendencia entre ambos parámetros eléctricos, excepto en el mes de mayo. Para determinar la correlación entre dichos parámetros se realizó el cálculo del coeficiente de correlación, el cual permite mostrar la interrelación entre dos variables (Devore, 2008). El coeficiente de correlación lineal es de 57.10%, lo cual indica una correlación moderada entre ambos parámetros eléctricos.

Figura 2. Factor de potencia y factor de carga mensuales.

En la Figura 3 se presenta la información de la demanda máxima de potencia expresada en kilowatt (kW) de potencia eléctrica y el factor de potencia eléctrico expresado como porcentaje de cada mes del año. Se observa una tendencia entre ambos parámetros eléctricos, excepto en los meses de abril, julio y agosto. El coeficiente de correlación lineal es de 57.40%.

Figura 1. Triángulo de potencias.

(4) Figura 3. Demanda máxima y factor de potencia mensuales.

Revista Científica

78


Análisis estadístico En la Figura 4 se muestra el histograma del análisis estadístico del factor de potencia, se observa una frecuencia mayor para los valores entre 75% y 80% y sólo un valor entre 45% y 50%. El valor máximo registrado en el análisis está por debajo del valor que impone la CFE para evitar la penalización. En la Tabla 1 se presenta el resumen de las medidas de tendencia central y de dispersión (Spiegel y Stephens, 2009).

rresponde a una distribución leptocúrtica, es decir con una forma puntiaguda. El coeficiente de correlación lineal entre las variables de demanda máxima y factor de potencia es de 57.40%, mientras que el coeficiente de correlación lineal entre el factor de potencia y el factor de carga es de 57.10%; ambos parámetros presentan una correlación moderada con el factor de potencia. Para aumentar el factor de potencia se recomienda aumentar el factor de carga, debido a que éstas son proporcionales, aunque esto implica un aumento en la facturación por concepto de energía. Otra alternativa es solicitar una reclasificación ante la CFE con el objetivo de ajustar el consumo a la demanda máxima de la instalación, o solicitar a la CFE una reducción de la demanda contratada, con el objetivo de aumentar el factor de carga, sin aumentar el consumo de energía.

Figura 4. Histograma del factor de potencia.

Tabla 1. Resumen de las medidas de tendencia central y de dispersión del factor de potencia.

Conclusiones Los valores de las medidas de tendencia central obtenidos a partir del análisis estadístico del factor de potencia son: una media = 71.30%, la mediana = 74.40% y no presentan moda. En cuanto a las medidas de dispersión, los datos tienen una amplitud de 39%, una desviación estándar s = 10.2%, una varianza s2 = 104.1%, un coeficiente de variación CV = 14%, un sesgo negativo Sg = -1.44 y un coeficiente de kurtosis k = 2.86, lo cual co79

Revista Científica


Bibliografía

+

CFE (2015). Factor de potencia. 2015-10-30, de Comisión Federal de Electricidad Sitio web: http://www.cfe.gob. mx/industria/ahorroenergia/lists/ ahorro%20de%20energa/attachments/3/factordepotencia1.pdf

+

Devore Jay L. (Séptima edición: 2008). Probabilidad y Estadística para Ingeniería y Ciencias. Learning Editores, S.A. de C.V., Av. Santa Fe núm. 505, piso 12 Col. Cruz Manca, Santa Fe. C.P. 05349, México, D.F.

+

Schneider Electric España, S.A. (Cuarta edición: abril de 2010). Guía de diseño de instalaciones eléctricas. España: Tecfoto, S.L. Ciutat de Granada, 55. 08005 Barcelona. ISBN #84609-8658-6.

+

Spiegel M. y Stephens L. (2009). Estadística. México: Mc Graw Hill.

Revista Científica

80


81

Revista CientĂ­fica


R E V I S I Ó N D E L I T E R AT U R A D E LO S S I S T E M A S D E LO C A L I Z A C I Ó N D E O B J E TO S P O R

TECNOLOGÍA RFID Y NUEVAS TECNOLOGÍAS DE RADIOFRECUENCIA M.C. Henry Xochipiltecatl Carreto1,3 y Dr. Rogelio Álvarez Vargas2

Alumno del Posgrado CIATEQ Hidalgo. 2 CIATEQ Querétaro. 3 Nemilis S.R. L de M.I. 1

Enviado: 31 de octubre de 2015 Aceptado: 7 de diciembre de 2015

xochipiltecatl@yahoo.com

Resumen: Este trabajo es una revisión de literatura de la localización de objetos por tecnología Radio Frequency Identification (RFID) híbrida, se presenta un análisis de diferentes artículos donde se observa la viabilidad, los retos de esta tecnología, casos de aplicación y las nuevas oportunidades, mediante la búsqueda en bases de datos, patentes, sitios comerciales y journals web, desde el año 1997 al 2015. Se revisa el uso de sistemas de radio frecuencias híbridos que proponen mejorar los sistemas de localización, al final se plantean líneas de investigación y oportunidades en las nuevas tecnologías de radiofrecuencia emergentes como la Ultra Wide Band (UWB) y RuBee.

+

Abstract: This paper is a literature review of the location of objects by Radio Frequency Identification (RFID) hybrid, an analysis of different items where viability is observed, the challenges of this technology, application cases and new opportunities are presented by search databases, patents, trade sites and web journals, from 1997 to 2015 the use of hybrid radio frequency systems that aim to improve tracking systems is reviewed at the end lines of research involved and new opportunities in emerging RF technologies such as Ultra Wide Band (UWB) and RuBee.

+

Revista Científica

Palabras clave: RFID, localización y RFID híbrida.

Keywords: RFID, location and RFID hybrid.

82


Introducción La localización de objetos es una tarea importante en el campo de la computación [1] que ha utilizado diferentes tecnologías para ubicar y situar entidades desde infrarrojos, ultrasonido, video cámara, campo electromagnético hasta la Radio Frecuencia (RF) con el uso de etiquetas pasivas y activas. El objetivo de este trabajo es una revisión de la literatura de la tecnología de Radio Frecuencia (RF) activa, en especial el uso de tecnologías RF híbridas en algoritmos, redes, métodos, hardware (RFID pasiva, activa, GPS, ZigBee y BlueTooth), así como nuevas tecnologías de radio (RuBee, Ultra Wide Band - UWB, Unidad de Medición Inercial - Sistemas Microelectromecanicos IMU-MEMS,...) para observar la viabilidad, los retos de esta tecnología, casos de aplicación y nuevas oportunidades. La hipótesis a comprobar es que los sistemas híbridos de localización presentan mayor eficiencia al combinar dos tipos de RF u otra tecnología para mejorar las capacidades de localización de objetos. Esto debido a que actualmente los sistemas de localización presentan oportunidades de mejora en precisión, alcance, gestión de energía y velocidad de tratamiento de datos.

83

Materiales y métodos Se realizó una investigación bibliográfica en artículos del año 1997 al 2015 de la base de datos de ScienceDirect, Journal Cambridge, EBSCO HOST, IEEE Explore, ASTM, Emerald Insight, 10 patentes obtenidas del buscador de patentes PATENTSCOPE – WIPO, Google Patent Search e IMPI y sitios de empresas comercializadoras de sistemas Radio Frequency Identification – RFID, basándose en uno de los cuatro modelos según [2] y tomando el modelo de seguimiento de objetos (RFID activo) [2 y 3] y lectores cercanos [4, 5 y 6] se desprenden seis tópicos:

+

Monitoreo por Radio Frecuencia.

+

Seguimiento y localización de objetos.

+

Nuevas tecnologías de localización.

+

Tecnologías híbridas.

+

Algoritmos de localización.

+

Hardware.

Revista Científica


Desarrollo

Monitoreo por radio frecuencia El ciclo de vida de la tecnología [7, 8 y 9] también aplica para la tecnología RF. Para el caso de la RFID, en especial la RFID pasiva se encuentra en la etapa de madurez, como lo presenta el estudio de [10]. Para el caso de los RFID activos se observa crecimiento-madurez, la tecnología de localización RFID activo tiene 273 publicaciones. En la Figura 1 se observa una disminución de publicaciones del 6.23% en el 2015-2014 comparado con el 20132012.

Las otras tecnologías integradas buscan ser eficientes tanto en exactitud como en recursos, utilizando la infraestructura disponible de las Wireless Local Area Network (WLAN) como el WiFi que tiene un crecimiento importante, con infraestructura ya instalada y esto permite reducir el costo en la implementación de la localización.

Seguimiento y localización de objetos Se observa el uso en un 81% del RFID (41% Near Field Communication - NFC, 40% Ultra High Frequency – UHF y 1% en Semi activos), siendo el 19% restante de otras tecnologías (Global Telematic Transport System - GTTS, Global Positioning System GPS, WiFi, Video,…). En la Figura 3 se observa el porcentaje de uso entre RFID NFC y UHF, debido a las aplicaciones híbridas y las ventajas en precio que presenta el NFC y alcance de UHF.

Figura 1. Comportamiento de publicaciones sobre localización con RFID activo.

La disminución ocurre con el aumento de investigaciones en UWB, WiFi y BlueTooth en los últimos dos años y a que requiere de implementar infraestructura para llevar a cabo la localización. En el resultado de la búsqueda en bases de datos se observa el uso en un 38.5 % de la tecnología RFID, 15.4% integrando video y 46.1 % integrada con otras tecnologías (Mobilarea, RadarSat-2, Moving Object Databases – MOD, Scalable Traking Using Networked Sensors – STUN, TCP/IP, Moving Object Alarm System- MOAS). La Figura 2 muestra que el uso de RFID para localización es el más usado por encima del video.

Figura 3. Comportamiento de publicaciones sobre seguimiento y localización de objetos.

Nuevas tecnologías de localización Las tecnologías RF que se encuentran en introducción son BlueTooth, Zigbee, UWB, y RuBee, entre otras. Bluetooth tiene 173 publicaciones, se observa un crecimiento del 14% con respecto al periodo 2013-2012. En la Figura 4 se puede observar el crecimiento del 14% de los años 2015-2014 con respecto al 2013-2012, debido al uso de las mejoras en la tecnología a partir del BlueTooth 4.0, al reducir el consumo de energía BlueTooth Low Energy (BLE), con alcance de 100 metros y a su uso común en Smart Phones.

Figura 2. Comportamiento de publicaciones sobre Monitoreo por Radio Frecuencia. Revista Científica

84


Análisis estadí

Figura 4. Comportamiento de publicaciones sobre BlueTooth.

stico

Figura 5. Comportamiento de publicaciones sobre WiFi.

El crecimiento también se debe al incremento en aplicaciones basadas en Smart Phone y con integración en Tags RFID pasivos. Su atención va de aparatos móviles, industria, seguridad y sistemas expertos.

Se observa un crecimiento actual del WiFi del 13% del 20152014 con respecto al periodo del 2013-2012. Sus aplicaciones son parecidas al BlueTooth pero tiene una gran integración a la Tag de tecnología RFID. En las empresas líder de tecnologías de la Información (TI) mundiales, se observa una tendencia a utilizarlo como estándar de localización.

Las tecnologías de localización RF WiFi, por su parte tiene una gran actividad en los últimos años, con 121 publicaciones. En la Figura 5 se muestra el número de publicaciones sobre WiFi, se observa el crecimiento en publicaciones en gran medida por el hecho de que no requiere agregar infraestructura para la localización al interior.

La tecnología de localización en RF ZigBee, apenas cuenta con 50 publicaciones, de las cuales el mayor porcentaje se centra en los últimos dos años. En la Figura 6 se puede ver el porcentaje por periodo.

85

Revista Científica


Las tecnologías de localización RF RuBee, tiene tan solo cuatro publicaciones y todas se encuentran en los últimos cuatro años. La tecnología RuBee se observa en aplicaciones de localización y sistemas expertos, interactúa en gran medida con la tecnología RFID para redes, cadena de suministros y salud, tiene un mejor desempeño que la ZigBee y soporta mayor densidad de Tags. En la Figura 8, se muestra el concentrado de las publicaciones, donde se observa que aun cuando las investigaciones de RFID activa son numerosas, las que presentan un mayor crecimiento y representan una buena oportunidad de investigación son las basadas en otras tecnologías RF como son ZigBee, WiFi y en menor medida RuBee, UWB y Bluetooth. Figura 6. Comportamiento de publicaciones sobre ZigBee.

Asimismo se observa en esta tecnología un crecimiento vigoroso en los cuatro últimos años, esto se debe a que hay más desarrollos en esta tecnología aplicada a redes y sistemas expertos, utilizándose como red de sensores y en menor medida con la integración a la tecnología RFID como lector. La tecnología de localización RF UWB, tienen la mitad de publicaciones que el ZigBee, apenas 25, el 52% de las publicaciones son en los últimos cuatro años. La Figura 7 muestra el porcentaje de crecimiento de casi el 20% de los últimos dos años comparado con el 2013 y 2012.

Figura 8. Comportamiento de publicaciones sobre localización con RF.

En la Figura 9 se observa el concentrado de aplicaciones de localización; resalta que varias de las tecnologías apuntan a la localización de dispositivos móviles en mayor medida sin perder de vista la integración de sistemas expertos (Inteligencia artificial, Big Data, ERP) debido a los problemas de localización por las características de la tecnología RF (Línea de visión, objetos absorbentes de señal, alimentación de los dispositivos, gestión de gran cantidad de datos,…).

Figura 7. Comportamiento de publicaciones sobre UWB.

La UWB tiene similares aplicaciones que el Bluetooth, la cual es usada en gran medida para interactuar con la tecnología RFID en aplicaciones de cadena de suministro y red de sensores. Las virtudes que presenta son una mediana duración de batería, no tiene el problema tan acentuado de rebote o absorción de señal en metal, agua u otros objetos absorbentes de RF, buena precisión, alta estabilidad y quizá el punto en contra sea un corto alcance [11].

Revista Científica

86


el rendimiento del sistema en comparación con las técnicas anti-colisión de ALOHA y el método árbol-binario.

3. Reducir el error de localización

Figura 9 Aplicaciones de localización en las tecnologías RF.

Tecnologías RFID híbridas (TRH) Las TRH se encuentran con la combinación y/o modificación de algoritmos, redes, modelos y/o hardware; se observan en mayor medida en las patentes, también se observan en aplicaciones reales, donde buscan solucionar al menos seis temas:

1. Gestión de energía Las patentes [12, 13, 14 y 15] muestran el uso de un sistema RFID híbrido mediante Tags pasivos y activos, para recargar y conservar energía, además de aumentar la gamma de transmisión de señal, esto para prolongar la vida útil del dispositivo, evitando la energización continua del Tag. El artículo presentado por [16] muestra una red híbrida basada en RFID que mejora la gestión de energía cuando hay interferencia de otra red WiFi; [11] menciona que una mejor forma de gestionar energía es usando Tags pasivos con ZigBee, [17] propone un sistema que combina el Tag pasivo y activo del sistema RFID similar a las patentes [12, 13, 14 y 15] para un mejor manejo de la energía basado en un híbrido de Wireless Identification and Sensing Platform (WISP), con un Hybrid Power Management Unit (HPMU) para realizar tres modos de energía (pasivo y carga, semi-pasivo localización y modo apagado).

2. Evitar colisiones de señal La patente [18] presenta un Tag activo RFID - UWB y la implementación del Media Access Control (MAC) para reducir la posibilidad de colisión de señales, esto para reducir el costo. En el artículo [19] se menciona un sistema híbrido para evitar la colisión de señales denominado T-GDFSA, el cual reduce la potencia en los dispositivos cuando se produce una colisión, esto cuando se tiene presencia de una red WiFi con el estándar IEEE 802.15.4. que le da una mayor eficiencia, [20] propone un sistema parecido a [19] donde presenta un sistema híbrido anticolisión que mejora 87

La patente [21] muestra un sistema RFID activo, el cual se apoya de múltiples dispositivos para la localización entre ellos: antenas, lectores, switches de computadora y disparadores de señal, utilizando baja y alta frecuencia con el fin de proveer un menor error en la localización. Un artículo de [22] presenta un sistema híbrido compuesto de una antena que lee tanto Super High Frequency (SHF) RFID como luz, mediante un sensor óptico para recibir comunicación y como fuente de poder para el transpondedor. [23] presenta un sistema basado en Inertial Navigation System (INS) con sensores y nodos ZigBee usando algoritmos Particle Filter (PF) y Pedestrian para navegar, hay una mejora en la localizan y tiene un costo menor que utilizar UWB.

4. Mejorar la ubicación Las patentes [24, 25, 26 y 27] muestran una clara intensión de localización mediante RF, para ello utilizan un sistema híbrido donde se espera ubicar el Tag utilizando dos tipos de protocolos de señales RFID Activo y Bluetooth para la primera, RFID activo y GPS para la segunda (RFID, GPS, Global System for Mobile Communication - GSM, Geographical Information System - GIS y laser). En el evento IPSN-2015 [28] el uso de WiFi se observa en una gran cantidad de opciones de localización, integrando sensores, BlueTooth y otras tecnologías RF con el fin de aumentar la exactitud en la localización. Se han observado tendencias de que la tecnología de localización tendrá soporte en el WiFi. Existen otras tecnologías para la localización mediante magnetismo y la integración de red de sensores, se observa el uso de Inertial Measurement Unit (IMU) en Microelectromechanical Systems (MEMS), con la fusión de sensores para especificar a nivel de sistema la exactitud en la orientación usando velocidad, fuerzas gravitacionales, acelerómetros y giroscopios integrados (emulando la navegación de aeronaves) en lo denominado navegación por estima, realizando cálculos en seis dimensiones como ejes de navegación. También es importante recalcar que el uso de la UWB, y BlueTooth se vislumbran como tecnologías de soporte de segundo nivel para integrar sensores o la comunicación con WiFi, además de la integración de sensores geomagnéticos, electromagnéticos para obtener niveles de voltaje de acuerdo a la deformación de este (Geophones). La Figura 10 muestra las principales tecnologías utilizadas para la estimación de distancia con sistemas híbridos utilizando la infraestructura existente como WiFi y BlueTooth. Revista Científica


Figura 10. Tecnología de estimación de la distancia híbrida sin diseño de infraestructura.

Se observa el uso en general de WiFi cuando en la mejora de la ubicación no se agrega infraestructura, aparece entonces sistemas híbridos de localización basados en WiFi con la integración de sensores, BlueTooth, UWB y otras tecnologías RF con el fin de aumentar la exactitud en la localización. En la Figura 11 se muestran las principales tecnologías de localización híbridas cuando se agrega la infraestructura para la localización.

Figura 11. Tecnología de estimación de la distancia híbrida con diseño de infraestructura.

La Figura 11 muestra otras tecnologías para mejorar la localización, integrando magnetismo, red de sensores, Inertial Measurement Unit (IMU) en Microelectromechanical Systems (MEMS), con la fusión de sensores para especificar a nivel de sistema la exactitud en la orientación. También se pretende mejorar la localización usando velocidad, fuerzas gravitacionales, acelerómetros y giroscopios integrados que permiten emular la navegación de aeronaves, en lo denominado navegación por estima realizando cálculos en 6 dimensiones como ejes de navegación. En el artículo de [29] se presenta un sistema de análisis neural para optimizar la posición en 3D; [20] utiliza un sistema baRevista Científica

sado en ZigBee y RFID pasivo donde la combinación de estas tecnologías permite crear una red que estima la posición a bajo costo; [30] analiza el ROI (Return on Investment) de implementar un sistema RFID/MEMS, donde concluye que es viable y su implementación muestra ahorros; [31 y 32] por su parte proponen por separado un sistema basado en RFID pasivo y Wireless Local Area Network (WLAN) buscando reducir el costo del sistema, mejorar la ubicación y reducir el consumo de la energía, [32] además usa Fingerprinting y basa su sistema en el estándar IEEE 802.11 aprovechando la medición del RSS; [33] por su parte propone un sistema híbrido escalable basado en RFID y el algoritmo Simultaneous Localization and Mapping (SLAM) utilizando también RSS con un nivel de precisión de 0.3 metros; [34] presenta una antena para un sistema híbrido pasivo RFID UHF/UWB para leer un dispositivo RFID UHF-UWB; [35] utiliza sistema de seguimiento híbrido con alta exactitud y bajo costo computacional basado en Tags pasivos usando algoritmo PF y Weighted Centroid Localization (WCL).

5. Gestión de recursos y

análisis de decisión

En [36] se utiliza un Multiple Criteria Decision Making (MCDM) con una combinación de sistema complejo de optimización multicriterio denominado VIKOR, un Decision Making Trial And Evaluation Laboratory (DEMATEL) para desarrollar un modelo que mejora la decisión del uso de los activos médicos; [37] desarrolla un modelo híbrido denominado Cellular Based Approach Algorithm for Duplication Detection and Elimination (CBADE) para limpiar datos y evitar su duplicación arrojados por los RFID leídos esto en el sector salud; [38] utiliza RFID pasivos y activos como sensores soportados por una red ZigBee para crear una red de sensores híbrida basada en el estándar IEEE 802.15 para la logística de un centro de ayuda humanitario. En lo que se refiere a empresas [29] menciona que el Departamento de Defensa de los Estados Unidos desarrolla un Tag híbrido que incluye un RFID activo, GPS, satélite y sensores cuyo objetivo es dar seguimiento a bienes en cualquier lugar dentro de una cadena de suministro global.

6. Privacidad y seguridad [40] Mejora la privacidad de los Tags RFID con un esquema de autentificación híbrido basado en la encriptación Rabin Public-key.

Algoritmos de localización La precisión de la localización es lograda gracias a la integración de algoritmos que permiten mejorar la estimación de la posición y/o la distancia, por el tipo de medición y su naturaleza son aplicables algunos tipos de algoritmos, así para necesidades

88


de tiempo real se utilizan algoritmos como Trilateration, para aplicaciones donde se requiere observar la trayectoria del objeto se requieren de algoritmos más complejos y el uso de herramientas de software más robustas como bases de datos y análisis de información. En la Figura 12 se muestran los diferentes algoritmos de localización usados para la estimación de distancia y localización sin agregar infraestructura.

Figura 13. Algoritmos para la estimación de la distancia.

Se utilizan otros algoritmos en menor número como Non-Uniform Sequence Based Localization (NU-SBL), Phase-Locked Loop (PLL), Fast Fourier Transform (FFT), Sebastian Madgwick’s, SLAM, SpotON, Time Division Multiple Access (TDMA), Gaussian Process (GP), Extended Kalman Filter (EKF), Medium Access Control (MAC), Wireless Network Localization (WNL), Two Way Ranging (TWR) usado por UWB, ToF y Radio Interferometric Localization (RIL).

Figura 12. Hardware para la estimación de la distancia.

Aunque difieren poco entre aplicaciones integrando infraestructura y la pre instalada, es posible hacer notar que el algoritmo más usado para aplicaciones sin integración de infraestructura es el Particle Filter (PF) o también denominado Sequential Monte Carlo (SMC) que basa su funcionamiento estimando el estado interno de los sistemas con las perturbaciones aleatorias propias de un sistema aleatorio, se observa también el Pedestrian Dead Reckoning (PDR) el cual reduce la estimación del error mediante la estimación del siguiente punto dado observando mediciones, valores como aceleración, giro y datos magnéticos [40], el Fingerprinting es otro algoritmo muy usado el cual crea una distribución de la potencia de la señal, usa el mapa de las distribuciones para predecir la localización con la potencia de la señal leída [41] y el algoritmo Trilateration se observa mucho más práctico, ya que puede utilizar el Received Signal Strength Indication (RSSI) para estimar la distancia entre el emisor y receptor o bien el tiempo de llegada, Time of Arrival (ToA), o el tiempo de vuelo, Time of Flight (ToF), buscando la intersección de las señales, este puede funcionar con un solo emisor y receptor o bien agregar más dispositivos para estimar de mejor manera la distancia. En sistemas donde se agrega infraestructura se observa el uso de Time of Arrival Estimation (TDOA) la cual estima la posición del objeto a través de observar la diferencia en el tiempo de llegada de la señal entre antenas o sensores distribuidos. También se observa el ToA ó ToF. Véase la Figura 13.

89

Así como lo menciona [42] se observa el uso mayor de la técnica de localización utilizando ToA, TDoA y ToF, [43] algunos se centran en algoritmos de seguridad para sistemas RFID, [44] aplica Body Area Network (BAN) utilizando Sensor Nodes (SNs) y Wireless, [45] presenta un sistema de seguimiento en tiempo real para el monitoreo de vibración utilizando Real Time Location Systems (RTLS) y UWB, utilizando la técnica de Angle of Arrival (AoA), TDoA y Tag; [46] usa para la localización RFID activo. En [47] se hace uso de células para leer el RSSI de cada RFID con métodos de posicionamiento por triangulación y lectura del RSSI con el modelo logarítmico, polinomial, Cercanía del Origen (CoO) y Fingerprinting con RSSI. Por lo observado anteriormente el PDR, Fingerprinting, PF y Trilateriation son los algoritmos más utilizados después de ToA, TDoA y ToF para establecer la posición. En [3] se señala que a pesar de las tecnologías RF ya tienen numerosos artículos de investigación se puede observar que aún hay mucha investigación por realizar, en el campo del uso de tecnologías como el láser, el geomagnetismo y la fusión de sensores tienden a dar mejor estimación y precisión. En la web se observa que la tecnología RuBee y BueTooth ha sido desarrollada comercialmente de tal forma que ya tienen diversos productos que se utilizan con RFID activos, WiFi y Smart Phones, agregando la tecnología Anti Thef.

Revista Científica


En este review se puede observar que, de las cinco tecnologías pujantes en la localización, la Wifi, RFID, ZigBee están adquiriendo una mayor importancia y apoyo por su accesibilidad y desarrollo de aplicaciones entre usuarios, la UWB gracias a su banda de transmisión permite hacer medición de distancia sin tener el problema de objetos que se interpongan y la RuBee hasta el momento esta siendo propuesta por los nuevos fabricantes. En los magazines encontrados en la web se muestran diferentes tecnologías para la localización de objetos siendo una con mayores ventajas la Rubee contra la RFID activa y la propia UWD.

Hardware El hardware en la localización de objetos se utiliza para realizar la medición de la distancia, identificar al objeto y establecer comunicación. El hardware representa también una tendencia al usar el Smart Phone, microcontroladores y otro elemento hardware (TMote Sky, Arduino, Intel 5300 WiFi NIC, DiZiC y DecaWave, etc.) con casi el mismo nivel de importancia. Ver Figura 14.

Figura 15. Hardware para la estimación de la distancia agregando infraestructura.

Cuando se va a integrar la infraestructura, el uso común de hardware son los microcontroladores, tabletas de experimentación y sistemas hardware libre, integrando módulos RF y sensores. Mención especial es el uso del transreceptor UWB Decawave, ya habilitado para aplicaciones de localización de bajo costo para aplicaciones de localización en interiores y exteriores en tiempo real RTLS.

Tendencias Las tendencias según [3, 45, 46, 47 48, 49, 51 y 52] para los sistemas RFID son:

Figura 14. Hardware para la estimación de la distancia sin agregar infraestructura.

Se utiliza el Smart Phone para la localización tanto si se tiene infraestructura o si se carece de ella, su uso también se ve en combinación con otras tecnologías de soporte WiFi, BlueTooth o RF. Como se observa en la Figura 15.

Revista Científica

+ + + + + + + +

+

Sistemas de soporte de decisiones para los sistemas RFID. Estandarizar las frecuencias y códigos para un natural uso global. Integrar toda la cadena de producción para observar los beneficios (ERP y sistemas expertos). Robustecer la tecnología y la infraestructura RFID. Integrar los datos de los RFID activos y pasivos. Paquetes inteligentes, compras automáticas, reciclado inteligente y mayores oportunidades en marketing. Aumentar la seguridad en los cuidados médicos, redu- ciendo errores [50, 51, 52, 53 y 54]. Sistemas de tráfico dinámico mediante sistemas expertos, Dynamic and Automatic Traffic Light Control Expert System (DATLCES) [52, 53, 54 y 55]. Mejora en la capacidad de seguimiento y rastreo.

90


Una línea de investigación factible es desarrollar tecnología RF, para poder “acortar” y “suministrar” hardware para los sistemas de localización, sin tener que esperar a que comercialmente existan los kits de desarrollo para probar las hipótesis de investigación, estas tecnologías independientemente de que generan artículos novedosos, estarían creando nuevas formas de localización no solo a la utilización y modificación del hardware/software, se estaría desarrollando tecnología RF con mejores prestaciones que con las que actualmente trabaja el grueso de los investigadores. Otra línea de investigación factible y necesaria sería el desarrollo de nuevos algoritmos que permitan hacer el seguimiento y monitoreo del RFID activo de manera más eficiente que los mostrados en este estudio, además de integrar el RFID a los Data Warehouse, Business-Intelligence y el manejo del Big Data de varios terabytes generados al día según lo menciona [45, 46, 47 y 48].

Casos de aplicación Como lo menciona el artículo [55] la revolución en la tecnología de locación en interiores es inversa a la exterior, el 2015 será el año detonante de esta tecnología. Existe una apremiante necesidad entre las empresas líderes mundiales en tecnologías de la información por hacerse de la tecnología de localización interior y lo hacen de varias formas.

Comprando Startups

+

+

+

APPLE independientemente de comercializar el sistema Ibeacon con RSS. Wifislam, Wirefarer se suman a las próximas adquisiciones, bajo la tecnología WiFi y Smart Phone, APPLE también lanzó una APP para localización de interiores a finales de octubre del 2015. Cisco ha adquirido ThinkSmart Technologies StartUp irlandesa de análisis de datos de localización por WiFi.

+

AT&T, Sprint, T – Mobile y Verizon Wireless, Association of Public Safety Communications Officials (APCO) y la National Emergency Number Association (NENA), desarrollan desde el 2011 mediante tecnología móvil, la localización en interiores en 3D mapeado por GIS, con el uso del Smart Phone.

Desarrollos

+

+

+ +

La universidad de Oxford desarrolla ISIS, un sistema de localización basado en Wi-Fi, Access Point (AP), RSSI, Fingerprinting, Software Development Kit (SDK) y API, esto para la administración de la cadena de suministro. Nanyang Technological University (NTU) ya ha desarrollado un sistema funcional de localización en interiores en el 2012. ABI desarrolló un sistema basado en UWB y etiquetas. Sasken muestra un servicio de localización basado en Smart Phone.

Gestionando talento

+

Microsoft realiza año con año un evento donde reúne a las universidades y centros de investigación para mostrar sus avances denominado International Conference on Information Processing in Sensor Networks (IPSN) [28] donde se observan las investigaciones en un concurso que determina que sistema tiene un mejor desempeño y exactitud.

Hewlett-Packard Co (HP) adquiere Aruba Networks Inc., fabricante de infraestructura WiFi, que a su vez había adquirido a Meridian, una de las más fuertes compañías Startup de localización de interiores por WiFi. (http://meridianapps.com/).

Cooperación entre empresas: 91

+ +

INFOSOFT en colaboración con MEPA desarrollan tecnología basada en IOS y Android para la localización de objetos en interiores. La Universidad de Washington y ESRI, empresa desarrolladora de software GIS, utilizan aplicaciones en conjunto con un GIS para la localización en interiores, con la tecnología ZigBee. Revista Científica


Conclusiones Basándose en el número de publicaciones se observa que las investigaciones de RFID para monitoreo de objetos se están incrementando, así como el número de StartUps creadas/compradas y la realización de diferentes eventos a nivel mundial donde se exponen las tecnologías relacionadas con la temática. Se observa que la tecnología NFC tiene la misma importancia que la UHF, debido esto a que en la NFC se requiere menor consumo de energía que la UHF y se observa en varias aplicaciones donde sistemas híbridos combinan las fortalezas de las tecnologías pasivas y activas. Las nuevas tecnologías de RF como BlueTooth, ZigBee, UWB y RuBee muestran un importante avance en el número de investigaciones al mejorar las capacidades técnicas en la medición de distancias, se observa que el incremento del uso de la tecnología es directamente proporcional a la venta de kits de desarrollo como UWB, ZigBee y BlueTooth. Los sistemas híbridos que combinan diferentes tecnologías, algoritmos y modelos tienden a tener una mejor precisión y desempeño que otras tecnologías. De ahí que las patentes incluyan sistemas híbridos con ambas tecnologías RFID (activa y pasiva), para compensar las deficiencias de cada una de ellas y aprovechar sus bondades. El estudio de los algoritmos de localización se centra en el tiempo de arribo de la señal (RSSI) y en algoritmos que no consuman tantos recursos de cómputo. También se observa el uso de diferentes algoritmos de acuerdo al tipo y nivel de infraestructura. Resalta la importancia de los algoritmos Fingerprinting, PF y Trilateration como los más usados. Finalmente se observa una tendencia muy importante para usar la tecnología WiFi y el SmartPhone para localización impulsado por las grandes compañías de tecnologías de la información, recientes investigaciones y desarrollos debido en gran medida a que tienden a utilizar la infraestructura WiFi que existe en casas, empresas y el uso casi generalizado del Smart Phone. La hipótesis propuesta al principio es aceptada con la demostración de las patentes y artículos mostrados en el apartado de tecnologías RFID híbridas.

Revista Científica

92


+

TRAPPEY C., HSIN T, 2009, An exploratory RFID patent analysis, Management Research News, Vol. 32 Iss 12 pp. 1163 - 1176 Permanent link to this document: http://dx.doi.

+

[ 8 ] ERNST, H. 1997, The use of patent data for technological forecasting: the diffusion of CNC technology in the machine tool industry, Small Business Economics, Vol. 9, pp. 361-81.

Bibliografía [ 1 ] KIM Y, SUKYOUNG L., 2014 , Energy-efficient wireless hospital sensor networking for remote patient monitoring, Information Sciences, Volume 282, 20 October 2014, Pages 332-349. [ 2 ] GARRIDO S. Contribution of RFID technology to better management of fashion supply chains Department of Business and Economics, University of Beira Interior, Covilha˜, Portugal.

+

[ 3 ] RINGSBERG H., 2013,Effects on logistic operations from RFID- and EPCIS-enabled traceability, British Food Journal, Vol. 116 Iss 1 pp. 104 - 124 Permanent link to this document: http://dx.doi. org/10.1108/BFJ-03-2012-0055 Downloaded on: 20 July 2015, At: 19:01 (PT).

+

[ 4 ] ZHAO Y., LIU Y., LIONEL M,. 2007. VIRE: Active RFID-based Localization Using Virtual IEEE Explore Elimination Department of Computer Science and Engineering The Hong Kong University of Science and Technology, Hong Kong.

+

[ 5 ] BAHL P., PADMANABHAN V. N., 2000, RADAR: An In-Building RF-based User Location and Tracking System, in Proceedings of IEEE INFOCOM.

+

[ 6 ] YIN J., YANG Q., NI L.M., 2005, Adaptive Temporal Radio Maps for Indoor Location Estimation, Proc. of the 2005 IEEE Annual Conference on Pervasive Computing and Communications (PerCom 2005), Hawaii, pp. 85-94, March 2005.

+ 93

[ 7 ] TAGHABONI F.,

+ +

[ 9 ] HSU, F.C. 2006, Intelligent patent document analysis based on clustering and categorization methods, PhD thesis, Department of Industrial Engineering and Engineering Management, National Tsing Hua University, Hsinchu.

+

[ 10 ] TRAN N, MICHAEL R. 2009. Active composite RFID tag for object localization and instruction Patente US 8094012 B1.

+

[ 11 ] CASTANO, B.; RODRIGUEZ-MORENO, M. , 2010. A ZigBee and RFID hybrid system for people monitoring and helping inside large buildings. Industrial Electronics & Applications (ISIEA), Pages: 16 - 21, DOI: 10.1109/ ISIEA.2010.5679504.IEEE Conference Publications.

+

[ 12 ] BEIGEL M., TUTTLE J., 2005. Semi-active RFID tag and related processes, Patente US 8237561 B2.

+

[ 13 ] UNG K., 2013, Active rfid tag with passive interrogator Patente WO 2014107267 A1, US20140183261 Boeing.

+

[ 14 ] BAUCHOT F., CLEMENT J., MARMIGERE G., PICON J., 2013. Location localization, Patente US 8362877 B2,

US8207820, US20090315679, US20120218088, IBM.

+

[ 15 ] PEEN O., 2007, System and method of tracking objects, Patente WO 2011084104 A1, Agency For Science, Technology And Research.

+

[ 16 ] NEDELCU A., DUGULEANA M., SANDU F., 2014. Evaluating the Energy Overhead Generated by Interferences within the 2.4 GHz Band for a Hybrid RFID Network, ScienceDirect. 24th DAAAM International Symposium on Intelligent Manufacturing and Automation, 2013.

+

[ 17 ] DONG Y., WICKRAMASINGHE A., XUE H., AL-SARAWI S., RANASINGHE D., A Novel Hybrid Powered RFID Sensor Tag. Auto-ID Lab, School of Computer Science,School of Electrical and Electronic Engineering, University of Adelaide, 5005 Adelaide, Australia.

+

[ 18 ] RAPHAELI D., KAPLAN G., MENKES A., SELA G., MARINOV I., RAM U., 2007. Array of very light readers for active rfid and location applications, Patente US 20100164690 A1, EP2115714A2.

+

[ 19 ] YANG J., WANG Y., CAI Q., ZHAN Y. 2015. A Novel Hybrid Anticollision Algorithm for RFID System Based on Grouped Dynamic Framed Recognition and Binary Tree Recursive Process. International Journal of Distributed Sensor Networks. 8/26/2015, Vol. 2015, p1-12. 12p.

+

[ 20 ] MEYER J., FRANKE S., GECK B., OVERMEYER L., 2013. Hybrid antenna design for an optically powered SHF RFID transponder

applicable in metals. Research Paper. International Journal of Microwave and Wireless Technologies, 2013, 5(3), 241–247. Cambridge University Press and the European Microwave Association, doi:10.1017/ S1759078713000585.

+

[ 21 ] , 2014, Indoor positioning system based on active multifunctional RFID tags, Patente CN 103777174 A.

+

[ 22 ] CHOI, S., LEE, J., KIM S., TCHAH, K., 2010. Hybrid anti-collision method based on maximum throughput for RFID system. Academic Journal. Electronics Letters. 9/16/2010, Vol. 46 Issue 19, p1346-1348. 3p. 1 Chart, 3 Graphs. DOI: 10.1049/el.2010.1304.

+

[ 23 ] Wang, H., Bauer, G., Kirsch, F., Vossiek, M., 2013. Hybrid RFID system-based pedestrian localization: A case study. Positioning Navigation and Communication (WPNC), Pages: 1 - 6, DOI: 10.1109/ WPNC.2013.6533296. IEEE Conference Publications.

+

[ 24 ] BRIDGELALL R., 2004, Hybrid bluetooth/ RFID based real time location tracking Patente US 6717516 B2, DE60141385D1. Symbol Technologies.

+

[ 25 ] MCBRIDE W., 2012, RFID-based person location device, Patente US 8253570 B1, McBride.

+

[ 26 ] CHAN K., 2009, Method and system for tracking objects using Global Positioning System (GPS) receiver built in the Active Radio Frequency ID (RFID) receiver, Patente US 20090309731 A1, Kwok Wai Chan.

Revista Científica


Bibliografía

+

[ 27 ] SOLIMAN S., System and method for 3-D position determination using RFID, Patente US 7489240 B2, CN101208728A. Qualcomm.

+

[ 28 ] MICROSOFT INDOOR LOCALIZATION COMPETITION - IPSN 2015 http://research.microsoft.com/ en-us/events/indoorloccompetition2015/

+

[ 29 ] JACHIMCZYK, B., DZIAK, D., KULESZA, W., 2014. RFID - Hybrid Scene Analysis-Neural Network system for 3D Indoor Positioning optimal system arrangement approach. Instrumentation and Measurement Technology Conference (I2MTC) Proceedings, 2014 IEEE International.

+

[ 30 ] DOERR K., GATES W., MUTTY J., 2006. A hybrid approach to the valuation of RFID/MEMS technology applied to ordnance inventory. International Journal of Production Economics, Volume 103, Issue 2, October 2006, Pages 726-741.

+

[ 31 ] HASANI M., TALVITIE J., SYDÄNHEIMO L., LOHAN E., UKKONEN L. 2015. Hybrid WLAN-RFID Indoor Localization Solution Utilizing Textile Tag. IEEE ANTENNAS AND WIRELESS PROPAGATION LETTERS, VOL. 14, 2015.

+

[ 32 ] SPINELLA S., IERA A., MOLINARO A., 2010. On Potentials and Limitations of a Hybrid WLAN-RFID IndoorPositioning Technique. Hindawi Publishing Corporation, International Journal of Navigation and Observation. Volume 2010, Article ID

+

[ 33 ] FORSTER C., SABATTA D., SIEGWART R., SCARAMUZZA D., 2013. RFID-Based Hybrid Metric-Topological SLAM for GPS-denied Environments. IEEE International Conference on Robotics and Automation (ICRA). Karlsruhe, Germany, May 6-10.

+

[ 34 ] CRUZ C., COSTA J., FERNÁNDEZ C., 2013. Hybrid UHF/UWB Antenna for Passive Indoor Identification and Localization Systems. IEEE Transactions on Antennas & Propagation. Jan2013, Vol. 61 Issue 1, p354-361. 8p.

+

[ 35 ] YANG L., CAO J., ZHU W., 2012. A Hybrid Method for achieving High Accuracy and Efficiency in Object Tracking using Passive RFID. 2012 IEEE International Conference on Pervasive Computing and Communications, Lugano.

+

[ 36 ] LU M., LIN S., TZENG G., 2013. Improving RFID adoption in Taiwan’s healthcare industry based on a DEMATEL technique with a hybrid MCDM model. Decision Support Systems 56 (2013) Elsevier. Institute of Management Science, National Chiao-Tung University, 1001, Ta-Hsueh Road, Hsin-Chu 300, Taiwan.

+

[ 37 ] ANNY LEEMA A., HEMALATHA M., 2012. Proposed prediction algorithms based on hybrid approach to deal with anomalies of RFID data in healthcare.Karpagam University, Coimbatore, India.

+

[ 38 ] YANG H., YANG L., YANG S., 2011. Hybrid Zigbee RFID sensor network for humanitarian logistics centre management. Journal of Network and Computer Applications, Volume 34, Issue 3, May 2011,

Revista Científica

Pages 938-948.

+

[ 39 ] RYU E., TAKAGI T., 2009. A hybrid approach for privacy-preserving RFID tags. Journal Computer Standards & Interfaces archive Volume 31 Issue 4, June, 2009 Pages 812815. Elsevier Science Publishers B. V. Amsterdam, The Netherlands, The Netherlands.

+

[ 40 ] QUA X, MATSUSHITAB D., YOSHIDAC T., HAND M., 2012, Case study on father–child communication in Chinese urban apartment houses through active RFID technology. Received 15 August 2011, Accepted 28 Septiembre 2011, Available online 24 April 2012. Open Access funded by Higher Education Press Limited Company.

+

[ 41 ] FUHR P, RIDGE O., 2008. National Laboratory Sensors. “Asset Tracking in Industrial Settings—A Review of Wireless Technologies Part 3: RSSI-, RuBee-, and UWB-Based Systems“ Página WEB. 2008. http://www.sensorsmag.com/networking-communications/asset-tracking/ asset-tracking-industrialsettings%E2%80%94a-review-wireless-technol-1500. (27/05/2015).

+

[ 42 ] KIM Y, LEE S., 2014, Energy-efficient wireless hospital sensor networking for remote patient monitoring, Information Sciences, Volume 282, 20 October 2014, Pages 332-349.

+

[ 43 ] SHIAU J, HSU J., CHIA Y., System and method for positioning active RFID tag, Patente US 8339243 B2, WO2008104981A2, WO2008104981A3. Sandlinks.

+

[44 ] FU Q., RETSCHER G., Active RFID Tri-

lateration and Location Fingerprinting Based on RSSI for Pedestrian Navigation, (Institute of Geodesy and Geophysics, Vienna University of Technology, Austria).

+

[ 45 ] RANKY P., 2006, An introduction to radio frequency identification (RFID) methods and solutions, Assembly Automation, Vol. 26 Iss 1 pp. 28 - 33 Permanent link to this document: http://dx.doi. org/10.1108/014451 50610645639 Downloaded on: 20 July 2015, At: 19:03 (PT).

+

[ 46 ] MEHRJERDI Y., 2011, RFID and its benefits: a multiple case analysis, Assembly Automation, Vol. 31 Iss 3 pp. 251 - 262 Permanent link to this document: http://dx.doi. org/10.1 108/01445151111150596 Down loaded on: 20 July 2015, At: 19: 01 (PT).

+

[ 47] CONNOLLY, C., 2007, Sensor trends in processing and packaging of foods and pharmaceuticals, Sensor Review, Vol. 27 No.

+

[ 48 ] JANSEN, R., KRABS, A., 1999, Automatic identification in packaging: radio frequency identification in multiway systems, Packaging Technology and Science, Vol. 12 No. 5, pp. 229-34.

+

[ 49 ] KOHN, C., HENDERSON, C.W., 2004, RFID-enabled medical equipment management programs to reduce costs, Managed Care Weekly Digest, Vol. 5, pp. 94-5.

+

[ 50 ] WEN, W., 2008, A dynamic and automatic traffic light control expert system for solving the road congestion problem, Journal of Expert Systems and Applications, Vol. 34, pp. 2370-81.

94


Bibliografía

+

[ 51 ] Yilmaz, A., Javed, O., and Shah, M. 2006. Object tracking: A survey. ACM Comput. Surv. 38, 4, Article 13. (Dec. 2006), 45 pages. DOI = 10.1145/1177352.1177355 http://doi.acm. org/10.1145/1177352.1177355.

+

[ 52 ] YUYA M, Kei H., Katsuhiko K., Nobuo K., 2014. Pedestrian Dead Reckoning Based on Human Activity Sensing Knowledge, UBICOMP ‘14 ADJUNCT, SEPTEMBER 13 - 17, 2014, SEATTLE, WA, USA.

+

[ 53 ] NAVARRO E., Peuker B., Quan M., Clark C., Jipson J., Wi- Fi Localization Using RSSI Fingerprinting, Computer Engineering, California Polytechnic State University; USA.

+

[ 54 ] LO N.W., YEH K., YEOB C. 2008, New mutual agreement protocol to secure mobile RFID-enabled devices. Information Security Technical Report, Volume 13, Issue 3, August 2008, Pages 151-157.

+

[ 55 ] Wallenstein C., 2015. Move Over GPS: Get Ready for Indoor Location. Business NH magazine.Mar 30, 2015.

95

Revista Científica


+ CONSEJO EDITORIAL MISIÓN El objetivo principal del Consejo Editorial es divulgar mediante una revista de corte científico, de publicación semestral, todos aquellos logros realizados por los investigadores de nuestra Universidad y sus aportaciones a beneficio de la sociedad.

ESTILO

+ MANUAL VISIÓN

Con la difusión de estos avances obtendremos el reconocimiento de la comunidad y lograremos el posicionamiento de la Universidad Tecnológica de Ciudad Juárez, en áreas de desarrollo científico.

+ ATRIBUCIONES

Las siglas deben venir en su forma destacada (p. ej. UTCJ, Universidad Tecnológica de Ciudad Juárez).

l .- El Consejo Editorial tiene como objetivo cuidar y promover la imagen y prestigio de la UTCJ.

Señalar la naturaleza del trabajo: artículo de investigación, avance, etc.

II.- Realizar la corrección de estilo y todos los cambios ortográficos y de redacción que sean necesarios para mejorar la calidad de los artículos a publicar.

El título de la obra debe ser colocado en la parte superior del documento, en forma centrada, destacado con negritas.

III.- Verificar que todas las obras cuenten con los requisitos editoriales que marca nuestro Manual de Estilo y Normas de Publicación. IV.- Contribuir en la difusión y distribución de nuestra revista científica. V.- Evaluar y supervisar el proceso editorial. VI.- Vigilar la calidad de las obras que lleven el sello editorial.

+ LINEAMIENTOS

I.- Los artículos que se publiquen serán responsabilidad del autor. II.- Cada artículo deberá contar con las siguientes características y lineamientos editoriales: a) Tener como base los resultados de una investigación científica, original y relevante. b) Una vez publicado el artículo, los derechos de autor pasan a la Universidad Tecnológica de Ciudad Juárez. c) Cubrir parte del estado de conocimiento vigente. d) Estar escritos con un lenguaje adecuado y que atiendan la serie de condiciones formales y de contenido propio de un texto científico. Es importante que cada trabajo de investigación cuente con crédito de autor y/o colaboradores, crédito de fotografías (si las hay) y un correo electrónico.

Todos los textos deben incluir nombre completo del autor y/o colaboradores, grado académico y área de especialización, así como también un correo electrónico. Los nombres de los autores deben de aparecer en el orden de sus contribuciones. Anexar en el trabajo de investigación un currículum de autor (es). El solicitante y/o autor se compromete a estar disponible para atender cualquier asunto relacionado con su obra. En todos los casos, los manuscritos entregados no serán devueltos. La fecha de entrega del material será determinado por el editor y este a su vez se lo hará del conocimiento al autor. El autor debe incluir un resumen breve de los contenidos del artículo.

Los trabajos deberán enviarse al correo electrónico: editorial@utcj.edu.mx Para mayor información comunicarse al tel. 656 6490604.

+ FORMATOS DE ENTREGA El material tiene que ser entregado en procesador de texto WORD, con letra tipo Arial, a 12 puntos, con espacio sencillo y alineación a la izquierda. Formato carta, extensión mínima 3 cuartillas y un máximo de 10, incluyendo notas y bibliografía. Utilizar sangría francesa al inicio de cada párrafo. Márgenes de 3 cm. superior y 2.5 cm. de derecha e izquierda. Todas las páginas deberán estar enumeradas en secuencia, comenzando por la portada.

96


+ ESTRUCTURA DEL artículo Título en inglés y español No debe ser mayor a 15 palabras y describir el contenido del artículo de una forma clara, exacta y concisa.

Las tablas tienen que ser menores de 17 cm. x 20 cm., enlistadas en números arábigos y tener un título, y/o leyenda en la parte superior para explicar cualquier abreviatura utilizada en ella, del mismo modo estar insertas dentro del cuerpo del artículo.

Abstractos

Fotografías e ilustraciones

Incluir los resúmenes en español y en inglés (abstract), de 150 palabras, cada uno. Debe de indicar clara y brevemente el propósito de la investigación, de los procedimientos básicos, de los resultados y de las conclusiones principales. Evite el uso de abreviaturas y de términos altamente especializados en el extracto.

Palabras clave Presentar cinco palabras clave, en inglés y en español, estos términos deben de aparecer debajo del resumen, en la misma página. Se pueden utilizar palabras solas o términos compuestos.

Abreviaturas Las abreviaturas deben de ser definidas la primera vez que se mencionan. Si fuera esto en el resumen, entonces debe de definirse de nuevo en el cuerpo principal del texto.

Introducción Este apartado plantea el propósito del artículo sin un despliegue extensivo del tema, utilizando solo las referencias más pertinentes. Indique las razones que motivaron a la investigación y cuando corresponda, dé cuenta de la hipótesis postulada.

Materiales y métodos Se describe el diseño de la investigación y se explica cómo se llevó a la práctica, justificando la elección de métodos, técnicas e instrumentos, si los hubiera, teniendo en cuenta la secuencia que siguió la investigación.

Resultados Se describen los resultados del estudio, resaltando los hallazgos relevantes (incluso los resultados contrarios a los objetivos propuestos, si es el caso). Los resultados se presentarán utilizando texto, tablas e ilustraciones.

Discusión Interpretación de los resultados y su significado sobre el trabajo de otros autores.

Agradecimientos Al patrocinio o proyecto son lo más breve posible.

Las tablas y figuras 97

Figuras numeradas, en número arábigo seguido de pie de figura para la parte inferior de cada una de ellas e insertadas dentro del cuerpo del artículo y no al final de este.

A fin de garantizar los más altos estándares para la calidad de las ilustraciones, estás deben de ir a una resolución de 300 dpi´s. Las figuras deben de ser claras y fáciles de leer.

Todo material de foto e ilustraciones deben de enviarse en un archivo del artículo. Como también en formato aparte JPG o PSD, con una resolución mínima de 300 dpi´s, en tamaño real. Tanto las tablas, figuras, fotografías e ilustraciones se entregarán en procesador Excel.

Citación Para la citación textual larga, de 40 palabras o más, es necesario separar el texto citado y disminuir el tamaño de la tipografía un punto. Del mismo modo, se deben aumentar los márgenes laterales 1 cm. y colocar inmediatamente después (autor, año), al que se cita.

Fecha Se cita al final del trabajo, precedido del lugar donde se redactó el original.

Referencias bibliográficas La exactitud de las referencias es responsabilidad de los autores. Se incorpora al final del artículo, numeradas, incluyendo en orden alfabético todas las obras citadas en el texto y en los pies de página. El autor debe revisar cuidadosamente que no hay omisiones e inconsistencias entre las obras citadas y la bibliografía. La redacción se presenta de la siguiente manera: Nombre del autor y colaboradores (en su caso), comenzando con el apellido paterno, seguido de los nombres. Año de la publicación entre paréntesis. Título del libro en itálicas (cursivas). Edición (de la segunda en adelante). Casa editorial, ciudad de publicación, país y páginas totales. Ejemplo de referencias: Libro: Wiener, Norbert, Cibernética: o el control y la comunicación en animales y máquinas, Barcelona, Tusquets, 2003. Artículo de revista: Ádem, José, 1991, ´Algunas consideraciones de la prensa en México´, Avances y Perspectiva, vol. 10, abril-junio pp. 168-170 Páginas web: Ramírez, E., 2012, Economía futura en América Latina. Recuperado de http://www.economico-online.com.


UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015  

Segunda Edición de UTCJ Theorema, revista enfocada en investigación científica.

UTCJ Theorema - Revista Científica / Semestral, periodo julio-diciembre 2015  

Segunda Edición de UTCJ Theorema, revista enfocada en investigación científica.

Advertisement