UTCJ Theorema Revista Científica edición 13

Page 1

Revista CientĂ­fica

1


2

Revista CientĂ­fica


DIRECTORIO

CONSEJO TÉCNICO

M.C. Consuelo Catalina Fernández Gaxiola Universidad Tecnológica de Ciudad Juárez Presidente del Consejo Técnico

Gobierno del Estado

Dr. Iván Juan Carlos Pérez Olguín Universidad Autónoma de Ciudad Juárez (SNI C) Director de Obra

Lic. Javier Corral Jurado

Gobernador Constitucional del Estado de Chihuahua

Dr. Manuel Arnoldo Rodríguez Medina

Dr. Carlos González Herrera

Instituto Tecnológico de Ciudad Juárez

Secretario de Educación y Deporte

Secretaría de Educación Pública Dr. Herminio Baltazar Cisneros

Coordinador General de Universidades Tecnológicas y Politécnicas

Dra. Lucia Monserrat Pérez Navarro Instituto Nacional de Ciencias Médicas y Nutrición

Dra. María de los Ángeles López Martínez Universidad Tecnológica de Ciudad Juárez

Dr. Manuel Iván Rodríguez Borbón Universidad Autónoma de Ciudad Juárez (SNI C)

Universidad Tecnológica de Ciudad Juárez

Lic. Guillermo José Álvarez Terrazas

Rector

Dr. Rodrigo Villanueva Ponce Delphi Electrical Centers (SNI C)

Dr. Manuel Alonso Rodríguez Morachis Instituto Tecnológico de Ciudad Juárez

Lic. Francisco Javier Reza Pacheco

Abogado General

Mtra. Lorena Alvarado

Secretaria Académica

Lic. Adrián García Castro

Director de Vinculación

M.E.R. José Luis Peinado Martínez

Director de la Carrera de Mecatrónica y Energías Renovables

M.A.N.I. Javier Zepeda Miranda

M.E. Ricardo Pérez Santellana

M.I. Ana Ivonne Morales Cervantes

Dr. Edwards Antonio Cabrera

Director de las Carreras Financiera y Fiscal, Innovación de Negocios y Mercadotécnia

Universidad Tecnológica de Ciudad Juárez

M.C. Ana Eréndira Rascón Villanueva

Dra. Rosa Elba Corona Cortez

Director de la Carrera de Logística Internacional

Director de las Carreras de Mantenimiento Industrial y Nanotecnología

Directora de las Carreras Terapia Física y Protección Civil y Emergencias

Dirección de las Carreras Procesos y Operaciones Industriales y Tecnologías de la Información

Dra. Nancy Angélica Coronel González Instituto Tecnológico de Ciudad Juárez

M.I.I. David Oliver Pérez Olguín Instituto Tecnológico de Los Mochis

M.C. Miriam Margarita Ruíz Sánchez Universidad Tecnológica de Ciudad Juárez

M.A. Luis Alonso De Santiago Romero Universidad Tecnológica de Ciudad Juárez

M.C.S.P. Alfredo Alfonso Cabel Acevedo Universidad Tecnológica de Ciudad Juárez

UTCJ THEOREMA Revista Científica

CONSEJO EDITORIAL Lic. María Teresa Álvarez Esparza Subdirectora de Extensión Universitaria

Lic. Idalí Meléndez Domínguez Jefe del Departamento de Prensa y Difusión

Lic. José Castro Castruita Universidad Tecnológica de Ciudad Juárez UTCJ THEOREMA REVISTA CIENTÍFICA Edición No. 13, Enero - Junio 2020 Av. Universidad Tecnológica No. 3051 Col. Lote Bravo II C.P. 3265 Ciudad Juárez, Chihuahua Tels. (656) 649.06.00 Ext. 3870

Coordinador editorial y diseñador gráfico

Lic. Dennis Adilene Ramos Pacheco Diseñador gráfico

https://utcjtheorema.wixsite.com Revista Científica

3


CONTENIDO Artículo arbitrado #1

08

Análisis del escenario propicio para la implementación de un modelo de gestión ambiental en el Instituto Tecnológico superior de Puerto Peñasco Chacón y Javier Ortiz Vidaca

Yolanda Flores Ramírez, Germán Espino Olivas y José Ángel Pendones

14

Carlos Alberto Gómez Álvarez

Rosa Elizabeth Díaz De La Cruz, Alonso Reyes Bárbara Muñoz, Ivett

22

David Ley Domínguez, César Leobardo Ordóñez Romero, Giuseppe

Beatriz Díaz de León Porras y Diana Mireya Nieto Hipólito

Pirruccio, Francisco Miguel Ascencio Aguirre y

32

Optimización del recorrido en la disposición de desperdicios sólidos industriales mediante dispositivo de medición y comunicación

Ana Karla Bobadilla Valencia

Artículo arbitrado #13

Lizeth Guadalupe Muñoz Martínez, Alix Xiomara Nolasco Romero, Frida

Rodríguez Picón

42

Desarrollo de una red neuronal artificial como apoyo en el diagnóstico de enfermedad renal crónica

Paola Olguin Galván, Sandra Kareli Romero Mendoza y Carlos Omar González Morán

Artículo arbitrado #14

Socorro Flores Serrano

48

Alexa Valeria Leyva Treviño, Brenda Stefanía Pérez Martínez, Daniela

Aplicación de la función de pérdida de taguchi para optimización multirespuesta en manufactura

Lisseth Rodríguez Galindo, María Fernanda Ordaz Ramírez y Karla María

Armando Mares Castro

Artículo arbitrado #15

Nava Aguirre

56

Propuesta de una metodología de análisis bursátil para la construcción de portafolios de inversión

Alberto Castellanos Osorio.

64

Artículo arbitrado #16

Aplicación de reconocimiento de la lengua de señas mexicana para personas con discapacidad auditiva

La gestión ágil en proyectos de desarrollo de software

Lamia Hamdan Medina, Susana Flores Alarcón, Silvana Marina Flores

Castillo Tellez y Oscar Ezequiel de la Cruz Ek

Barajas y Emmanuel Rodríguez Velázquez

Artículo arbitrado #17

70

Efecto de la ansiedad materna en la dinámica familiar: Estudio de caso desde la terapia narrativa

Optimización de un proceso de manufactura de engranes mediante investigación de operaciones y simulación por FlexSim

Claudia Delfín Ruiz , Rodrigo Cano Guzmán y Claudia Llanes Cañedo

José Emmanuel Rodríguez Hernández, Mario César Osorio Abraham,

Revista Científica

114

Luz María Hernández Cruz, Diana Concepción Mex Álvarez, Margarita

José Guadalupe Navarro Coronado y Rene Sanjuan Galindo

4

108

La política fiscal del impuesto sobre nómina en Quintana Roo Edzon Ariel Balam Aldecua, Alba Rosaura Manzanero Gutiérrez y Alan

César Saldaña Carro, Sergio Muñoz González y Julio César Becerra Díaz

Artículo arbitrado #9

100

Humanos y máquinas trabajando en conjunto para la implementación del internet de las cosas: Un desafío en el sector de autopartes en Nuevo León

Liliana Fuentes Rosas, Anibal Gaudencio López Cabrera y María del

Artículo arbitrado #8

94

Propuesta de ahorro energético en centro universitario UAEM Valle de México

Uriel Ángel Gómez Rivera, Iván Juan Carlos Pérez Olguín y Luis Alberto

Artículo arbitrado #7

88

Fabricación de un magnetrón sputtering para depósito de películas nanométricas magnéticas

Rosa Elva Rebolledo Osollo, Jorge Ricardo Regalado Bustamante,

Artículo arbitrado #6

Reyes Guillén y Leticia Del Carmen Flores Alfaro

Artículo arbitrado #12

Procedimiento administrativo de ejecución y embargo en pequeñas empresas apalancadas de Ciudad Juárez, Chihuahua

Artículo arbitrado #5

84

Cognición y emociones sobre el concepto escuela en niños de primaria rural indígena

Bárbara Alexandra Anaya Sánchez, Geovani Esaú García Sánchez y

Artículo arbitrado #4

Fernández

Artículo arbitrado #11

Análisis logístico y simulación de una calle de retorno paralela en un aeropuerto regional

Artículo arbitrado #3

76

Relación de la eficiencia de los sistemas administrativos de control interno con el capital humano Caso: empresas del sector ferretero en Nuevo Casas Grandes, Chihuahua

Gilda Elisa Tiznado Parra, Verónica Espinoza Neblina , Diana López

Artículo arbitrado #2

Artículo arbitrado #10

120


132

Simulación de un sistema automático de cargado de mineral en canastillas Elsy Denise Martínez Torres, Olinda Ornelas Benítez, Jorge Luis Estrada Perea y Herik Germán Valles Baca

Artículo arbitrado #20

142

Observación del comportamiento alimentario del Quiscalus Mexicanus en parques urbanos al norte de México Ángel Camacho Valadez y David Camacho Valadez

Artículo arbitrado #21

Creación de empresas de base tecnológica aplicando el modelo aprendizaje tecnológico

148

Héctor Mendoza Montiel, Luis Cardona Chacón y Luis F. Ovalle Moreno

Artículo arbitrado #22

Fortalecimiento del sistema integral de información para la gestión del curso del ITCJ

154

Anilú Flores Regalado, Verónica Farías Veloz, Claudia Anglés Barrios y José Luis Fong

MANUAL DE ESTILO

160

2019

Artículo arbitrado #19

No. 13

Luis Guadalupe Aguirre Reyes y Alejandro Martínez Martínez

JULIO - DICIEMBRE

Ángel Gabriel Díaz Sánchez, Naún Lobo Galo, Manuel Terrazas López,

Revista Científica

126

Estudios bioquímicos y de inhibición de enzimas recombinantes: el caso de la Enzima DapE

THEOREMA

Artículo arbitrado #18

UTCJ THEOREMA REVISTA CIENTÍFICA Año 5, No. 13, es una publicación semestral, enero junio 2020, editada por la Universidad Tecnológica de Ciudad Juárez, Avenida Universidad Tecnológica #3051, Col. Lote Bravo II, C.P. 32695, Tel. (656) 649 0604, www.utcj.edu.mx. Editor responsable: Idalí Meléndez Domínguez. Reserva de Derechos al Uso Exclusivo No. 04-2016-061713532700-203, ISSN: 2448-7007, ambos otorgados por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este número, Coordinación Editorial, L.D.G. José Castro Castruita, Avenida Universidad Tecnológica #3051, Col. Lote Bravo II, C.P. 32695, fecha de la última modificación 15 de enero de 2020. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Queda prohibida la reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización del Instituto Nacional del Derecho de Autor.

Revista Científica

5


6

Revista CientĂ­fica


THEOREMA

Revista Científica

13

EDITORIAL La revista UTCJ Theorema siguiendo con su compromiso de divulgar la investigación científica, presenta la edición número 13 reuniendo 22 trabajos de investigadores de diversos ámbitos e instituciones educativas de nivel superior del estado de Chihuahua y del país, representando así, un medio de comunicación importante para dar a conocer las ideas científicas a la comunidad. La investigación científica implica la búsqueda minuciosa, continua e incesante del conocimiento. Con base a esa definición, la revista continúa con su labor mientras se va consolidando y adaptando a esta nueva normalidad desde lo digital. Los invitamos a leer y a disfrutar las páginas de esta edición en las cuales se exponen diversos temas del saber científico y tecnológico desde las áreas de Tecnologías de la Información, Procesos y Operaciones Industriales, Logística Internacional , Administración Fiscal y Financiera, Ciencias de la Salud y Negocios e Innovación Empresarial.

COMITÉ TÉCNICO Universidad Tecnológica de Ciudad Juárez

Revista Científica

7


Gilda Elisa Tiznado Parra1, Verónica Espinoza Neblina2, Diana López Chacón3 y Javier Ortiz Vidaca4

Instituto Tecnológico Superior de Puerto Peñasco Blvd. Tecnológico S/N Colonia Centro Sur Puerto Peñasco, Sonora, México, C.P. 83550.

Resumen: El presente trabajo describe y propone un modelo explicativo sobre la importancia de implementar la norma ISO 14,000 en instituciones educativas de nivel superior, para incrementar los indicadores de calidad institucionales, así como fomentar la preparación de estudiantes comprometidos con el medio ambiente y el desarrollo sustentable.

gyldha@hotmail.com tiznado-gilda@itspp.edu.mx

La propuesta de este modelo explicativo fue aplicada en un centro de educación pública que se encuentra certificado con la norma ISO 9001:2015; el Instituto Tecnológico Superior de Puerto Peñasco, ubicado en la ciudad de Puerto Peñasco, Sonora México.

1,2,3,4

+

Palabras clave: Sistema de Gestión Ambiental, Aspecto Ambiental, Sostenibilidad.

Recibido: Mayo 6, 2019. Recibido en forma revisada: Julio 11, 2019.

Abstract: This paper describes and proposes an explanatory model on the importance of implementing the ISO 14,000 standard in higher education institutions, to increase institutional quality indicators, as well as to encourage the preparation of students committed to the environment and development. Sustainable.

Aceptado: Julio 12, 2019.

The proposal of this explanatory model was applied in a public edu-

8

Revista Científica


cation center that is certified with the ISO 9001: 2015 standard; the Higher Technological Institute of Puerto Peñasco, located in the city of Puerto Peñasco, Sonora, Mexico.

+

Keywords: Environmental Management System, Environmental Aspect, Sustainability.

Introducción

Objetivo general

Analizar la futura implementación de la norma ISO 14,000 en el Instituto Tecnológico Superior de Puerto Peñasco que permita el incremento de indicadores de calidad.

Objetivos específicos

► Determinar las condiciones óptimas en la dirección y administración del Instituto Tecnológico Superior de Puerto Peñasco para implementar la norma ISO 14,000.

Frente a los desafíos encontrados por el sector productivo, gobierno y la población, hacia el desarrollo sustentable para la optimización y conciliación de aspectos sociales, ecológicos y económicos, la elaboración de la serie ISO 14,000 representa una de las respuestas presentadas a iniciativa del sector productivo.

► Analizar los indicadores de calidad, para relacionar la importancia de la implementación de la norma ISO 14,000.

La Norma ISO 14,001 representa la respuesta ante las presiones ejercidas tanto de la sociedad, como las reglamentaciones ambientales, a las acciones de contaminación generada por el sector empresarial al medio ambiente. Se destaca por su importancia y principalmente por su potencial al presentar resultados positivos en todos los ámbitos de injerencia, incluyendo el sector educativo.

Actualmente existe mucha documentación base para concientizar y utilizar estrategias y técnicas que involucren a las instituciones con la responsabilidad y cuidado del medio ambiente, es por ello que en esta investigación se realizó el análisis cuidadoso de la información relevante para este proyecto.

Las instituciones educativas de toda sociedad moderna enfrentan, prioritariamente, los retos de la gestión de la calidad, impulsando a una educación solidaria que contribuya a una correcta percepción del estado del mundo, que sea capaz de generar actitudes y compromisos responsables, y que prepare a los ciudadanos para una toma de decisiones fundamentadas, dirigidas al logro de un desarrollo culturalmente plural, socialmente justo y ecológicamente sostenible. En este contexto del cuidado ambiental, las instituciones de nivel superior buscan la certificación como evidencia de que un sistema de gestión de calidad implementado permite lograr los propósitos referidos. Tales aspectos es una demanda social que debe ser atendida con prontitud, buscando en lo posible obtener resultados asociados a la calidad educativa, manejo de sistemas de calidad laboral y conciencia ambiental en la comunidad.

Problema de investigación

Tal situación descrita con anterioridad no es ajena para el Instituto Tecnológico Superior de Puerto Peñasco, debido a que en sus prioridades de certificación actualmente aparece la norma ISO 14,000 a corto plazo. Así mismo, la misión institucional y perfiles académicos de las diferentes carreras, se contempla el emblema asociado a la sustentabilidad y cuidado del medio ambiente, por lo que debe evaluarse si existe un escenario propicio para implementar la norma ISO 14,000; de ser así, el instituto, deberá idear estrategias que mantengan esas condiciones y disminuyan aquellas situaciones que en cierto modo pudieran ser complejas o negativas para la incorporación al proceso de certificación medioambiental, tan exigida por los Organismos Internacionales y la sociedad. A partir de los anteriores argumentos surge la pregunta de investigación: ¿Cuáles son las condiciones directivas y administrativas que deben prevalecer en el Instituto Tecnológico Superior de Puerto Peñasco para implementar la norma ISO 14,000?

Marco Teórico

Desde épocas ancestrales la calidad ha sido un tema de interés para la humanidad como lo describe en sus investigaciones Delgado (1997), la práctica de la verificación de la calidad se remonta a épocas anteriores al nacimiento de Cristo. En el año 2150 A.C., la calidad en la construcción de casas estaba regida por el Código de Hammurabi, cuya regla # 229 establecía que “si un constructor construye una casa y no lo hace con buena resistencia y la casa se derrumba y mata a los ocupantes, el constructor debe ser ejecutado”. Los fenicios también utilizaban un programa de acción correctiva para asegurar la calidad, con el objeto de eliminar la repetición de errores. Los inspectores simplemente cortaban la mano de la persona responsable de la calidad insatisfactoria. En los vestigios de las antiguas culturas también se hace presente la calidad, ejemplo de ello son las pirámides Egipcias, los frisos de los templos griegos, etc. Sin embargo, la Calidad Total, como concepto, tuvo su origen en Japón donde ahora es una especie de religión que todos quieren practicar. Entonces, ¿qué es la calidad?, hay tantas definiciones que se pueden utilizar, sin embargo una de las más aplicadas y quizá que abarca de manera holística los aspectos de este término es la presentada por Crosby (1999), quien la explica desde una perspectiva ingenieril como “El cumplimiento de normas y requerimientos precisos”. Su lema es “Hacerlo bien a la primera vez y conseguir cero defectos”. Y afirma que la Calidad es gratuita. Se basa en que el costo de la prevención es menor que los costos derivados de la detección, corrección y fracaso. Su filosofía fue CERO DEFECTOS. Partiendo de esta y otras teorías es posible definir que la calidad se entiende como el conjunto de características bien sea de un producto o de un servicio, que tiene la capacidad de satisfacer las necesidades y las expectativas de un usuario o cliente, y están relacionadas con el establecimiento previo de una norma o referencial entre todas las partes que tienen interés sobre un producto como pueden ser proveedores, compradores y usuarios, o gobiernos, entre otros. De esta manera, una vez alcanzado un consenso sobre las características básicas y mínimas que tiene que tener un producto o servicio, se llega a la certificación.

Revista Científica

9


Es de aquí que se empiezan a definir distintos tipos de evaluaciones y certificaciones para la calidad, en donde el principal objetivo es validar que una actividad y/o proceso está siendo concebido y realizado con ciertos criterios y que estos se están cumpliendo. Para ello muchas empresas se decidan por recurrir a una consultoría que les asesore sobre las certificaciones que les serían más efectivas y los requisitos para conseguirlas. Entre los principales están: ISO (Organización Internacional de Estandarización) 9001, que certifica un sistema de gestión de la calidad y permite demostrar el compromiso de una organización con la calidad y la satisfacción del cliente; así como la norma ISO 14,001, relacionada con los Sistemas de Gestión Ambiental, entre otras. En España, AENOR (Asociación Española de Normalización y Certificación), es una importante entidad en cuanto a la certificación tanto de sistemas de gestión, como de productos y servicios, a la vez que se sitúa como responsable de la difusión de las normas UNE (Una Norma Española), Gazsi Peter (2012). Por otra parte, las certificaciones de calidad aportan confianza al cliente, al consumidor y a los proveedores, ya que en un mercado cada vez más competitivo suponen una diferenciación con el resto de empresas competidoras, a la vez que mejora la imagen de los productos o de los servicios que ofrece, y de la reputación e imagen de la propia empresa. Así mismo, las certificaciones de calidad contribuyen a que la empresa gane cuota de mercado y pueda acceder a mercados exteriores, algunos de los cuales ya solicitan estas certificaciones para permitir el acceso. Pero además, la calidad es un elemento básico no sólo para la competitividad de las organizaciones y de las empresas, sino también de países y regiones, es por ello que después de que el Instituto Tecnológico Superior de Puerto Peñasco, obtuvo la certificación ISO 9001-2008 e ISO 9001-2015, se ha interesado en la implementación de un sistema de gestión ambiental, y tomando como referencia los estudios de Roberts y Robinson (1999), en su libro ISO 14,001 EMS en el que mencionan que en primer lugar, se puede optar por implantar su propio sistema, de acorde con sus necesidades y motivaciones, como sería el caso de la elaboración de un programa interno de reducción de residuos o el diseño de un conjunto de medios y métodos no documentados que gestione la interacción de la organización con el medioambiente, se realiza el análisis del escenario propicio para la implementación de un modelo de gestión ambiental en el ITSPP. La certificación de la ISO 14,000; es una serie de normas de gestión medioambiental aceptadas internacionalmente. Esta serie, que se ha convertido en uno de los patrones de referencia más acreditados a nivel mundial, incluye un conjunto de normas y estándares propuestos que se presentan en la Tabla 1. Tabla 1. Norma y estándares ISO sobre SGMA. Fuente: Guía Completa de las Normas ISO 14,000.

ISO-14001 constituye los criterios necesarios para llevar a cabo un Sistema de Gestión Ambiental, pudiendo ser certificadas las empresas bajo esta norma. No es de obligado cumplimiento, pero si esta-

10

Revista Científica

blece una serie de pautas para que una organización puede constituir un SGMA eficaz. Se puede implantar en cualquier tipo de organización independientemente de la actividad que realice. ISO 14004 bajo el título de “Directrices generales sobre principios, sistemas y técnicas de apoyo” facilita la orientación de la empresa durante la implementación, el mantenimiento y la mejora continua de un SGMA, además de su coordinación con otros sistemas de gestión. Las directrices de la norma ISO 14004 son compatibles con la de la norma ISO 14001. ISO 14010 e ISO 14011 establecen todos los principios generales sobre las auditorías ambientales. Esta norma de la familia ISO 14000 ha sido sustituida recientemente por la norma ISO 19011 abarcando una amplia gama de funciones relacionadas con las auditorías en general. ISO 14012 esta norma establece los criterios fundamentales para poder calificar a los auditores. ISO 14013 establece una guía de consultas al de realizar la revisión de la certificación ambiental. ISO 14014 genera una guía para la revisión inicial que se realiza a todos los SGA. ISO 14015 es una guía en la que se encuentran los criterios necesarios para realizar una evaluación del emplazamiento ambiental. ISO 14031 gracias a esta norma se puede realizar una evaluación del comportamiento que presenta el medio ambiente, se desarrollan herramientas necesarias para conseguir los objetivos ambientales. Solo se utiliza internamente en la organización. ISO 14032 esta norma genera una guía de indicadores específicos para el sector industrial. ISO 14060 genera una guía con la que se pueden incluir aspectos ambientales en los productos realizados por la organización.

De las normas mencionadas anteriormente, la única que se certifica es la ISO 14,000. Una certificación es un procedimiento mediante el cual un tercero otorga una garantía escrita de que un producto, proceso o servicio cumple con ciertas normas y requerimientos. Según Ritchie y Hayer (1998) con esta certificación la empresa puede estar segura de que su sistema de administración ambiental está totalmente documentado e implementado. La ISO 14,001 es la primera norma de la serie y especifica los requisitos para la certificación, registro y/o autoevaluación de un sistema de gestión medioambiental. Es una norma dirigida a la aplicación en organizaciones de todo tipo y dimensiones sean cuales sean sus condiciones geográficas, culturales y sociales. Su objetivo es el apoyo a la protección medioambiental y la previsión de la contaminación en armonía con las necesidades socioeconómicas (Fundación Entorno, 1998). Es necesario aclarar que la ISO 14,001 no prescribe requisitos de


actuación medioambiental, salvo el de compromiso de mejora continua y de cumplimiento con la legislación y regulación relevantes (Roberts y Robinson, 1999:4). Es decir, no se determina, por ejemplo, un nivel máximo de residuos, sino los requisitos del propio sistema de gestión de forma que, si se mantienen adecuadamente, mejorarán la actuación medioambiental de la empresa y, si así se lo había propuesto la empresa, facilitará la reducción en el nivel de residuos. En la siguiente figura se plantea el modelo de SGMA como proceso de mejora continua propuesto por la ISO 14,001.

Fernández y Sampieri, 2004). La metodología abordada es de corte cuantitativo; basada en los estudios de Fisher (2006), para determinar el tamaño de muestra se consideran:

1. Los grupos de control clasificados en 3 estratos: 63 directivos y administrativos, 40 docentes y 426 alumnos, todos ellos del Instituto Tecnológico Superior de Puerto Peñasco, dando una población total de 529 sujetos de estudio. 2. Se establece el nivel de confianza (90% y un error muestral del 5%), mismo que se toma de base de tabla de apoyo al cálculo del tamaño de una muestra por niveles de confianza. 3. Se determinan las operaciones requeridas por la fórmula de tamaño de muestra:

4. Se calcula factor de proporción para definir la cantidad de elementos a encuestar por cada estrato o grupo de control: Factor de proporción (f)= n/N = 179/529= 0.338.

Figura 1. Relación entre el modelo PHVA y el marco de referencia en la Norma Internacional ISO 14001. Fuente: Norma ISO 14,001:2015.

Este tipo de certificación es fundamental en la toma de decisiones por parte de los clientes para cerrar un contrato o coloca una orden de compra, por esto el certificarse con ISO 14,000 se está volviendo un requisito indispensable para mantener la competitividad. Por otro lado, la disminución de los desperdicios que se originan, trae como consecuencia una reducción de materias primas, energía y materiales peligrosos. También se dan resultados positivos en el área de productividad y eficiencia, al reducir costos de operación y mantenimiento Ritchie y Hayer (1998). Partiendo de estas referencias se presentan la siguiente metodología para el análisis del escenario propicio para la implementación de un modelo de gestión ambiental en el ITSPP.

Metodología En este estudio se parte de la premisa teórica de los Sistemas de Gestión Ambiental, específicamente la norma ISO 14,000. El tipo de investigación se conceptualiza como descriptiva ya que; “los estudios descriptivos buscan especificar las propiedades, las características y los perfiles importantes de las personas, grupos, comunidades o cualquier otro fenómeno que se someta a un análisis” (Danhke, 1989; Baptista,

Dada la naturaleza del trabajo se utilizará como instrumento para la encuesta semiestructurada, con la finalidad de obtener información de primera mano de 179 sujetos de estudio contemplando los siguientes temas: ► Percepción y compromiso por las autoridades académicas para alcanzar una certificación. ► Obstáculos que se deberán afrontar para llevar a cabo la implantación de la norma ISO 14,000. ► Impacto de la certificación en los indicadores académicos de la Institución. ► Ventajas generadas por la implementación de la norma ISO 14,000, tanto en aspecto económico como social.

Resultados Dentro de los resultados más destacados de la aplicación del instrumento de medición se analizaron los siguientes aspectos, que gráficamente plasman el compromiso, importancia y disponibilidad de los sujetos involucrados en participar en el sistema de gestión ambiental, teniendo como finalidad el logro de la certificación.

Revista Científica

11


Existe un compromiso ambiental por parte de la comunidad del ITSPP, como se aprecia en los resultados. Se propone concientizar a los estudiantes sobre la importancia en el tema.

Figura 2. Aceptación de implementación de políticas y estrategias que promuevan un desarrollo sustentable.

En su mayoría la población del ITSPP muestra aceptación por la implementación de políticas y estrategias que promuevan el desarrollo sustentable. Figura 5. Disposición positiva a participar en el SGA ISO 14,000.

En general su mayoría la comunidad ITSPP tiene una disposición positiva de participar en el SGA ISO 14,000, sin embargo se pueden realizar actividades con los estudiantes que les permita identificar y valorar los beneficios de implementarlo.

Conclusiones Con base al trabajo de investigación realizado, se puede concluir que actualmente el Instituto cuenta con las condiciones propias para proceder a una certificación de la norma ISO 14,001, considerando que a través de ello se incrementaran los indicadores académicos favorablemente. Figura 3. Aceptación de implementación de políticas y estrategias que promuevan un desarrollo sustentable.

Se tiene la percepción por parte de los directivos y docentes de que se mejoran los indicadores de calidad al implementar esta norma, sin embargo, menos de la mitad de los alumnos lo considera así.

Esta investigación promueve a la institución que ya tiene una certificación internacional de calidad a que continúe con la implementación de otras, tal es el caso de la ISO 14,001, con el fin de cumplir con las exigencias por parte del Instituto Tecnológico Nacional de México, e ir formando profesionistas comprometidos tanto en aspectos de calidad como en cuidado ambiental y responsabilidad social. Con el fin de alcanzar el logro de una certificación de la norma ISO 14,001, se recomienda a la institución: ► De inicio la planeación y diseño de un sistema de gestión ambiental, a través de un grupo multidisciplinario conformado por personal administrativo y docente. ► Capacitación y sensibilización de toda la comunidad tecnológica sobre la interpretación de la norma ISO 14,001.

Figura 4. Compromiso ambiental en el ITSPP.

12

Revista Científica

► Una vez atendida la formación, participar activamente en las etapas de elaboración de la documentación (manual, planes, procedimientos, instrucciones de trabajo y formatos) e implementación del SGA donde se identifiquen los aspectos ambientales significativos y los requisitos legales aplicables a la institución.


Es importante resaltar que cualquier sistema de gestión deberá ensamblar con la razón de ser de la institución de formar profesionistas con perfiles que contengan un amplio sentido crítico, ético, de valores y creatividad. Aunados al impulso local, regional y nacional, con la premisa de contar con calidad académica integral, contribuyendo al modelo de desarrollo que el país reclama”.

Bibliografía + Aznar Minguet, P. y Ull Solís, M. A. (2009). La formación de competencias básicas para el desarrollo sostenible: el papel de la Universidad Revista de Educación, número extraordinario, pp. 219-237. + Clementes, R. (1997). Guía completa de las normas ISO 14000. Ediciones Gestión 2000 S.A., Barcelona. Recuperado el 20 de mayo de 2019. En URL: https://fumigacionessanam.com.ar/ pdf/ISO_14000-guia.pdf + Crosby, P. (1999). La organización permanentemente exitosa. McGraw Hill. + Delgado, H. (1997). DESARROLLO DE UNA CULTURA DE CALIDAD. Ed. McGraw-Hill Primer edición. + Fundación Entorno (1998). Libro Blanco sobre la gestión medioambiental en la industria española. Mundi Prensa, Madrid. + Gazsi, Peter (2012). ¿Qué son las certificaciones de calidad?. Recuperado el 20 de mayo de 2019 en URL: https://www. gestiopolis.com/que-son-las-certificaciones-de-calidad/ + Gutiérrez Pulido, Humberto. “Calidad Total y productividad”. 2a edición. Editorial Mc. Graw Hill. p.58.

+ Hernández, S. R; Fernández, C.C. y Baptista, L.P. (2004). Metodología de la Investigación (6ta. Ed). México. Editorial McGraw Hill. + Norma Internacional ISO 14001:2015; Sistemas de gestión ambiental- Requisitos con orientación para su uso (traducción oficial). + Online Browsing Platform (2015).Sistemas de gestión ambiental ISO 14001:2015. Requisitos con orientación para su uso. Recuperado el 12 de mayo de 2019. En URL: https://www.iso.org/ obp/ui#iso:std:iso:14001:ed-3:v1:es + Revista de Educación, número extraordinario 380 (2018). Ministerio de Educación, Cultura y Deporte. Secretaría de Estado de Educación, Formación Profesional y Universidades. Instituto Nacional de Evaluación Educativa, 2018. + Ritchie y Hayer, W. (1998). A guide to implementation of the ISO 14000 series on environmental management, Prentice Hall, New Jersey. + Roberts, H. y Robinson, G. (1999). ISO 14001 EMS: manual de sistemas de gestión medioambiental. Edición reimpresa. Editorial Paraninfo, pag.425.

Revista Científica

13


Bárbara Alexandra Anaya Sánchez1, Geovani Esaú García Sánchez2 y Carlos Alberto Gómez Álvarez3

Universidad Autónoma de Ciudad Juárez. Av. del Charro 450 Norte, Ciudad Juárez, Chihuahua 32310, México. 1,2,3

barbara.anaya@uacj.mx geovani.garcia@uacj.mx carlos.gomez@uacj.mx

Resumen: La evolución y el desarrollo de la industria aeronáutica exigen que día a día este medio de transporte implemente metodologías que encaminan a la seguridad operacional de las aeronaves, afortunadamente vivimos en una era técnica en la que la tecnología domina las ideas innovadoras para optimizar procesos. En el presente artículo se hace uso en particular de la tecnología del software SIMIO para aeropuertos, a través del cual se realizará una representación tridimensional de las operaciones diarias en horarios de relevancia para realizar una propuesta de mejora, que consiste en la adición de una calle de retorno paralela a la pista principal del aeródromo con el fin de optimizar el espacio disponible promoviendo un decremento en los patrones de espera que actualmente afectan significativamente las operaciones de las aerolíneas que ahí laboran, todo fundamentado en el marco jurídico que rige en términos de aviación dentro de nuestro país.

+

Palabras clave: Software, Aeródromo, Patrones de Espera, Operaciones Aeronáuticas, Rodaje Paralelo.

Recibido: Mayo 6, 2019. Recibido en forma revisada: Julio 11, 2019. Aceptado: Julio 15, 2019.

14

Revista Científica

Abstract: The evolution and development of the aeronautical industry demand that every day this means of transport implement methodologies that lead to the operational safety of aircraft, where we fortuna-


tely live in a technical era in which technology dominates innovative ideas to optimize processes. In the present article, we use in particular the SIMIO software technology for airports, through which a three-dimensional representation of the daily operations will be carried out in times of relevance to make an improvement proposal, consisting of a parallel return street addition to the main runway of the aerodrome, in order to optimize the available space by promoting a decrease in the waiting patterns that currently significantly affect the operations of the airlines that work there, all based on the legal framework that governs in terms of aviation within our country.

+

Keywords: Software, Aerodrome, Waiting Patterns, Aeronautical Operations, Parallel Street.

Introducción Los avances que la industria aeronáutica ha desarrollado a lo largo de los años son de admirarse, la aviación ha presentado un crecimiento significativo y destaca sobre todo tipo de transporte gracias a la rapidez y seguridad que viajar en una aeronave representa. Sin embargo, las condiciones latentes relacionadas a la industria de la aviación son innumerables y difíciles de controlar, por lo que en la actualidad nos encontramos con diversas herramientas de apoyo en cuestión de tecnología que permiten visualizar las operaciones aéreas de forma global, identificando las condiciones de riesgo presentes en dichas operaciones y promoviendo estimaciones diversas con el objetivo de sustentar la planeación de la infraestructura aeroportuaria.

pretende atacar por medio del desarrollo del plan logístico que permitirá identificar los puntos susceptibles y corregirlos. La corrección de estos puntos débiles se encuentra fundamentadas en la base legislativa correspondiente a nuestro país, principalmente el anexo 14 de aerodromos y simulada por medio del software SIMIO para aeropuertos brindando un resultado óptimo con ideas nuevas de mejora derivando operaciones seguras y expeditas a través del modelado logístico avanzado y flexible en tres dimensiones.

Marco de referencia En la industria de la aviación los procesos que se desarrollan dentro de un aeropuerto requieren de estándares específicos que permiten garantizar en todo momento la seguridad de las operaciones, actualmente y con apoyo de la tecnología es posible crear escenarios hipotéticos que simulan las condiciones en las operaciones aéreas. Estas operaciones y los protocolos desarrollados dentro del área operativa son estrictamente validados con el fin de cumplir en su totalidad con las normas que rigen a la industria aérea en nuestro país, garantizando una operación segura, expedita y óptima. De ahí la importancia de la implementación de software de simulación logística en las propuestas de mejora para el ámbito aeroportuario y sus operaciones.

En la actualidad los servicios aeroportuarios que se prestan en los diferentes aeródromos son proporcionados con la intención de satisfacer las necesidades del cliente y sus requerimientos de mayor exigencia. Dichos servicios no solo benefician al consumidor, sino que fungen como apoyo para el personal del aeropuerto. Los servicios aeroportuarios así como la infraestructura del mismo se encuentran definidas por el marco jurídico emitido por la autoridad aeronáutica en nuestro país, la Dirección General de Aeronáutica Civil (DGAC) (DGAC, Secretaría de Comunicaciones y Transportes, 2016). Cabe resaltar que “la normativa aplicable nacionalmente emite sus recomendaciones desde 1928” (Romero, Aeropuertos, Historia de la Construcción Operación y Administración Aeroportuaria en México, 2003). Sin embargo, en los años 20´s, no contábamos con la tecnología de ahora, es decir, no se había construido la primera computadora ni la base de los primeros programas de simulación, por este motivo era prácticamente imposible realizar una proyección de las planeaciones desarrolladas y sustentadas bajo la normativa que hoy en día conocemos en el ámbito de la aeronáutica (TOMASI, 2003). El aeropuerto regional en el cual se basa el desarrollo del presente artículo, presenta en la actualidad una situación inconveniente en el área de movimientos particularmente sobre la pista principal generando consigo una serie de patrones de espera en las aeronaves que se encuentran en su etapa de aproximación al aeródromo, este problema se deriva de una mala infraestructura en el área de movimientos, mismo problema se

Revista Científica

15


Materiales y métodos A través de la metodología se establecen una sucesión de pasos organizados, con el fin de cumplir uno o varios objetivos de acuerdo a los procedimientos que fueron implementados. El contenido del presente artículo está dirigido a la etapa de simulación de la planeación logística en las operaciones del aeropuerto propuesto para la investigación. A continuación se muestra la representación metodológica en la Figura 1 de la parte teórica competente al marco normativo que fundamenta dicha simulación.

Tabla 1. Características generales de la aeronave critica (B757-200).

Análisis de horarios pico dentro del aeropuerto regional Fundamentado en la observación y estadística de los datos recopilados a través de fuentes fidedignas se identifican los horarios pico y las operaciones que se desarrollan en éstos, la Tabla 2 muestra las operaciones representativas en horario diurno para el aeropuerto en cuestión. Tabla 2. Horarios críticos de operaciones diurnas dentro del aeropuerto.

Representación logística Figura 1. Diagrama metodológico de la justificación del problema.

Estudio y análisis de aeronaves operativas dentro un aeropuerto regional Para realizar el análisis logístico previo a la simulación es de gran importancia conocer las aeronaves que concurren el área operativa del mismo, considerando sus características y las necesidades que éstas presentan. A continuación en la Tabla 1 se muestran las características generales de la aeronave crítica del aeropuerto en cuestión.

16

Revista Científica

Para llevar a cabo la realización de esta representación logística del proceso que se desarrolla actualmente en un aeropuerto regional, se representa un diagrama con las diferentes fases desarrolladas en el proceso de aterrizaje, desde que la aeronave hace contacto con pista hasta que llega a plataforma, así también un diagrama del procedimiento de despegue, desde que sale de plataforma hasta que deja de hacer contacto con pista la aeronave, así como los tiempos involucrados. Mostrando dicho proceso en la Figura 2 y Figura 3 respectivamente.


Figura 2. Esquema de fases en el procedimiento actual de aterrizaje.

Figura 3. Esquema de fases en el procedimiento actual de despegue.

Análisis de tiempos y movimientos El análisis de tiempos se fundamenta en la observación, toma de tiempos y análisis de movimientos de las aeronaves en el proceso de despegue y aterrizaje, los cuales fueron colectados desde torre de control en el aeropuerto propuesto para la investigación. La Tabla 3 y Tabla 4 consolidan la información de los tiempos de los movimientos de las aeronaves en aproximación al aeródromo y el despegue respectivamente.

Tabla 3. Tiempo y movimientos por operación de aterrizajes.

Se puede apreciar en la tabla anterior un promedio en cada uno de los tiempos involucrados así como el rodaje utilizado para conectar desde plataforma a la pista asignado por parte del controlador de tráfico aéreo. Se observa claramente en los aterrizajes representativos un ingreso por la pista 03.

Revista Científica

17


Tabla 4. Tiempo y movimientos por operación de despegues.

De igual forma la tabla anterior muestra un promedio de los tiempos involucrados para el despegue así como la asignación de la pista por parte del controlador de tráfico, teniendo dominio la pista 21.

Implementación de la calle de retorno Al realizar el análisis de tiempos reales a través de las operaciones del aeródromo, se implementan mejoras para la reducción de patrones de espera, fundamentadas por el marco normativo en nuestro país emitido por la autoridad aeronáutica la Dirección General de Aeronáutica Civil DGAC, principalmente sus manuales de diseño de aeródromo y ley aeroportuaria, con apoyo del software SIMIO para aeropuertos se desarrolla la representación logística seccional tridimensional que permite simular las operaciones estudiadas, como lo muestra la Figura 4.

podrán regresar a esta a continuar con su trayectoria. Podemos observar en la Figura 5 una representación bidimensional únicamente de la calle de retorno y sus características en metros. Para la asignación de las dimensiones fue necesario un estudio orográfico previo y el cálculo del radio de ruedas de la aeronave critica.

Figura 5. Configuración de la calle de desviación paralela. Figura 4. Representación de la infraestructura de las pistas, rodajes y plataformas con la calle de desviación paralela adherida.

Básicamente la configuración paralela adherida funge como un retorno para las aeronaves y a la vez como puesto de estacionamiento temporal dando lugar al descenso de aeronaves de forma expedita y segura tal como lo exige el mundo de la aviación. Las aeronaves que se encuentran en rodaje para desalojo de pista podrán esperar mientras otra aeronave realiza su despegue y/o aterrizaje y una vez desalojada la pista

18

Revista Científica

Resultados La implementación del software SIMIO para aeropuertos permite representar las operaciones diarias del aeródromo y visualizar los tiempos de rodaje de las aeronaves una vez implementada la configuración paralela a la pista. Podemos observar en la Tabla 5 los tiempos de operación de la aeronave para los aterrizajes y despegues respectivamente a través del rodaje sin configuración y una vez implementada la simulación


del rodaje paralelo. Así mismo, podemos observar la representación de diferencias de los tiempos de rodaje de las aeronaves en ambas operaciones y el porcentaje de eficiencias que se logra optimizar para cada operación observando claramente una reducción de tiempos significativa que proporciona el decremento de patrones de espera. Tabla 5. Tiempo total de las operaciones sin la configuracion paralela.

Conclusiones Para futuros propósitos de infraestructura en el aeropuerto de nuestro país, se recomienda realizar un análisis para implementar una calle de rodaje doble completa que termine en el área de plataformas para incrementar su optimización. Ya que esta permite un desalojo total de la pista principal, sin retomarla como es en el caso de la propuesta de esta investigación. El análisis realizado en el presente documento, presento una visualización en el lado aire, del tiempo de rodaje de las aeronaves que realizan al despegue y al aterrizaje, dicho proceso se ha desarrollado en otros aeropuertos regionales logrando optimizar el tiempo y espacio en cuanto a las operaciones aéreas.

Ventajas a corto plazo y mediano plazo

Las ventajas al implementar una calle de desviación paralela, benefician a todo aquel que tenga que realizar alguna operación directa o indirecta en las instalaciones del aeropuerto regional en el cual se basa la investigación. Dentro de las ventajas a corto plazo podemos citar algunas como lo son:

Para la implementación de la calle de desviación paralela, se recomienda hacer una cotización, de los componentes que la conforman, de igual manera el personal laboral que conlleve a la construcción. Así mismo un estudio que permita visualizar el impacto que se generaría al iniciar con la ampliación, basada en cotizaciones alternas.

• Menor tiempo de rodaje de las aeronaves. • Mejor utilización de la pista principal y de las calles de rodaje. • Mejor utilización de la aeronave. • Mayor grado de seguridad de la supervisión de las operaciones de Control de Tráfico Aéreo. • Múltiples alternativas para controlar el flujo de las operaciones de Control de Tráfico Aéreo. • Mayor grado de seguridad para los usuarios. • Optimizar las operaciones para las aerolíneas y los usuarios.

Mientras que para las ventajas a mediano plazo se pueden citar las siguientes:

• Ahorro económico para las aerolíneas del aeropuerto. • Inversiones en la remodelación de la infraestructura. • Impacto ambiental en la ciudad al disminuir las operaciones en el lado aire como alternativa de espera para aterrizaje. • Incrementar la capacidad de operaciones que se pueden realizar con la configuración de una calle de desviación paralela. • Mejorar el control del flujo de las operaciones.

Revista Científica

19


20

Revista CientĂ­fica


Bibliografía + Administration, D. O. (1998). Miami International Airport, Master Plan Update for the Proposed. Orlando, Florida. + Carson, D. J. (2016). SIMIO. Retrieved from http://www. simio.com/applications/specialreportFTU.php + DGAC (2016, marzo 22). Secretaría de Comunicaciones y Transportes. Retrieved from http://www.sct.gob.mx/ fileadmin/DireccionesGrales/DGAC/00%20Aeronautica/Volumen_I_22Oct2013.pdf + FAA (2016, Marzo 28). Federal Aviation Administration. Retrieved from http://www.faa.gov/regulations_policies/handbooks_manuals/aviation/pilot_handbook/media/phak%20-%20 chapter%2004.pdf

+ OACI (2004). Anexo 14: Aeródromos, Volumen 1, Diseño y Operación de Aeródromos. + OACI (2005). Manual de Diseño de Aeródromos, Parte 2, Calles de rodaje, plataformas y apartaderos de espera. + OACI (2016). http://www.fomento.gob.es/. Retrieved from http://www.fomento.gob.es/MFOM/LANG_CASTELLANO/ DIRECCIONES_GENERALES/AVIACION_CIVIL/ORGANISMOS_INTERNACINALES/desc_oaci.htm + Parra, J. y Rodríguez, A. (2005). Modelo de Simulación. Villavicencio: Corpoica. + Romero, M. R. (2003). Aeropuertos, Historia de la Construcción Operación y Administración Aeroportuaria en México.

+ Garcia, H. y Dunna, L. E. (2006). Simulación y análisis de sistemas con ProModel. México: PEARSON EDUCACIÓN.

+ SIMIO (2016). Retrieved from http://www.simio.com/ about-simio/what-is-simio-simulation-software.php

+ Gómez, E. P. (2014). Sistema de Información Científica Redalyc. Retrieved from http://www.redalyc.org/articulo. oa?id=39831596003

+ TOMASI, W. (2003). Sistemas de Comunicación Electrónicos. PEARSON EDUCACIÓN.

+ Guasch, A. y Miguel Ángel Piera, J. C. (2003). MODELADO Y SIMULACIÓN: aplicación a procesos logísticos de fabricación y servicios.

+ Transportes, S. D. (2016, junio 27). Secretaría de Comunicaciones y Transportes. Retrieved from http://www.gob.mx/sct/acciones-y-programas/direccion-general-de-aeronautica-civil

+ Morris, J. (2016). Capacity Modeling and Analysis Group Functions. Retrieved from http://www.tc.faa.gov/acb300/acb_320. asp

Revista Científica

21


Rosa Elva Rebolledo Osollo1, Jorge Ricardo Regalado Bustamante2, Beatriz Díaz de León Porras3 y Diana Mireya Nieto Hipólito4

Universidad Autónoma de Ciudad Juárez Av. Hermanos Escobar, Omega, C.P. 32410, Ciudad Juárez , Chihuahua, Méx. 1, 2, 3, 4

diana.nieto@uacj.mx

Resumen: El Procedimiento Administrativo de Ejecución (PAE) y el embargo ya han sido ampliamente explicados por múltiples autores, desde organismos del gobierno como son el Servicio de Administración Tributaria (SAT) y diversas leyes emitidas por el gobierno mexicano, hasta páginas de internet especializadas en temas contables administrativos fiscales. Por esta razón, se busca conocer cuáles son las principales prácticas financieras y deshonestas que llevan a las Pequeñas y Medianas Empresas (Pymes) a ser objeto de estas problemáticas. Para esto, se realizó una investigación previa para ampliar el tema y una posterior aplicación de cuestionarios que pretende arrojar conclusiones cuantificables de cuales son estas prácticas que llevan a las PyMES a sufrir un PAE o embargo.

+

Palabras clave: Embargo, Procedimiento Administrativo de Ejecución (PAE), Factores, Deuda, Prácticas Financieras.

Recibido: Mayo 6, 2019. Recibido en forma revisada: Julio 11, 2019. Aceptado: Julio 15, 2019.

22

Revista Científica

Abstract: The Administrative Procedure of Execution (PAE) and the embargo have already been widely explained by multiple authors, from government agencies such as the Tax Administration Service (SAT) and various laws issued by the Mexican government, to specialized websites on topics fiscal administrative accountants. For this reason, we seek to know what are the main financial and dishonest practices that lead to


Small and Medium Enterprises (SMEs) to be the subject of these problems. For this, a previous investigation was carried out to broaden the topic and a subsequent application of questionnaires that aims to draw quantifiable conclusions about which are these practices that lead SMEs to suffer a PAE or embargo.

+

Keywords: Seizure, Administrative Procedure of Execution (PAE), Factors, Debt, Financial Practices.

Introducción Al momento de elegir un tema de investigación, se encuentra una problemática común, el Procedimiento Administrativo de Ejecución (PAE) y el embargo. Específicamente, el desconocimiento de las prácticas que motivan la aplicación de estos procedimientos en las Pequeñas y Medianas Empresas (Pymes). Así pues, se intenta resolver estas dudas, con una investigación de estos conceptos para tener mayor conocimiento del tema y una posterior aplicación de cuestionarios a encargados o propietarios de este tipo de empresas en Ciudad Juárez que pudieran ser o no sujetos de estos procedimientos.

Estudios previos Reportes de investigación previos utilizaron la Teoría de Castilla, la Teoría de la Ley Mariana de 1837 (Gonzalez, 2010) y la Teoría General de Nulidades (Espino, 2004; Delvasto, 2013; Cámara de Diputados del H. Congreso de la Unión, 2014) para fundamentar el PAE y el embargo. De igual forma, estudios anteriores se han ocupado de establecer la definición del PAE, los fundamentos legales en los que se basa esta práctica, los plazos existentes para un embargo así como los bienes susceptibles de este acto y, la evaluación de procesos presupuestarios del SAT. Acerca del embargo, la literatura muestra temáticas como la definición de éste, los bienes que no son susceptibles al embargo, los requisitos, la diferencia de una orden judicial y una no judicial, la ejecución hipotecaria y, una novedosa aplicación española donde se puede embargar supuestamente desde el teléfono móvil.

Marco de referencia Procedimiento Administrativo de Ejecución (PAE) Medio legal utilizado por las autoridades fiscales para exigir de una u otra forma, el pago de créditos fiscales provenientes de impuestos y aportaciones de seguridad social, conforme al artículo 144 del Código Fiscal Federal (CFF), adquiere carácter de administrativo por provenir de una autoridad administrativa; la base de este acto es la recaudación de un crédito fiscal por un importe no cubierto (Instituto Nacional de Administración Pública, 2012).

En México los plazos para garantizar el embargo son, 30 días para el SAT y 15 días para el Instituto Mexicano del Seguro Social (IMMS) o el Instituto del Fondo Nacional de la Vivienda para los Trabajadores (INFONAVIT). También hay una excepción, según el artículo 144 del CFF, cuando exista recurso de revocación o de inconformidad no hay obligación de una garantía, si no, hasta que esté resuelto el recurso solicitado (Chavero, 2018). Los bienes susceptibles al embargo, según indica el artículo 155 del CFF, deben ser de fácil realización o venta según el siguiente orden (Chavero, 2016):

• Dinero, metales preciosos, depósitos bancarios, componentes de ahorro o inversión asociados a seguros de vida; todo debe estar al nombre del contribuyente y los fondos de ahorro para el retiro estarán exentos conforme dice la ley, hasta por 20 UMAS (Unidad de Medida Actualizada) elevados al año. • En caso de que se embarguen depósitos bancarios o seguros, el monto no debe exceder el importe del crédito fiscal actualizado. • Acciones, bonos, cupones vencidos, créditos de fácil cobro. • Bienes muebles y bienes inmuebles.

Como parte de la legalidad del PAE es un requisito, notificar al contribuyente mediante un citatorio que se llevarán actos correspondientes al requerimiento de pago y al embargo. El CFF establece cómo se designará la persona encargada de notificar sobre el problema de requerimiento de pago y la ejecución del embargo. En caso de no encontrar una persona a quien notificar, se deberá dejar un citatorio, de esta forma el contribuyente contará con seis días para enterarse y ponerse en contacto con las autoridades correspondientes. Dicho citatorio, debe dejar en claro al deudor o representante legal, que se realizarán en su domicilio fiscal, los actos correspondientes al PAE, para esto, se debe especificar la falta administrativa por la cual se le cita, siendo esto, un requisito de legalidad para el citatorio conforme al CFF (Losson, 2003; Chavero, 2018).

Diagrama de evaluación de procesos de los programas presupuestarios del SAT El SAT (2012), establece en un diagrama cómo se lleva a cabo la evaluación de procesos de los programas presupuestarios, éste inicia con la notificación y cobranza, cuyos responsables son la administración central, el administrador central, el administrador de área, la sub-administración y la jefatura. En la ilustración (Figura 1), se puede apreciar cómo primeramente se debe recibir y validar la información, registrar los créditos en el inventario, luego se procede al control de créditos, después se elegirán los créditos a notificar para proceder con el cobro de estos mediante el PAE. Posteriormente, se puede realizar el pago del crédito para finalizar el procedimiento, o en su caso, si no se realiza el pago del crédito, se procede a aplicar el PAE, lo que podría resultar en un posible embargo, finalizando así el procedimiento.

Revista Científica

23


2ª./J.18/2009, la cual establece lo siguiente: “Procedimiento administrativo de ejecución. Por regla general, las violaciones cometidas antes del remate son impugnables mediante el juicio contencioso administrativo hasta que se publique la convocatoria respectiva, acorde con el artículo 127, primer párrafo, del código fiscal de la federación, reformado mediante decreto publicado en el diario oficial de la federación el 28 de junio de 2006”. Por lo tanto, y sabiendo que a los créditos fiscales que se cubrirán en efectivo no les aplica el remate, en caso de querer impugnar el PAE ejecutado por las autoridades fiscales, el contribuyente debe recurrir a un juicio de nulidad.

Embargo

También puede entenderse como un mandamiento formal de autoridad judicial que obliga al deudor a desprenderse de los bienes que dejo como garantía en el caso de incumplir con una deuda establecida (Contrakto, 2014). Figura 1. Diagrama de evaluación de procesos de programas presupuestarios, Elaborado por la INAP. Fuente: Instituto Nacional de Administración Pública (2012).

Los supuestos que se deben dar son, la existencia de un crédito fiscal a cargo del deudor, que este crédito no haya sido cubierto ni revocado mediante un recurso de revocación.

Proceso del PAE • Se hace un mandamiento de ejecución de requerimiento de pago y embargo. • Se efectúa un requerimiento de pago. • En algunos casos se procede al embargo. • También se puede realizar la inmovilización de cuentas bancarias, para que los depósitos cubran el crédito fiscal. • En otros casos se puede establecer una negociación para satisfacer el crédito fiscal y sus accesorios. • En el caso de los créditos que están en juicio, se dará inicio y/o continuidad al PAE cuando se establezca una respuesta favorable a la autoridad fiscal. • Los contribuyentes pueden solicitar liberar los créditos fiscales mediante plazos. • Al final del proceso se obtienen créditos dados de baja por pago, o por resolución o sentencia favorable al deudor.

Inaplicabilidad de la jurisprudencia 2ª./J.18/2009 Cárdenas (2010), explica que el PAE está dividido en etapas, la cuales son el requerimiento de pago, embargo, avaluó, remate y adjudicación; conociendo esto, se toma en cuenta que en el caso de que los créditos a favor de las autoridades fiscales que requieran ser cubiertos en efectivo y desean impugnarse, no les será aplicada la jurisprudencia

24

Revista Científica

Los bienes no susceptibles a embargo. Son: • Bienes que contribuyan el patrimonio de familia. • Vestido y muebles de uso cotidiano del deudor y su familia. • Instrumentos, aparatos y útiles que el deudor usa explícitamente para desarrollar su actividad laboral. • Maquinaria, instrumentos y animales propias para cultivo agrícola. • Derechos de uso y habitación. • En caso de un bien se encuentre repartido en sociedad conyugal, sólo se podrá embargar el 50% de éste. Requisitos para que un embargo de bienes se lleve a cabo: • Que el actuario tenga una orden dictada por el juez donde se mande a requerir el pago del adeudo. • Que en caso del no pago por parte del deudor, se le solicite formalmente una declaración de sus bienes para la cobertura de la deuda, y que estos sean correctamente identificados y aprobados. • Que los bienes dejados en garantía procedan a no ser propiedad ni del actuario ni del deudor, sino que, hasta que sean rematados y liquidados pasen a ser propiedad del actuario de forma líquida.

Embargo de cuenta bancaria por orden judicial Se debe considerar, que cuando se tramitó un procedimiento de ejecución en contra de un deudor, aprobado por orden judicial, se procederá al embargo, en el caso de que el beneficiario de la deuda haya establecido por oficio ante un tribunal o juzgado que requería el pago de la deuda en efectivo. Con esto, y el hecho delictivo del deudor, el juzgado o tribunal procede a dar la orden de embargo a todas las cuentas del deudor, especificando la cantidad que se embargará y haciéndola efectiva de inmediato. Bajo este esquema es común que el deudor haya vaciado sus cuentas bancarias con anterioridad por miedo a ser embargado, pero esto solo lo lleva a incurrir en un delito grave de alzamiento de bienes (Fernández, 2018).


Desde el embargo hasta la ejecución hipotecaria

Materiales y métodos

Camarero (2012) explica diferentes conceptos relacionados con el embargo:

Tipo de estudio

Morosidad. Según la normativa financiera española, cuando el cliente de un banco deja de pagar tres recibos consecutivos por concepto hipotecario, se le considera como moroso y su crédito como dudoso o impagado; cuando se acumulan estos tres recibos, se inicia un proceso (no judicial) donde la empresa advierte a los clientes morosos las consecuencias de sus faltas de pago. Los procesos con capacidad para detener la ejecución hipotecaria son: la negociación entre la empresa y el cliente (ampliación del plazo del préstamo o incorporación de un periodo de carencia de intereses), y el alquiler (el deudor pasa a ser inquilino de su propia vivienda). Ejecución. De no acordar nada, se procede a una demanda judicial para fijar la fecha de subasta del inmueble, el deudor dispondrá de 30 días para contestar la demanda, de lo contrario el banco puede subastar el inmueble, puede haber tres diferentes resultados en la subasta, la adjudicación, la suspensión y el desierto.

Con el objetivo de conocer cuáles son causas relacionadas con los PAE o embargos sufridos por las Pymes de Ciudad Juárez Chihuahua, se presenta un estudio de campo, de tipo cuantitativo, exploratorio, descriptivo, transversal, no probabilístico y no experimental.

Métodos y técnicas de recolección de datos A partir de la literatura consultada, se diseñó un primer cuestionario cuyo contenido fue validado por expertos. Luego de una prueba piloto se procedió a aplicarlo a un total de 104 participantes durante el mes de marzo del 2019. La encuesta fue el método utilizado para el levantamiento de datos. La aplicación de cada cuestionario tomo un tiempo aproximado de cinco minutos, adicionales a las explicaciones esporádicas por dudas de los participantes. De un total de 104 cuestionarios aplicados, se descartaron 11, por el hecho de que no tener negocio propio.

Instrumento de medición Embargo masivo de cuentas a la vista (ECVV) Martínez (2014), indica que se trata de una aplicación creada por el Consejo General del Poder Judicial en 2011, la cual permite conectarse con la banca de Santander, ofrece un duplicado con la información de los deudores susceptibles a embargo, para proceder con la ejecución en efectivo, con esta aplicación no es necesario conocer ninguna información patrimonial del deudor y además, posibilita que cualquier juzgado practique el embargo aun sin el conocimiento de la existencia de bienes; este procedimiento se establece como investigación y no embargo, por lo cual es completamente legal. Si hay resultados positivos en la aplicación, deberá ahora sí, establecer en el juzgado la información resultante, así como la información patrimonial y toda la información adicional que se tenga del deudor y se procede a ejecutar el embargo en la aplicación, como método de seguridad se manda a confirmación mediante otra aplicación llamada INTER-IUS donde solo queda esperar la notificación sin errores del embargo.

Hipótesis Considerando los antecedentes del estudio y el marco de referencia citando anteriormente, se plantea la siguiente hipótesis: Ho: Las Pymes apalancadas de Ciudad Juárez Chihuahua son susceptibles del PAE o embargo debido a su escasa cultura financiera.

Con el propósito de conocer cuáles son las principales prácticas reportadas por las Pymes como motivo de aplicación del PAE o el embargo, se diseñó un cuestionario para conocer la cultura financiera, las prácticas deshonestas y financieras de encargados o propietarios de Pymes localizadas en Ciudad Juárez, Chihuahua. Inicialmente el instrumento contaba con veinte preguntas, las cuales fueron validadas al aplicar diez cuestionarios a personas propietarias de un negocio, gracias a estas primeras encuestas se corrigió el cuestionario; se eliminó una pregunta, se mejoraron cinco y se agregaron siete. Al finalizar, se obtuvo un cuestionario integrado por 6 preguntas relativas a datos demográficas y 20 que permiten conocer las variables del estudio (Anexo 2).

Población y muestra La población de esta investigación la conforman los encargados o propietarios de Pymes establecidas en Ciudad Juárez, Chihuahua que hayan podido ser sujetos del PAE, el embargo o que estén en riesgo de que se le aplique alguno de estos. La muestra del estudio es tipo intencional (no probabilística), los investigadores contactaron de manera personal a los participantes, teniendo como criterio ser dueño o encargado de una Pyme y la cercanía entre las empresas. Aunque se aplicaron 104 cuestionarios, la muestra final quedó integrada por 93 personas, de los cuales 46 (49.50%) pertenecen al sexo femenino y el resto al sexo masculino, 55 (59.10%) de los participantes posee estudios de licenciatura, 86 (92.50%) respondieron ser el dueño de la Pyme, esto se puede apreciar en la Tabla 1. La edad promedio de las personas que conforman la muestra del estudio es de 41.06 años, siendo la mínima 20 y la máxima 89, mientras que los años promedio de antigüedad de las Pymes son 7.25 años.

Revista Científica

25


Tabla 1. Descripción de la muestra.

Con respecto a las prácticas financieras, la Tabla 3 muestra que 18 (19.40%) participantes reportaron haber tenido un embargo por parte de una institución bancaria y 9 (9.70%) por un arrendatario, de igual forma 51 (54.80%) reportaron que solicitan un crédito para buscar su crecimiento comercial. Tabla 3. Prácticas financieras reportadas.

Fuente: Elaboración propia.

Fuente: Elaboración propia.

A continuación, se presentan los resultados que arrojaron las 93 encuestas válidas para esta investigación. Dentro de las preguntas que podían indicar una práctica deshonesta por parte de los contribuyentes que participaron en el estudio, llama la atención que 39 (42%) de ellos incumple con el pago de sus deudas debido a falta de solvencia. Por otra parte, aunque 75 (80.60%) han tenido problemas con sus cuentas por pagar, la mayoría (74, 79.60%) y 79 (84.90%) considera que sus gastos son consistentes con sus ingresos (Tabla 2).

También se puede apreciar como la falta de solvencia es la principal razón por la que los contribuyentes dejan de pagar sus deudas mientras que el descuido sería la segunda razón. Debe resaltarse el hecho, de que 59 (63.50%) de los encuestados no han sufrido un PAE ni embargo, 34.5% han tenido entre 1 y 2 embargos, y solamente 2.0 % han tenido entre 3 y 4 embargos.

Resultados

Tabla 2. Prácticas deshonestas reportadas.

Fuente: Elaboración propia.

26

Revista Científica

Con relación a la cultura financiera, resalta el hecho de que 59 (63.40%) de los participantes en el estudio no han recibido educación financiera o fiscal, mientras que 61 (65.60%) no consultan a un experto cuando van a tomar la decisión de adquirir un crédito, además 69 (74.00%) no considera necesario tomar cursos para la toma de decisiones fiscales (Tabla 3).


Tabla 3. Cultura financiera reportada.

Fuente: Elaboración propia.

Con base en los resultados obtenidos, se procede a aceptar la hipótesis, es decir, que las principales prácticas que orillan a las Pymes de Ciudad Juárez a ser objeto de aplicación del PAE o embargo, es por una deficiente cultura financiera reflejo de sus prácticas financieras y deshonestas.

Conclusión Finalmente, se debe aclarar que los resultados obtenidos solo aplican a las Pymes de Ciudad Juárez y específicamente a aquellas que participaron en el estudio. Las investigaciones previas encontradas, si bien hablaban del PAE y el embargo, no consideraban las practicas por la que estos procedimientos son aplicados, por esta razón no es posible establecer una discusión sobre los resultados obtenidos durante el estudio. Por ello, se espera que las aportaciones sobre el tema abordado abran la puerta a futuras investigaciones donde se considere la tecnología como herramienta de apoyo que ayude a reducir la aplicación de este tipo de medidas legales.

Agradecimientos Gracias a la maestra y coautora Diana Mireya Nieto Hipólito, quien fue guía en este proyecto, donde fue posible realizar una investigación hasta la posibilidad de publicar la misma, de igual manera gracias a nuestra alma mater, la Universidad Autónoma de Ciudad Juárez (UACJ), la cual proporcionó los espacios y recursos para el desarrollo académico de los autores de tal forma que los ha dejado llegar hasta aquí.

Revista Científica

27


Anexo 1. De los autores

Anexo 2. Cuestionario

Rosa Elva Rebolledo Osollo

Cuestionario

Nacida en Puerto Palomas, Chihuahua el 11 de marzo de 1996 (23 años), encargada de los ingresos contables de una empresa que cuenta con varios centros de entretenimiento; actualmente es estudiante de la licenciatura en contaduría de la cual es próxima a egresar; en su carrera como estudiante ha podido adquirir experiencia administrativa en dos grandes empresas y una pequeña, además de un certificado en programas Aspel y dos diplomados, en prácticas financieras (CONDUCEF) y prácticas contables (COBACH).

Este cuestionario ha sido creado para un tema de investigación en el que se busca brindar recomendaciones para poder solucionar problemas relacionados con el embargo y el PAE, solicitamos de su ayuda y paciencia para poder contestarlo con sinceridad, los datos aquí proporcionados serán utilizados con fines académicos para la Universidad Autónoma de Ciudad Juárez y no serán exhibidos.

Sexo: ___________________________ Ciudad natal: _____________________ Nivel de estudios: _________________ Edad: ___________________________ Ciudad de residencia: ______________ Puesto: __________________________

Jorge Ricardo Regalado Bustamante Nació el 31 de mayo de 1995 (23 años) en Ciudad Juárez, Chihuahua; actualmente es trabajador en el área de contabilidad de FLETES MEXICO CHIHUAHUA, alumno y próximo a egresar de la licenciatura en contaduría (UACJ). A lo largo de la carrera a obtenido dos diplomados, uno en Régimen de Incorporación Fiscal (RIF) y otro en educación en la Normal Superior de Ciudad Juárez.

Beatriz Díaz de León Porras Nacida en Ciudad Juárez Chihuahua el 31 de octubre de 1987 (31 años); se dedica a la compra-venta de bienes inmuebles para lo cual se encuentra certificada por INFONAVIT (Instituto del Fondo Nacional de la Vivienda para los Trabajadores) y FOVISSSTE ( Fondo de la Vivienda de Seguridad y Servicio Sociales de los Trabajadores del Estado), actualmente estudiante de la licenciatura en contaduría de la cual es próxima a egresar; madre de dos niños de 3 y 4 años, felizmente casada con Roberto Amador; a lo largo de su carrera ha trabajado y adquirido experiencia en asesoría contable, administración de restaurantes, recursos humanos y cobranza.

Diana Mireya Nieto Hipólito Nació en 1970 en la Ciudad de México, egresada de la Universidad Autónoma de Baja California donde estudió la licenciatura en Informática, posee el grado de Maestra en Educación por el Instituto Tecnológico de Monterrey, Campus Ciudad Juárez, además cuenta con el grado de Doctora en Ciencias Administrativas otorgado por la Universidad Autónoma de Ciudad Juárez, donde imparte las asignaturas de Seminario de Investigación I y II en los programas de Contaduría y Administración del ICSA. También es PTC de la Universidad Tecnológica de Ciudad Juárez Chihuahua desde septiembre del 2006 donde imparte asignaturas de Programación, Estadística y Modelados de Procesos en el programa de ingeniería en Tecnologías de la Información.

1.

¿Cuenta usted con negocio propio? R: Si No

2.

¿Cuál es el giro de su empresa? ____________________________________

3.

¿Cuál es la antigüedad de su negocio? ____________________________________

4.

¿Cuántos empleados laboran en esta empresa? ____________________________________

5.

¿Cuál es su personalidad Jurídica? R: Física Moral

6.

¿Ha sido sujeto alguna vez de un embargo? R: Si No

7.

Si la pregunta anterior fue afirmativa, por favor indique qué tipo de institución le ejecuto el embargo: R: Institución financiera Institución bancaria Institución fiscal

8.

¿Que lo inclina a solicitar un crédito? R: Crecimiento comercial o Profesional Falta de Liquidez Nunca he solicitado un crédito

9.

¿Por qué razón incumple el pago de una deuda propia? R: Falta de solvencia Descuido Perdida de interés No tengo deuda Otro:____________

10.

¿Ha considerado el hecho de que, si incumple sus obligaciones fiduciarias, la institución correspondiente, legalmente puede proceder a liquidar la deuda con sus bienes? R: Si No No me importa

28

Revista Científica


11.

¿Ha recibido educación financiera o fiscal? R: Si No En caso de ser si, en donde:_____________

12.

Cuándo decide adquirir un crédito, ¿Consulta a un experto? R: Si No A quién: _______

13.

En la toma de decisiones de endeudamiento, ¿ha tomado consejos antes de hacerlo? R: Si No

14.

¿Cuántos embargos ha sufrido? R: 1-2 3-4 5 o más especifique:_______

15.

¿Considera necesario tomar algún curso rápido de toma de decisiones fiscales, antes de solicitar otro crédito? R: Si No Por qué: ____________

16.

¿Usted o algún familiar llevan su contabilidad? R: Si No Por qué: ____________

17.

¿Reporta todos sus ingresos? R: Si: No: Por qué: ____________

18.

¿Sus gastos son consistentes con sus ingresos? R: Si: No: Por qué: ____________

19.

¿Ha tenido problemas referentes a sus cuentas por pagar? R: Si: No: Por qué: ____________

20.

En caso de que su respuesta anterior sea sí, favor de mencionar con qué tipo de institución tuvo el problema.

________________________________________________________

Observaciones: ________________________________________________________ ________________________________________________________ ________________________________________________________ ________________________________________________________ ________________________________________________________ ________________________________________________________ ________________________________________________________ ________________________________________________________

Revista Científica

29


30

Revista CientĂ­fica


Bibliografía + Cámara de Diputados del H. Congreso de la Unión (2014). Codigo Fiscal de la Federacion. México, D.F. + Camarero, J. (15 de Octubre de 2012). pisos.com. Obtenido de https://www.pisos.com/aldia/paso-a-paso-desde-el-embargo-hasta-la-ejecucion-hipotecaria/21832/ + Camarero, J. (15 de Octubre de 2012). Paso a paso desde el embargo hasta la ejecución hipotecaria. Recuperado el 2018, de pisos.com: https:// www.pisos.com/aldia/paso-a-paso-desde-el-embargo-hasta-la-ejecucion-hipotecaria/21832/ + Cardenas, F. (Febrero de 2010). PROCEDIMIENTO ADMINISTRATIVO DE EJECUCIÓN. CUANDO EL EMBARGO. Tribunales colegiados de circuito.

+ Espino, M. (2004). Teoria general de las nulidades del procedimiento. Teoria general de las nulidades procesales. Mexico. + Espino, M. (2008). Teoría General de las Nulidades del Procedimiento (1ra edición ed.). Panamá, Mexico: Organo Judicial. + Fernández, F. (18 de Enero de 2018). Embargo de cuenta bancaria por oden judicial. Recuperado el 2018, de El Juridista: https://www.eljuridistaoposiciones.com/embargo-cuenta-bancaria-por-orden-judicial/ + Fernández, F. (18 de Enero de 2018). Revista el Juridista. Obtenido de https://www.eljuridistaoposiciones.com/embargo-cuenta-bancaria-por-orden-judicial/ + Gonzalez, A. (2010). El nuevo regimen del embargo preventivo de buques en el derecho español. Revista Chilena.

+ Cárdenas, F. (Febrero de 2010). Procedimiento Administrativo de Ejecución. Cuando el embargo recae sobre una suma de dinero sí es posible impugnarlo de manera autónoma a través del juicio de nulidad (inaplicabilidad de la jurisprudencia 2da./J.18/2009. Suprema Corte de Justicia de la Nación, Semanario Judicial de la Federación. México: Tribunales colegiados de circuito.

+ González, A. (2010). Las medidas conservativas como parte integrante de la estructura del embargo. Revista Chilena de Derecho, 37(1), 99-121.

+ Chavero, E. (2018). MUPLEY. Obtenido de https://blogifa.wordpress.com/2016/10/11/todo-lo-que-como-contador-necesita-conocer-sobre-el-procedimiento-administrativo-de-ejecucion-pae/

+ Instituto Nacional de Administración Pública, A.C. (14 de Noviembre de 2012). Consultoría para la “Evaluación de procesos de los programas presupuestarios del SAT 2012”. SAT. Obtenido de https://www.gob.mx/cms/ uploads/attachment/file/134795/Recaudacion_contrib_fed.pdf

+ Chavero, E. (1 de Diciembre de 2016). Todo lo que como contador necesita conocer sobre el Procedimiento Administrativo de Ejecución (PAE). Recuperado el 2018, de ElConta.com: https://blogifa.wordpress. com/2016/10/11/todo-lo-que-como-contador-necesita-conocer-sobre-el-procedimiento-administrativo-de-ejecucion-pae/ + Contrakto (6 de Octubre de 2014). ElConta.com. Obtenido de El Embargo Mercantil lo que debes saber: https://elconta.com/2014/10/06/elembargo-mercantil-lo-mnimo-que-debes-de-saber/ + Contrakto (6 de Octubre de 2014). TuConta. Obtenido de https:// elconta.com/2014/10/06/el-embargo-mercantil-lo-mnimo-que-debes-desaber/ + Delvasto, P. (2013). El caso del embargo y los bienes fuera del comercio en la enseñanza del derecho en Colombia. Revista de Derecho, 40.

+ Gudín, A. (2013). El embargo de cuentas corrientes. Especialidades que plantea su ejecución telemática centralizada. Revista para el Análisis del Derecho, 1-49.

+ Losson, O. (Noviembre de 2003). Procedimiento Administrativo de Ejecución. Es requisito de legalidad que en el citatorio se indique que es para llevar a cabo los actos relativos al requerimiento de pago y embargo. Semanario Judicial de la Federación y su Gaceta, Tribunales Colegiados de Ciruito. + Martinez (18 de Enero de 2014). Justicia y prehistoria. Obtenido de https://justiciayprehistoria.blogspot.com/2014/01/guia-de-uso-del-embargo-masivo-de.html + Servicio de Administración Tributaria (2014). + Servicio de Administración Tributaria (2018).

+ Delvasto, P. (2013). El caso del embargo y los bienes fuera del comercio en la enseñanza del derecho en Colombia: ¿Un caso de ceguera por atención? Revista de Derecho(40), 250-282.

Revista Científica

31


Uriel Angel Gómez Rivera1, Ivan Juan Carlos Pérez Olguín2 y Luis Alberto Rodríguez Picón3

Universidad Autónoma de Ciudad Juárez Av. Hermanos Escobar, Omega, C.P. 32410, Ciudad Juárez , Chihuahua, Méx. 1, 2, 3

al182974@alumnos.uacj.mx ivan.perez@uacj.mx

Resumen: El presente proyecto tiene como objetivo el diseño de un control sistematizado sobre los contenedores de residuos en el ámbito industrial. Por lo cual se utilizaron diversas herramientas como el dispositivo físico que esta constituido por un microcontrolador y sensores, así como el software cuyo funcionamiento es con base en el algoritmo de optimización dijkstra. De esta manera la metodología fue hecha en dos etapas que incluyó, la interconexión del dispositivo y su código en el software tomando como base el algoritmo dijkstra. Finalmente, dicho dispositivo dio resultados favorables en sus respectivas hipótesis, desde la prevención del desbordamiento de cada contenedor por medio de la comunicación y monitoreo de estos hasta la gran eficiencia de optimización de rutas por medio del algoritmo dijkstra medidas en pruebas de hipótesis t de una muestra y pruebas t pareada.

+

Palabras clave: Algoritmo Dijkstra, Optimización de Recorrido, Recolección de Residuos Sólidos, Google Maps.

Recibido: Mayo 6, 2020. Recibido en forma revisada: Julio 11, 2020. Aceptado: Julio 12, 2020.

32

Revista Científica

Abstract: The objective of this project is to design a systematized control over waste containers in the industrial field. Therefore, various tools were used, such as the physical device that is made up of a microcontroller and sensors, as well as the software whose operation is based on the optimization algorithm dijkstra. In this way the methodology was


made in two stages in which I cover the interconnection of the device and its code in the software based on the dijkstra algorithm. Finally, said device gave favorable results in their respective hypotheses, from the prevention of the overflow of each container through the communication and monitoring of these to the high efficiency of route optimization through the dijkstra algorithm measured in hypothesis tests one sample t and t paired.

+

Keywords: Dijkstra Algorithm, Solid Waste, Trace Route Optimization, Google Maps.

Introducción Dentro del contexto de las ciudades inteligentes (Smart Cities) el sistema de gestión de residuos inteligente tiene amplia relevancia ya que es posible incorporar herramientas de análisis de información en tiempo real que faciliten la toma de decisiones autónomas, en lo referente a la localización y distribución de contenedores, análisis y optimización de de rutas, entre otros (Martínez, Castillo y Crowe, 2019). En general, este tipo de desarrollos se fundamentan en cinco aspectos:

• Sensores inteligentes, que permiten recabar información con respecto al seguimiento del nivel de llenado de los contenedores mediante sensores de ultrasonidos. • Sistema de gestión de residuos, que permite realizar configuraciones del sistema de monitoreo, comunicación, seguimiento y gestión de los residuos. • Análisis de datos, que permite el análisis de los nodos que requieren recolección, los algoritmos de optimización de rutas y permiten la toma de decisiones basadas en datos. • Planificador de rutas, determina la distribución de los recursos para optimizar la gestión de rutas de recolección, con retroalimentación centrada en sistemas de gestión de mapas. • Aplicación, interface de comunicación de los cuatro puntos anteriores que comunica la decisión obtenida en base a los datos recabados mediante una aplicación móvil.

La necesidad de tener sistemas que optimicen los costos operativos, es un motivador que impulsa la incorporación tecnológica en el monitoreo, control y planeación de las rutas de recolección de los residuos industriales, ya que permitirá la reducción de los costos de transporte, la mejor asignación de los vehículos utilizados en los procesos de recolección, la planeación adecuada de los programas de mantenimiento (en base a su tasa de ocupación) y una reducción en el impactó ambiental (por la reducción en la emisión de gases a la atmosfera y en la reducción del desborgamiento de residuos sólidos de los contenedores actualmente utilizados). Por ello, se propone desarrollar e implementar un sistema de gestión y comunicación en los contenedores industriales, que permita el ahorro de recursos y por consiguiente evitar gastos innecesarios, este sistema permitirá determinar cuales de los contenedores industriales, ubicados en distintas locaciones se encuentran en su capacidad máxima de alma-

cenamiento; posteriormente, utilizando un algoritmo de optimización de rutas (dijkstra), analiza las locaciones, calcula la ruta optimizada y comunica la ruta a los camiones recolectores utilizando google maps como interface, ahorrando gastos de combustible. Para validar si el dispositvo de medición y comunicación propuesto en la investigación permite reducir el impacto ambiental negativo relacionado con la disposición de los contenedores de residuos sólidos industriales, se plantean las siguientes hipótesis, que serán evaluadas con 10 observaciones y un nivel de confianza del 95%: Hipótesis #1: la interfaz del sistema de comunicación registrará cuando el contenedor llegue a su capacidad máxima y de esta manera informará sobre el estatus de los contenedores a su máxima capacidad para su recolección. • H0: La μ del tiempo de recolección programado para un contenedor en especifico es igual a la μ del tiempo de llenado reportado por los contenedores inteligentes. • H1: La μ del tiempo de recolección programado para un contenedor en especifico es diferente a la μ del tiempo de llenado reportado por los contenedores inteligentes. Hipótesis #2: El sistema de detección de residuos por vía infrarroja, por medio de un algoritmo de programación, enviará una señal al sistema de monitoreo, e indicará cuando este llegue a su capacidad máxima, evitando la contaminación física del entorno. • H0: La μ del tiempo de recolección programado de los residuos de contenedores normales evita el desbordamiento de residuos o la subutilización de los contenedores. • H1: La μ del tiempo de recolección programado para los residuos de contenedores normales no evita el desbordamiento de residuos o la subutilización de contenedores. Hipótesis #3: La ruta de recolección obtenida por medio del modelo de programación lineal de ruta mas corta y la retroalimentación del contenedor inteligente permiten reducir la distancia recorrida para la recolección de los desperdicios depositados en los contenedores de desperdicio industrial. • H0: La μ de contenedores normales = μ de contenedores inteligentes. • H1: La μ de contenedores normales > μ de contenedores inteligentes.

Marco Teórico Ciudades inteligentes

Hoy en día, las denominadas ciudades inteligentes se caracterizan por la eficiencia tecnológica, proceso que se ha estado desarrollando en los últimos años, la importancia de las ciudades inteligentes, surge de la incorporación del Internet de las Cosas y las nuevas tecnologías que ayudan a generar una infraestructura que garantice que la vida de las personas sea más cómoda, eficiente (Martinez, 2019) y sustentable. Las ciudades inteligentes son aquellas que utilizan el potencial de la tecnología y la innovación, junto al resto de recursos para hacer de ellos un uso más eficaz, promover un desarrollo sostenible y, en definitiva,

Revista Científica

33


mejorar la calidad de vida de sus ciudadanos usando una apropiada gestión de la tecnologia (Alcalde, 2019). Es decir, son todas aquellas ciudades que usan y fomentan el buen rendimiento de la tecnología, con el objetivo principal de avanzar en temas como infraestructura, economía, social y medioambiente.

Problemática de transporte La movilidad es uno de los mayores problemas a los que se enfrentan las ciudades. Más del 50% de la población del planeta vive hoy en día en ciudades, y se espera que esta cifra suba al 70% en el 2050. Conseguir que las ciudades no se saturen, tengan un aire limpio y optimicen los costos de gestión de la movilidad es prioritario. De esta manera, los temas de movilidad, donde se incluyen los problemas y algoritmos de transporte es el área principal que está liderando la industria de las ciudades inteligentes (Berengueras, 2019). En las ciudades inteligentes se han desarrollado modelos para mejorar la logística del control del tráfico con el propósito de disminuir la contaminación aunado con los costos de transporte, un ejemplo claro ha sido el control de la red de semáforos, variando la frecuencia y sincronizando de la red para conseguir un tráfico más fluido, priorizando el tráfico en rutas alternativas, facilitar rutas de acceso y evacuación en caso de accidentes viales (Atlas Smart Cities, 2019). Otro ejemplo, relacionado con modelos de optimización, ha sido la implantación del monitoreo en el seguimiento y la geolocalización de vehículos, gestionar rutas en control de tráfico y las necesidades de desplazamiento, adaptar la ruta a situaciones especiales, controlar consumos, usos de la flota y choferes con el objetivo mencionado anteriormente de optimizar costos (Stolfi, 2019). Con respecto a empresas encargadas de la gestión de residuos sólidos industriales, el objetivo de minimizar los costos de transporte y el tiempo de recolección es de alta prioridad, por ello se busca implementar estrategías tecnológicas que permitan alcanzar dicho objetivo y reduzcan el impacto ambiental negativo dentro del contexto del manejo de residuos sólidos industriales. Narezo (2017) menciona que en los últimos años, algunas empresas y/o instituciones han resaltado la gran importancia que podría emplear la inteligencia artificial en la logística y transporte con el objetivo de la optimización de rutas.

Inteligencia artificial La logística y el transporte están experimentando un cambio profundo. El 65% de los directivos del sector según Forbes Insights (2019) cree que se puede hablar casi de renacimiento de la industria debido a la inteligencia artificial y el aprendizaje autónomo. Es importante destacar que los avances en conectividad y sensóres permiten que los datos fluyan desde cualquier objeto y en cualquier dirección. Datos de los que se alimenta directamente la inteligencia artificial y que son utilizados para alcanzar nuevos niveles de eficiencia y productividad (Samaniego, 2019). El transporte y la logística, un sector en claro crecimiento (Frost y Sullivan, 2018) no son ajenos a esta revolución. De hecho, la inversión en internet de las cosas, analítica avanzada e inteligencia artificial dentro de esta industria no dejará de aumentar en

34

Revista Científica

los próximos años. La programación de algoritmos en dispositivos electrónicos esta teniendo un papel importante en el transporte de las ciudades inteligentes. Además, es fundamental resaltar las características de algunos algoritmos de programación matemática para la optimización de rutas, tal es el caso del algoritmo dijkstra.

Algoritmo dijkstra Entre los modelos heurísticos aplicados a la optimización de rutas, el más factible a utilizar en procesos de optimización de rutas es el denominado como algoritmo dijkstra. También llamado algoritmo de caminos mínimos, es un algoritmo para la determinación del camino más corto dado un vértice origen al resto de vértices en un grafo con pesos en cada arista. Su nombre se refiere a Edsger Dijkstra, quien lo describió por primera vez en 1959 (Salazar, 2016). Una de las características principales del algoritmo es que trabaja por etapas y toma en cada etapa la mejor solución sin considerar consecuencias futuras. El óptimo encontrado en una etapa puede modificarse posteriormente si surge una solución mejor (Ecured, 2018). Haciendo uso de la Figura 1, puede explicarse el funcionamiento del algoritmo, esta figura presenta un grafo donde se muestran las distancias entre nodos expresadas en kilómetros que representan la posición de los contenedores en el mapa de la ciudad.

Figura 1. Grafo del algoritmo dijkstra.

Utilizando el grafo arriba mostrado es posible generar una matriz cuadrada donde se ingresan todos los vértices del grafo con sus respectivos pasos. En cada una de las casillas de la matriz se registra la distancia desde el vértice que se mide, es decir el origen (el punto de salida de los vehículos recolectores) hasta cada uno de los nodos indicados (ubicación de cada uno de los contenedores), de esta manera se estará comparando cada una de las distancias y consecutivamente se irán sumando las distancias dependiendo del nodo a seguir hasta seleccionar la óptima.


Materiales y Métodos Sensores de proximidad Los sensores de proximidad seleccionados son los sensores infrarrojo. Entre sus características principales se tienem que cuentan con un modulo para ajustar la distancia a detectar y el tamaño ideal para construir un sistema de control (Keyence Corporation, 2019).

cación adecuada de la recolección. La Figura 3, muestra la simulación de la detección de residuos de los dos sensores en el compilador del microcontrolador Arduino Uno R3. De esta manera, el funcionamiento del sistema de los niveles de control de residuos por medio del software del microcontrolador queda resuelto y permite disminuir la incidencia de señales equivocadas.

Microcontrolador El controlador seleccionado a utilizar es el Arduino Uno R3, de esta manera, el contenedor inteligente contará con un pequeño compartimiento en la parte superior, para depositar el microcontrolador, ocultar su presencia y evitar colisiones con los desperdicios que se ingresan al contenedor. Para la programación cuenta con un puerto de conexión USB que permite conectarlo a una computadora, además cuenta con un adaptador para utilizarlo mediante una batería de corriente continua.

Modulo Wi-Fi El módulo seleccionado es el ESP8266/ESP12E para lograr establecer la comunicación vía Wi-Fi entre el Arduino Uno R3 y el software de gestión desarrollado, con el propósito de enviar el estado de llenado del contenedor. La Figura 2 muestra el prototipo físico construido.

Figura 3. Simulación en compilador arduino.

Sistema de comunicación basado en una base de datos Como anteriormente se mencionó, dentro del código de programación del microcontrolador se puede visualizar el estatus del contenedor. Utilizando un sistema de comunicación Wi-Fi se notificará el estatus de cada contenedor registrándose la información en una base de datos donde se identificarán los contenedores que hayan alcanzado su capacidad máxima o de nivel de recolección inmediata. De esta forma el sistema mostrará en tiempo real la actividad de cada uno de los contenedores de 50 empresas maquiladoras de la ciudad que se tomaron aleatoriamente de las ubicadas en la localidad. El sistema enviará una señal de 0 cuando el sistema detecta el nivel de alerta del Sensor 1 y cuando el sistema detecta el nivel de alerta del Sensor 2 el sistema enviará una señal de 1. Posteriormente, a través de la señal Wi-Fi el sistema retroalimentará a un programa de computo denominado Route Optimizer.

Figura 2. Prototipo de contenedor inteligente con sensores, microcontrolador y módulo Wi-Fi integrados.

Programación La primera parte de la programación del dispositivo consiste en registrar adecuadamente la lectura de dos sensores, uno de los cuales indica cuando se alcanza un nivel de seguridad de llenado (nivel de alerta) y el segundo sensor indica cuando el contenedor alcance su capacidad máxima (nivel de recolección inmediata), incorporando su respectiva función “delay” la cual estará encargada de leer los datos por medio de los sensores cada determinado tiempo. Un dato a tener en cuenta consiste en que, en este sistema de control, al detectar el primer sensor los residuos depositados, solo enviara una señal de “alerta”, notificándole al usuario que el primer nivel está lleno. De esta manera el usuario estará alerta de cuando se llegue al nivel dos, que es de “recolección inmediata”, lo que permitirá realizar una planifi-

Programación de ruta más corta basada en la variante del algoritmo dijkstra Para la programación de la ruta mas corta basada en la variante del algoritmo dijkstra, el tiempo de solución inicial del algoritmo se define por Θ(n2) operaciones (sumas y comparaciones) para determinar la longitud del camino más corto entre dos vértices de un grafo ponderado simple, conexo y no dirigido con n vértices (Javaid, 2013). Por lo tanto, con base a la formula del tiempo de ejecución del algoritmo Θ (|A|.Tdk + |v|.Tdm) se extrae la minima distancia de cada uno de los vertices y nodos. De esta manera, al detectar “n” número de contenedores en su capacidad máxima por medio de los sensores, es momento calcular la ruta de recolección utilizando un algoritno de ruta más corta. Previamente, se mencionó la utilización de una base de datos con 50 ubicaciónes de empresas maquiladoras en la localidad, la base de datos incluye las coordenadas geográficas de cada empresa, direcciones y las distancias

Revista Científica

35


existentes entre las empresas, mismas que pueden utilizarse para la construcción del grafo utilizado por el algoritmo dijkstra. Una porción de la base de datos puede observarse en la Figura 4.

Figura 4. Extracto a la base de datos.

Utilizando el programa de computo Route Optimizer se aplica el algoritmo dijkstra utilizando para el cálculo la seleción de nodos identificadas con la señal de recolección inmediata, extraidas de la base de datos anteriormente mencionada. Cabe destacar que, al elaborar el programa de computo, se incluyeron algunas librerías especiales para la incorporación del cliente de Google Maps como la librería Gmaps que incluyen vistas del mapa del tipo normal, relieve y satélite (Google Maps, 2005). Estas acciones fueron incluidas, debido a la interacción que tiene Route Optimizer con la interfaz de Google Maps. Además, se defineron parámetros para el ingreso de datos como latitud y longitud con el objetivo de pre-visualizar alguna ubicación y conocer su respectiva latitud y/o longitud (Figura 5).

Programación del algoritmo dijkstra por medio de identidades Al generar identidades en cada de uno de los puntos geográficos que pueden simularse, permitirá tener un mayor control y facilitará la identificación de nodos durante la generación de un orden consecutivo de recolección por medio de las distancias, al momento de aplicar el algoritmo dijkstra. Por lo cual, resulta efectivo asignar dentro del código, una serie de condiciones a cada punto geográfico junto con su respectiva identidad, basada en su hipervínculo individual para la concatenación de estos. De esta manera, la concatenación se realiza mediante un orden establecido por medio de fórmulas basadas en sus distancias. De esta manera, se le asignan a cada uno de los puntos geográficos, sus identidades mediante sus nodos que previamente se dieron a conocer en la base de datos en tiempo real. Esta estructura permitirá, mostrar cada una de las identidades en cada uno de los cuadros de textos, bajo el nombre de “Result”, al ingresar el número de nodo en los cuadros de texto de “Location”. Cabe destacar, que cada punto o nodo que se ingrese en los cuadros de texto, debe de tener el mismo resúltado o identidad respectivo a cada punto geográfico para asignar un orden basado en distancias mínimas, como es el caso del algoritmo dijkstra.

Formula basada en algoritmo dijkstra Al tener registradas cada una de las identidades en cada “Cuadro de Texto” bajo el título de “Location” y su respectivo resultado en la caja de texto bajo el título de “Result”, se da paso al condicionamiento de ingreso de identidades y su orden consecutivo mediante fórmulas cuya finalidad es la generación del algoritmo o “Clave Única” con la cual se generara un hipervínculo con el orden de distancias establecido por dicha formula. La Figura 6 muestra la pantalla donde el hipervínculo es generado.

Figura 5. Programa de computo Route Optimizer.

Una de las características del software, es que se puede adquirir el grafo de ruta en forma polinomial en cada uno de los puntos ingresados por el usuario. Cuando se ingresa al botón “Selección Asistida”, se debe tomar en cuenta que el usuario que operará dicho programa de computo tendrá que saber previamente algunos datos o información para obtener resultados fiables; en este caso, el usuario tiene que conocer hacía que puntos geográficos se va a desplazar el vehículo para la recolección de contenedores. Como ya se ha mencionado, estos puntos geográficos se conocerán por medio de un sistema de sensores que al ser activados se mostrarán su respectivo estatus de los contenedores en el sistema. El siguiente paso de ejecución del programa, consiste en generar las locaciones o puntos por medio de “Identidades”.

36

Revista Científica

Figura 6. Selección asistida.

Otra alternativa para la generación del hipervínculo es la ópción “Manual Selection”, mostrada en la Figura 7, que funciona exactamente igual que el previamente mostrado, con la única diferencia que muestra una interfaz mas sencilla de utilizar, ya que no cuenta con una pantalla previa donde se indique cuales ubicaciones requieren atención. Esta selección, se utiliza cuando el usuario conoce sin consultar, cuales puntos requieren


atención, ya que previamente recibió la información por medios alternos al proceso autónomo (llamada telefónica, mensaje de texto u otros medios).

La Figura 8 despliega la prueba t de una muestra obtenida utilizando el software Minitab. Utilizando un nivel de confianza del 95%, es posible observar que el P-Value obtenido (0.000) es menor que el valor de alfa (0.05), lo que hace cumplir la hipótesis alternativa (H1 ); por tanto, el tiempo promedio de recolección programado para un contenedor en específico es diferente al tiempo promedio de llenado reportado por los contenedores inteligentes, esto asumiendo que el tiempo promedio de llenado de los contenedores inteligentes será comunicado por el dispositivo de medición y comunicación cuando los desperdicios depositados en el contenedor inteligente alcancen el nivel de detección indicado por los sensores.

Figura 7. Selección manual.

De igual forma, al tener datos ingresados, se presiona el boton “Apply Dijkstra Algorithm para redireccionar a la interfaz “Google maps” y conocer la ruta optimizada.

Resultados Hipotesis # 1 La interfaz del sistema de comunicación registrará cuando el contenedor llegue a su capacidad máxima y de esta manera informará sobre el estatus de los contenedores a su máxima capacidad para su recolección.

• H0: La μ del tiempo de recolección programado para un contenedor en especifico es igual a la μ del tiempo de llenado reportado por los contenedores inteligentes. • H1: La μ del tiempo de recolección programado para un contenedor en especifico es diferente a la μ del tiempo de llenado reportado por los contenedores inteligentes.

Para probar esta hipótesis, se recabó información de contenedores de desechos sólidos ubicados en 10 diferentes puntos de la ciudad, mediante investigación se observó que el tiempo de recolección programado para los contenedores por la empresa sujeta a estudio es cada día martes, sin embargo se pudo observar que los tiempos de llenado de los contenedores eran inferiores a esa frecuencia, lo que ocasionaba problemas de contaminación ambiental en el entorno por el desbordamiento de los mismos. La Tabla 1 presenta los datos recabados, siendo la prueba t de una muestra el análisis estadístico aplicado. Tabla 1. Tiempo de llenado de contenedores indistriales.

Figura 8. Prueba t de una muestra que evalua los días de llenado del contenedor contra el día de recolección programado.

Hipótesis # 2 El sistema de detección de residuos por vía infrarroja, por medio de un algoritmo de programación, enviará una señal al sistema de monitoreo, e indicara cuando este llegue a su capacidad máxima, evitando la contaminación física del entorno.

• H0: La μ del tiempo de recolección programado de los residuos de contenedores normales evita el desbordamiento de residuos o la subutilización de los contenedores. • H1: La μ del tiempo de recolección programado para los residuos de contenedores normales no evita el desbordamiento de residuos o la subutilización de contenedores.

Para la comprobación de esta hipótesis se recabaron datos mediante el funcionamiento del dispositivo de medición y comunicación propuesto en esta investigación, que son equiparables a los contenedores inteligentes ya en funcionamiento y que de funcionar adecuadamente evitaran el desbordamiento de los desechos sólidos, puesto que enviaran la señal de recolección cuando los contenedores inteligentes lleguen a su capacidad máxima. La prueba estadística utilizada fue la prueba t de una muestra con un nivel de confianza del 95%, la Tabla 2 muestra los datos recolectados, donde el número 1 índica que el sensor de llenado ubicado en el contenedor inteligente proporcionó una señal de llenado acorde con la capacidad del contenedor y 0 índica que el sensor ubicado en el contene-

Revista Científica

37


dor inteligente proporcionó una retroalimentación incorrecta (una señal de no llenado cuando el contenedor estaba lleno).

Tabla 3. Distancias obtenidas mediante Google Maps antes y despues de aplicar el algoritmo dijkstra.

Tabla 2. Señal de retroalimentación del sensor infrarrojo.

Como se puede observar en la Figura 9, el P-Value obtenido (0.168) es mayor que el valor de alfa (0.05), lo que hace clumplir la hipótesis nula (H0 ), concluyendo que el promedio del tiempo de recolección programado de los residuos de contenedores normales evita el desbordamiento de residuos o la subutilización de los contenedores, esto debido a que los sensores instalados en los contenedores inteligentes proveeran señales de llenado acordes con la realidad del contenedor y por tanto la recolección del contenedor inteligente será programada cuando sea necesario.

Para probar la hipótesis se utilizó la prueba t pareada mismas que fue evaluada al 95% de confianza. La Figura 10 despliega una de las rutas evaluadas, antes y despues de utilizar el algoritmo dijkstra mediante Route Optimizer el cual proporciona una reducción en la distancia total del 9.81%.

Figura 10. Comparativo de ruta sin optimizar (izquierda) y ruta optimizada (derecha) mediante el software propuesto y desplegadas en Google Maps.

Como se observa en la Figura 11, debido a que el P-Value obtenido (0.001) es menor al valor alfa (0.005) se concluye que existe una diferencia significativa en las distancias obtenidas antes y despues de implementar el algoritmo dijkstra mediante el software Route Optimizer.

Figura 9. Prueba t de una muestra que evalua si el sensor infrarrojo provee retroalimentación consistente con el nivel de llenado.

Hipótesis # 3 La ruta de recolección obtenida por medio del modelo de programación lineal de ruta mas corta y la retroalimentación del contenedor inteligente permiten reducir la distancia recorrida para la recolección de los desperdicios depositados en los contenedores de desperdicio industrial.

• H0: La μ de contenedores normales = μ de contenedores inteligentes. • H1: La μ de contenedores normales > μ de contenedores inteligentes. Para la comprobación de esta hipótesis, se recabaron datos mediante simulación de 10 diferentes rutas de recolección de contenedores ubicados en diferentes puntos de la ciudad, utilizando Google Maps para obtener la distancia a recorrer de acuerdo al orden de aparición de la localización del contenedor en la base de datos y utilizando el software Route Optimizer desarrollado para obtener la secuencia de recolección de contenedores mediante el algoritmo dijkstra, misma que es ingresada a Google Maps para obtener la distancia de recolección final (Tabla 3).

38

Revista Científica

Figura 11. Prueba t de pareada que evalua las distancias obtenidas antes y despues de utilizar el software Route Optimizer.

Conclusiones Dado que los resultados de las hipótesis fueron favorables, se pudo observar el beneficio que aporta la propuesta de contenedor inteligente y del programa de computo de optimización de rutas, para la reducción de los costos asociados al transporte de los residuos sólidos industriales.


También se resalta el impacto positivo que tiene este desarrollo en cuanto a la reducción de la contaminación física del entorno, por el desbordamiento de los contenedores no inteligentes y la reducción de contaminantes a la atmosfera, por la utilización adecuada de los vehículos de recolección, ya que estos serán utilizados cuando son requeridos y no por rutas establecidas de forma periódica y no relacionadas con el nivel de uso del contenedor. De esta manera, se favorece tanto al medio ambiente como a la utilización correcta de los recursos de las empresas recolectoras ya que, mediante la implementación del programa de computo basado en el algoritmo dijkstra, así como del sistema de monitoreo y comunicación, se reducen las distancias lo que se traducen en reducción de tiempo, dinero y esfuerzos.

El porcentaje promedio de reducción de las distancias obtenidas en este estudio fue de 27.24%. Por lo tanto, es esencial el compartir estas rutas optimizadas a los choferes encargados de la recolección, por medio de dispositivos inteligentes y así, ellos conocerán la ruta optimizada a seguir. A manera de resumen, entre las ventajas de utilizar este sistema encuentran las siguientes:

• Reducción de costos de transporte. • Realización de rutas de recolección solamente cuando son requeridas. • Uso de un sistema amigable que permite al usuario una pronta respuesta a tales necesidades. • Con respecto a los beneficios a la sociedad, se encuentra la reducción de la contaminación de residuos sólidos por sobresaturación de algunos contenedores (desbordamiento).

Revista Científica

39


40

Revista CientĂ­fica


Bibliografía + Martínez Moreno, Ángel Luís; Castillo Soler, Salvador y Crowe, Rebeca (2019). Gestión Inteligente de Residuos. V Congreso de Ciudades Inteligentes. Madrid, España. + Martinez, Noelia (2019). Cómo trabajan las smart cities para ser más ecológicas y sostenibles. Hablemos de empresas. Sevilla, España. Recuperado de: https://hablemosdeempresas. com/empresa/smart-cities-ecologicas-y-sostenibles/ + Alcalde, Janire (2019). Ciudad inteligente - Definición, qué es y concepto. Economipedia. Madrid, España. Recuperado de: https://economipedia.com/definiciones/ciudad-inteligente-smart-city.html + Berengueras, Josep (2019). El transporte protagoniza las ciudades inteligentes. Elperiodico. Barcelona, España. Recuperado de: https://www.elperiodico.com/es/economia/20171114/ transporte-ciudades-inteligentes-6424234 + Smart Cities Atlas (2019). Transporte y movilidad en una ciudad inteligente. Smart Cities Atlas. Buenos Aires, Argentina. Recuperado de: http://www.smartcitiesatlas.com/transporte-y-movilidad-en-una-ciudad-inteligente/ + Narezo, Jorge (2017). Ciudades Inteligentes. Movilidad y transporte. Ciudad de Mexico. Recuperado de: https://www.gob. mx/cms/uploads/attachment/file/272270/smartcity_MODIFICADA.pdf + Frost, Lore y Sullivan, Dan (2018). Sensor and Instrumentation. Frost and Sullivan. Santa Clara, California. Recuperado de: https://ww2.frost.com/research/industry/techvision/sensors-and-instrumentation/ + Kozyrkov, Cassie (2019). Automated inspiration. Forbes insights. Jersey city, New Jersey. Recuperado de: https://www. forbes.com/sites/insights-intelai/2019/05/22/automated-inspiration/#a0cdc0e1c44f + Keyence (2019). Sensores. Keyence de mexico. Cuauhtemoc, Mexico. Recuperado de: https://www.keyence.com.mx/ products/sensor/?aw=googlekxspbr17051035pp&gclid=CjwKCAjwnIr1BRAWEiwA6GpwNY4FdTc8yyIqE3g50sHXJwgFCh0KMV_S-sbCeEaBcuD0BcgsoP373xoCco4QAvD_BwE + Stolfi, Daniel (2019). Optimizacion del Trafico Rodado en Ciudades Inteligentes. Proyecto tesis. Malaga, España. Recuperado de: https://en.danielstolfi.com/investigacion/files/OptimizacionDelTraficoRodadoEnCiudadesInteligentes.pdf + Samaniego, Juan (2019). Estas son las ‘smart cities’ líderes en el mundo y esta es su receta. Hablemos de empresas (online). Recuperado de: https://hablemosdeempresas.com/grandes-empresas/smart-cities-lideres/ + Salazar, Bryan (2019). Algoritmo de Dijkstra. Ingeniería Industrial. Cali, Colombia. Recuperado de: https://www.ingenieriaindustrialonline.com/herramientas-para-el-ingeniero-industrial/investigacion-de-operaciones/algoritmo-de-dijkstra/ + Dijkstra, Edsger (2018). Algoritmo Dijkstra. Ecured. Recuperado de: https://www.ecured.cu/Algoritmo_de_Dijkstra Revista Científica

41


Liliana Fuentes Rosas1, Anibal Gaudencio López Cabrera2 y María del Socorro Flores Serrano3

Tecnológico Nacional de México/ Instituto Tecnológico Superior de Tierra Blanca/ División de Estudios de Ingeniería Industrial. Prolongación de Avenida Veracruz, esquina Héroes de Puebla S/N, colonia PEMEX. Tierra Blanca, Veracruz, México, C.P. 95180. 1,2,3

liliana.fuentes@itstb.edu.mx

Resumen: El objetivo de estudio fue el diseño de una Red Neural Artificial (RNA) que apoye a los médicos en el diagnóstico oportuno de Enfermedad Renal Crónica (ERC). En esta investigación se recogieron datos de pacientes con ERC a través de un instrumento validado por jueces. Con la información obtenida se construyó una RNA misma que, después del entrenamiento, evidenció que las variables que más impactan en el diagnóstico positivo de la variable de salida de la población estudiada son: edad y peso. En los resultados se emplearon 50 diagnósticos positivos a ERC, los resultados fueron comparados con los obtenidos por la RNA observando que esta obtuvo un acierto del 91.32% en los diagnósticos. La prevención de cualquier enfermedad crónica es un desafío constante en las organizaciones de salud, contar con herramientas que ayuden a un diagnóstico médico oportuno se convierten en apoyos valiosos y fue objetivo de esta la investigación contribuir con tal desafío.

+

Palabras clave: Insuficiencia Renal Crónica, Red Neuronal Artificial, Diagnóstico Oportuno.

Recibido: Abril 15, 2020. Recibido en forma revisada: Mayo 15, 2020. Aceptado: Junio 1, 2020.

42

Revista Científica

Abstract: The objective of the study was the design of an Artificial Neural Network (ANN) that supports doctor in the timely diagnosis of Chronic Renal Disease (CRD). In this investigation, data were collected from patients with CRD through an instrument validated by judges.


With the information obtained, an ANN was constructed that, after training, showed that the variables that most impact on the positive diagnosis of the output variable of the population studied are: age and weight. In the results, 50 positive diagnoses to CRD were used, the results were compared with those obtained by the ANN, observing that it obtained a 91.32% accuracy in the diagnoses. The prevention of any chronic disease is a constant challenge in health organizations, having tools that help in a timely medical diagnosis become valuable supports and it was the objective of this research to contribute such a challenge.

+

Keywords: Chronic Renal Disease, Artificial Neural Network, Timely Diagnosis.

Introducción México está inmerso en un proceso de transición epidemiológica a través del cual ciertas enfermedades crónico-degenerativas como la diabetes mellitus (DM) y la hipertensión arterial (HTA) han desplazado a las enfermedades infecciosas de las principales causas de muerte (López, Rojas, Tirado, Durán, Pacheco, Venado, et al, 2009).

están implicadas en procesos de construcción de sistemas que permiten clasificar, modelar y predecir información (Niño et al, 2016) con una predicción entre el 5%-10% superior sobre otras técnicas estadísticas (Trujillano et al, 2005). La predicción de las RNA se desarrolla mediante un proceso de aprendizaje (entrenamiento) y una vez concluido el entrenamiento, la RNA adquiere la capacidad de generalización, es decir, son capaces de enfrentarse a nuevos casos y dar resultados correctos (Trujillano, March y Sorribas, 2004). Una RNA está compuesta por neuronas simples, la información de cada una de estas neuronas es agrupada y procesada en organizaciones llamadas nodos, los cuales se distribuyen en estructuras llamadas capas o matrices (Niño et al, 2016). Cada neurona recibe un impuso de las neuronas de la capa previa y envía un impulso a las neuronas de la siguiente capa (Orbe, 2017). Cada capa está conectada a la inmediata posterior total o parcialmente, excepto la última capa, que constituye la salida total de la red neuronal (Flores, 2008). La Figura 1 ilustra lo anterior.

La Enfermedad Renal Crónica (ERC) se define como un conjunto de enfermedades heterogéneas que afectan la estructura y función renal, su prevalencia aumenta por el envejecimiento de la población, el incremento de la prevalencia de sus factores de riesgo como la enfermedad cardiovascular, la Diabetes Mellitus (DM), la Hipertensión Arterial (HTA) o la obesidad y obviamente, por el diagnóstico precoz de la misma (Bencomo, 2015). Cifras oficiales, en México, revelan que las enfermedades crónicas no trasmisibles (ECNT), entre las que se cuenta la ERC, representan el 70% de las muertes. Alrededor de 124 mil enfermos a lo largo y ancho del país requieren de alguna de las terapias sustitutivas o restitutivas (diálisis peritoneal, la hemodiálisis y/o trasplante renal). En suma, a este grave problema de salud, está el déficit de médicos nefrólogos. El Consejo Mexicano de Nefrología (2016) reporta tener 1190 nefrólogos en su base de datos de todo el país, cuando las amplias necesidades revelan que debería haber al menos 3000 especialistas (Tamayo y Lastiri, 2016). De acuerdo con Lugo, Maldonado y Murata (2014), la medicina es uno de los campos del conocimiento que más podrían beneficiarse de la interacción cercana con la computación y las matemáticas; esta interacción es capaz de optimizar procesos complejos e imperfectos como es el caso del diagnóstico diferencial. El desarrollo de la Inteligencia Artificial (IA) en la medicina moderna se ha relacionado con el diseño de programas que tratan de ayudar a los médicos a formular un diagnóstico y tomar decisiones terapéuticas (Meza, Aguilar, Ureña, Vázquez, Posada y González, 2018). En la presente investigación se optó por Redes Neuronales Artificiales (RNA), rama de la IA. Las RNA son modelos matemáticos basados en un principio de aprendizaje que tiene su fundamento en los conceptos de inteligencia artificial y la respuesta biológica del cerebro humano (Niño, Guevara, González, Jaque e Infante, 2016). Las RNA constituyen una alternativa a los modelos basados en técnicas estadísticas (Trujillano, Badía, March, Rodríguez, Serviá y Sorribas, 2005),

Figura 1. Estructura jerárquica de un sistema basado en RNA. Fuente: Adaptado de Martín del Brío y Sanz (2006).

De acuerdo con García (2005, como lo citó Martí 2009) las características más importantes de las RNA son:

a) No linealidad: Capacidad de simular y predecir procesos no lineales. b) Generalización: Capacidad de aprendizaje y autoorganización. c) Adaptabilidad: Adaptar los pesos sinápticos a cambios en el entorno. d) Tolerancia a fallos: Capacidad de aprender a reconocer patrones con ruido, distorsión o incompletos. e) Facilidad de inserción en la tecnología existente. f) Confiabilidad: Valoración del grado de confianza en la respuesta dada. Las fases que comprende la modelización de RNA son:

1. Fase de entrenamiento, en donde se usa un conjunto de datos o patrones de entrenamiento para determinar los pesos (parámetros) que definen el modelo de la red neuronal. Se calculan de manera iterativa, de acuerdo con los valores de los valores de entrenamiento, para minimizar el error cometido entre la salida obtenida por la RNA y la salida deseada. 2. Fase de prueba, derivado de la fase anterior, el modelo podría mostrar un ajuste demasiado a las particularidades presentes en los patrones de entrenamiento, perdiendo la habilidad de generalizar su aprendizaje a casos nuevos (sobreajuste), para contrarrestar este problema, se utiliza un segundo grupo de datos diferentes a los del entrenamiento

Revista Científica

43


(grupo de validación) y con ello se controla el proceso de aprendizaje. Hay evidencia a nivel mundial de que las RNA rinden buenos frutos en la predicción de enfermedades. Vázquez (2019), en Colombia, entrenó una red utilizando datos demográficos e información de las atenciones médicas de dos grupos poblacionales: uno integrado por personas diagnosticadas con ERC y el otro con personas sin diagnóstico de esta enfermedad. La red, después de haber sido entrenada y aplicadas las métricas de evaluación, alcanzó 95% de exactitud en el conjunto de datos de prueba. Tras su implementación la RNA identificó 3,494,516 personas en riesgo de desarrollar ERC.

asociación entre las variables seleccionadas por el equipo de expertos. El estudio predictivo se realizó a partir de la selección de las variables consideradas y la significación de las asociaciones halladas entre ellas.

Elección de variables

Para la selección de variables se realizaron reuniones y entrevistas con personal médico especialista y también se revisó la literatura relevante en la materia. De las actividades mencionadas anteriormente, se define el grupo de variables, coincidiendo lo dicho por los expertos y lo estipulado en la literatura consultada. La Tabla 1 ilustra las variables establecidas. Tabla 1. Variables seleccionadas para la RNA.

Investigadores del Hospital Universitario Parc Taulí de Sabadell y del gupo WIN de la Universidad Autónoma de Barcelona, bajo la coordinación del doctor José Ibéas, han logrado establecer modelos predictivos de mortalidad en los pacientes renales mediante el análisis de los factores de riesgo de la enfermedad, con la incorporación de la IA mediante aprendizaje automático que utiliza RNA, obteniendo un valor predictivo superior al 95%, el modelo tiene la capacidad de predecir el pronóstico como su fiabilidad. Este modelo podría ayudar al nefrólogo a tener mayor seguridad en la toma de decisiones (Corada, 2019). Chin, Chun, Kuan, Wei, Hsiu, Chih, Meng, Pei, Rong y Kuan (2019), desarrollaron un enfoque de aprendizaje profundo para determinar la tasa de filtración glomerular estimada y el estado de ERC. Utilizaron la técnica de transferencia de aprendizaje integrando el modelo ResNet pre entrenado en un conjunto de datsImageNet en la arquitectura de una RNA para predecir la función renal basada en imágenes de ultrasonido. La precisión general de la clasificación del estado de ERC del modelo fue 85.6% más alta que la de los nefrólogos experimentados. Ren, Fei, Liang, Ji y Cheng (2019), estudiaron en problema de la predicción de la enfermedad renal en pacientes con HTA mediante una RNA. Los resultados experimentales mostraron que el modelo neuronal logró un 89.7% de precisión para la tarea. Serrano (2004), desarrolló y validó un modelo basado en RNA que permite predecir la evolución de trasplante pediátrico de riñón a corto, medio y largo plazos, a partir de características preoperatorias del paciente (receptor) y del órgano a implantar (donante). El propósito fue reducir la pérdida de injertos.

Material y métodos La presente investigación se enmarca dentro de un estudio analítico-predictivo y fue realizada con pacientes de la Unidad Médica Familiar (UMF) Número 4 del Instituto Mexicano del Seguro Social, ubicada en la ciudad de Camerino Z. Mendoza en el Estado de Veracruz, México. Se informó al personal directivo de la Clínica de la realización del estudio, no se precisó consentimiento informado, ya que todas las variables se recogían para el diagnóstico, control y tratamiento de los pacientes y se aseguró el anonimato de los mismos. La recogida de información se realizó durante los meses de marzo a julio de 2019. El método analítico se aplicó para determinar la significación de la

44

Revista Científica

Diseño de la red neuronal

Se estipuló, como objetivo de la presente investigación, la creación de un instrumento capaz de diagnosticar ERC. La herramienta propuesta para realizar el diagnóstico fue una RNA, en la cual la variable de salida es un positivo (SI) o un negativo (NO) a la ERC. El software que se utilizó para la RNA fue Neural Tools® que consta de tres pasos básicos para la creación: a) entrenamiento (training); b) prueba (testing) y predicción (predict). El software presenta una dinámica que delimita de forma automática la elección de los casos que servirán para el entrenamiento y para la prueba, a una razón de 80% y 20% respectivamente; sin embargo, para verificar la capacidad de generalización, es necesario corroborar el funcionamiento adecuado de la RNA con nuevos casos; por lo que se supone necesario separar de forma


manual un cierto número de casos. En el caso particular de esta investigación la selección fue aleatoria.

Fase de entrenamiento

El entrenamiento de la RNA se realizó tomando en cuenta las variables de entrada. El entrenamiento se desarrolló bajo un aprendizaje supervisado. La Figura 2, muestra el reporte detallado una vez concluido el entrenamiento.

Los reportes detallados que genera la red sirven para hacer análisis sobre las variables que tiene un mayor impacto, lo que permitirá saber a qué variables dárseles especial atención, dado que son las que modifican el comportamiento o valor de la variable de salida.

Fase de prueba

Una vez entrenada la RNA, se realizó la prueba con el 20 % de los casos que fueron elegidos de forma automática por el software Neural Tools®. Esta prueba se realizó para comprobar la bondad del conjunto de pesos. En la Tabla 2 se muestran los resultados de la fase de prueba. Tabla 2. Informe de prueba: “Red entrenada en conjunto de datos número 1”.

De la tabla anterior se observa que un mayor porcentaje de los casos es catalogado como correcto, es decir, los resultados caen dentro de la tolerancia programada con anticipación por lo que puede concluirse que la RNA aprendió el comportamiento de los datos base. Figura 2. Reporte de entrenamiento de RNA. Fuente: Elaboración propia en Neural Tools®.

La arquitectura resultante de la RNA fue probabilística (Predicción de categoría PNN), con las variables de entrada y una variable de salida. El beneficio de este tipo de redes es la alta resistencia y estabilidad frente a la presencia de outliers, además, consiste de dos variables numéricas independientes, dos categorías dependientes y cincos casos de entrenamientos. El error de entrenamiento en este caso fue de 3.46% con respecto al valor real de datos. El porcentaje de malas predicciones fue de 0%, lo que asegura que la red aprendió el comportamiento de los datos.

Resultados La importancia de la predicción de la RNA se debe, por una parte, en determinar con anticipación la posibilidad de que un paciente haya desarrollado Enfermedad Renal Crónica, a partir de hábitos y condiciones personales, lo que permitirá establecer un cambio de hábitos tanto alimenticios como de otra índole, por la otra, apoyar a los profesionales de la medicina en realizar un diagnóstico de una forma más rápida y oportuna. En la Tabla 3 se presenta una fracción del informe de predicción el cual, utilizando un número de 50 diagnósticos positivos a ERC, se alimentaron los datos en la red (utilizando los mismos casos).

Revista Científica

45


Al comparar los resultados 45 de 50 diagnósticos acertaron el resultado, lo que ofrece una tasa de éxito del 91.32%. Se cumplió con el objetivo de obtener un predictor de la ERC que apoye en el diagnóstico de los médicos y sobre todo que pueda ofrecer posibilidades de prevención en pacientes propensos a la enfermedad. Por supuesto, es necesario señalar que la RNA apoya la toma de decisiones, sin embargo, sigue siendo el especialista el que tenga la última palabra. De acuerdo con el desarrollo de la RNA se obtuvo el conocimiento de que la edad y el peso son las variables que mayor impacto tienen en el diagnóstico positivo a ERC. Tabla 3. Informe de predicción: “Red entrenada en conjunto de datos número 1”.

Conclusión La ERC es una patología que está presentando niveles altos entre la población, afectando la calidad de vida de quienes la padecen e incrementando los costos médicos para su control, llegado el momento de utilizar métodos paliativos tales como diálisis o hemodiálisis. Es necesario que se emprendan acciones preventivas que desafíen las estadísticas altas que refleja la ERC. El número de personal médico especialista, ciertamente se ha visto superado por los casos de incidencia de ERC, esa es otra alarmante situación que lleva a ponderar mayor peso a la prevención. Poner los avances tecnológicos al servicio de los esfuerzos por mejorar la salud de los humanos es sin duda una noble labor, ofrecer, herramientas que apoyen a los médicos en la toma de decisiones es invaluable.

46

Revista Científica


Bibliografía + Bencomo, O. (2015). Enfermedad renal crónica: prevenirla, mejor que tratarla. Revista Cubana de Medicina Integral, 31(3):353-362. + Corada, E. (14 de marzo de 2019). Inteligencia artificial para hacer frente a la enfermedad renal crónica. La razón. Recuperado de https://www.larazon.es/atusalud/inteligencia-artificial-para-hacer-frente-a-la-enfermedad-renal-cronica-GF22410053/ + Cross, B.; Harrinson, R. y Kennedy R. (1995). Introduction to neural networks. The Lancet, 346 (8982), 1075-1079. Doi: 10.1016/s0140-6736(95)91746-2 + Chin, K.; Chun, C.; Kuan, L.; Wei, L.; Hsiu, C.; Chih, C.; Pei, S.; Rong, Y. y Kuan, C. (2019). Automation of the kidney function prediction and classification through ultrasound-based kidney imaging using deep learning. npj Digital Mededicine 2, 29. doi: 10.1038/s41746-019-0104-2 + López, M.; Rojas, M.; Tirado, L.L.; Durán, L.; Pacheco, R.; Venado, A. et al. Enfermedad renal crónica y su atención mediante tratamiento sustitutivo en México. México, D.F.: Facultad de Medicina, Universidad Nacional Autónoma de México. 2009. + Lugo, S.; Maldonado, G. y Murata, C. (2014). Inteligencia artificial para asistir el diagnóstico clínico en medicina. Revista Alergia México, 61, 110-120. + Marti, P. (2009). Aplicación de redes neuronales artificiales para predicción de variables en ingeniería del riego: evapotranspiración de referencia y pérdidas de carga localizadas en emisores integrados. (Tesis doctoral). Universidad Politécnica de Valencia. España.

(2016). Uso de redes neuronales artificiales en predicción de morfología mandibular a través de variables craneomaxilares en una vista posteroanterior. Universitas Odontológicas, 33(74), 1-28. + Ren, Y.; Fei, H.; Liang, X.; Ji, D. y Cheng, M. (2019). A hybrid neural network model for predicting kidney disease in hypertension patients based on electronic health records. BMC Medical Informatics and Decision Making 19, 51. Doi: 10.1186/ s12911-019-0765-4 + Serrano, A. (2004). Aplicación de las redes neuronales artificiales a la predicción del resultado a corto, medio y largo plazo del trasplante renal pediátrico (Tesis doctoral). Universitat de Valencia. Facultad de Medicina. España. + Tamayo y Orozco, J. y Lastiri, H. (2016) La enfermedad renal crónica en México. Hacia una política nacional para enfrentarla. México, D.F., México: Academia Nacional de Medicina en México. + Trujillano, J.; March, J. y Sorribas A. (2004). Aproximación metodológica al uso de redes neuronales artificiales para la predicción de resultados en medicina. Medicina Clínica; 122 (S1), 59-67. + Trujillano, J.; Badía, M.; March, J.; Rodríguez, A.; Serviá, L. y Sorribas, A. (2005). Redes neuronales artificiales en Medicina Intensiva. Ejemplo de aplicación con las variables del MPM II. Medicina Intensiva, 29(1), 13-20. + Vázquez, G. (2019). Clasificador con redes neuronales para el pronóstico de la enfermedad renal crónica en la población colombiana. (Tesis de Master). Universidad Internacional de La Rioja. Escuela Superior de Ingeniería y Tecnología. Colombia.

+ Martín del Brío, B. y Sanz, A. (2006). Redes Neuronales Artificiales y sistemas borrosos. México, D.F, México: RA-MA, S.A. Ediciones y Publicaciones. + Meza-Palacios, R.; Aguilar-Lasserre, A. A.; Ureña-Bogarín, E. L.; Vázquez-Rodríguez, C. F.; Posada-Gómez, R. y González Huerta, M. (2018). Sistema experto difuso para el control metabólico en pacientes con diabe¬tes mellitus tipo 2. Acta Universitaria, 28 (2), 67-74. doi: 10.15174/au.2018.156. + Niño, T.; Guevara S.; González, F.; Jaque, R. e Infante C.

Revista Científica

47


Armando Mares Castro1

Tecnológico Nacional de México / ITS de Purísima del Rincón. Blvd. Del Valle # 2301, Guardarrayas. Purísima del Rincón, Guanajuato. México. C.P. 36413. 1

armando.mc@purisima.tecnm.mx

Resumen: En éste artículo se propone un esquema de optimización multirespuesta para la experimentación tipo Taguchi aplicada en la manufactura. El caso de análisis trata sobre un diseño experimental aplicado en el proceso de vulcanizado de suela de hule. Las características de calidad en el material fueron analizadas en base a los criterios de las normativas ASTM D412 para pruebas de tensión en hules y la ASTM D2240 para la prueba de dureza con el uso de durómetro. Para la obtención de los niveles óptimos del proceso se aplicaron técnicas de optimización no lineal restringida basadas en Algoritmos Genéticos, tomando como base la función de pérdida cuadrática de Taguchi para la definición de la función objetivo. La metodología propuesta se presenta como una herramienta importante para la mejora de calidad con una amplia aplicación potencial en varios procesos de manufactura.

+

Palabras clave: Diseño de experimentos, función de pérdida de Taguchi, optimización multirespuesta, algoritmos genéticos, proceso de fabricación de hule.

Recibido: Abril 15, 2020. Recibido en forma revisada: Mayo 15, 2020. Aceptado: Junio 1, 2020.

48

Revista Científica

Abstract: In this article, a proposal for multi-response optimization for Taguchi type experimentation applied in manufacturing is presented. The case of analysis deals with an experimental design applied in the rubber sole vulcanization process. The quality characteristics of the material were analyzed based on ASTM D412 standard for rubber ten-


sion tests and ASTM D2240 standard for hardness testing with the use of a hardness tester. To obtain the optimal levels of the process, restricted non-linear optimization techniques based on Genetic Algorithms were applied, taking Taguchi’s quadratic loss function as the objective function. The proposed methodology is presented as an important tool for quality improvement with wide potential application in various manufacturing processes.

+

Keywords: Design of experiments, Taguchi’s loss function, multi-response optimization, genetic algorithms, rubber process manufacturing.

Introducción La ingeniería de la calidad es una disciplina que se encarga de la optimización del diseño de productos y los procesos. Los métodos Taguchi incluyen metodologías para el análisis y mejora de la calidad, entre las más utilizadas se tiene el diseño robusto de parámetros (DRP) y la función de pérdida (Taguchi y Chowdhury, 2004). Dentro de los estudios del DRP se analizan características de calidad asociadas a atributos o variables, las cuales generalmente son estáticas y tienen un valor objetivo fijo. La meta principal del DRP es la obtención de un valor promedio de la característica de calidad que sea lo más cercano al valor target y que, además, se logre la menor variación posible alrededor del promedio, con lo cual se obtiene un proceso o producto robusto, lo cual significa que es insensible al efecto de las variables de ruido (difíciles de controlar) que estén presentes en el sistema y que se considera que son las causas de la variación en la característica de calidad. Aquí se pueden establecer las siguientes preguntas de investigación: ¿Es posible el modelado para la media y la varianza de más de una característica critica de la calidad en un proceso? El paso anterior involucra el uso de diseño experimental con el análisis y modelado de cada una de las respuestas. Otra pregunta importante es ¿Se puede obtener una solución de compromiso única que cumpla de manera satisfactoria los objetivos de calidad planteados en un análisis de múltiples respuestas de calidad? Para ésta cuestión se pueden aplicar los conceptos de la ingeniería de calidad propuestos por Taguchi y el concepto de la función de pérdida, ya que con éste modelo se pueden obtener las soluciones para los factores de control en el proceso con los que se obtenga la menor variación alrededor de la media, a la vez que se reduce la variación del valor Target en relación a la media del proceso, con lo cual también se reduce el costo por pérdida de calidad. El problema del DRP se vuelve más complejo a medida que se considera la optimización de más de una característica de calidad en el análisis, ya que se deben cumplir todos los objetivos de las respuestas involucradas, lo cual implica el uso de modelos matemáticos más complejos que permitan la obtención de los niveles óptimos para los factores de control del proceso. El objetivo general de éste artículo es la presentación de una propuesta para el análisis y optimización de dos características críticas de calidad en el material de hule para suela de calzado, mediante el uso de técnicas de optimización multirespuesta basadas en el DRP y la función de pérdida de Taguchi, con la finalidad de obtener los niveles óptimos

de los factores de control del proceso de vulcanización. Un objetivo particular de la propuesta es la presentación de una metodología para la optimización simultánea de la media y la varianza del proceso para cada una de las variables de calidad involucradas, tomando en cuenta, además, el principio propuesto por Taguchi que indica que se incurre en una pérdida económica debida a la desviación del valor Target en relación con la media del proceso. El modelado del DRP para respuestas múltiples implica la obtención de una solución de compromiso que cumpla de la mejor forma posible con todos los objetivos de mejora de calidad al mismo tiempo. El caso de análisis ilustra la optimización simultánea de dos características de calidad críticas para la suela de hule con la finalidad de obtener la mejor combinación de niveles en los factores de control, en la cual se busca también la obtención de la menor variación alrededor de la media de cada una de las respuestas, así como la menor desviación del valor de las medias con respecto al valor target requerido.

Revisión de literatura Diseño robusto de parámetros para múltiples respuestas

En los últimos 30 años, el DRP basado en modelado de respuesta dual ha sido uno de los más populares, ésta técnica puede ser utilizada tanto en sistemas estáticos como dinámicos. La metodología involucra el uso de modelos de superficie de respuesta para la media y la varianza. El modelado sigue la filosofía original de Taguchi de minimizar la varianza mientras se fija el valor de la media a un valor target. Dentro de la literatura existen varias alternativas de optimización al esquema original de Taguchi, entre las cuales se tienen las propuestas de Del Castillo y Montgomery (1993), Lin y Tu (1995), Copeland y Nelson (1996), Kim y Lin (2002), Kim y Cho (2002), Koksöy y Doganaksoy (2003) entre otros, los cuales se trabajan bajo el esquema de una sola característica de calidad. Dentro de la optimización del DRP con varias respuestas, también se han generado algunas propuestas en la literatura, con aplicaciones basadas en la función de deseabilidad (Derringer y Suich, 1980), uso de redes neuronales (Hsieh, 2010) y el uso de mínimos cuadrados ponderados. El DRP ha sido utilizado para la mejora de la calidad en la suela de calzado. Mares y Domínguez (2015) presentaron una propuesta de optimización en un proceso de fabricación de suela de poliuretano con base al modelado de la medida de medición de desempeño independiente de ajuste (PERMIA, por sus siglas en inglés) basada en la señal a ruido de Taguchi. El proceso de suela de hule (Ciesielski, 1999), presenta condiciones especiales de análisis, en particular en el proceso de vulcanizado, que es en donde se generan las propiedades y características de calidad necesarias en el material. La caracterización del material se realiza mediante pruebas descritas en estándares internacionales. Para el caso de análisis se acudió a una empresa fabricante de calzado ubicada en la ciudad de Purísima del Rincón, Guanajuato, en la cual se realizó un experimento tipo Box-Behnken, con la finalidad de realizar el análisis de dos características de calidad: la carga máxima obtenida en la prueba de tensión con el estándar ASTM D-412-06 (2006) y la dureza con el estándar ASTM D2240-15 (2015).

Revista Científica

49


Función de pérdida cuadrática

Ésta función fue introducida por el Dr. Taguchi para proveer de una estimación monetaria de la pérdida que ocasiona el fabricante al cliente cuando el desempeño de su producto difiere del valor Target u objetivo. Sea Yc la característica de calidad de un producto y Tc el valor objetivo para Yc. Según la función de pérdida cuadrática, la ecuación de la función de pérdida cuadrática se presenta en la ecuación 1, su representación gráfica se muestra en la Figura 1. (1) L[Yc ] está dada por una expansión en serie de Taylor alrededor de Yc=Tc despreciando los términos cúbicos en adelante. La constante kc es conocida como coeficiente de pérdida de calidad para la característica de calidad.

autores mostraron un error cuadrático medio de 94.145, mientras que con la metodología basada en la función de pérdida se logró un error cuadrático medio de 79.448, representando una mejora de aproximadamente 15%, el costo total esperado también mostró una reducción del 5%. Todas las métricas están en función de los niveles obtenidos de los factores de control experimentales. Wu y Chyu (2004) presentaron una propuesta de optimización para el DRP multiobjetivo basada en la función de pérdida, la metodología propuesta por los autores no toma en cuenta la distribución de las variables en el modelado. Los autores realizaron un comparativo de su propuesta con casos existentes en la literatura, en el primer caso se analiza un proceso de deposición de vapor químico mejorado con plasma en el cual se comprueba una mejora en la pérdida promedio total de casi el 100% con respecto al mejor resultado previo en la literatura, el caso 2 es un ejemplo de análisis de propiedades físicas en el hule presentado previamente por Derringer y Suich, en el cual obtuvieron una reducción en la pérdida promedio de aproximadamente 10%, comprobando una mayor eficiencia de optimización que otros métodos existentes.

Optimización por algoritmos genéticos

Dentro de las técnicas meta heurísticas de búsqueda, los algoritmos genéticos son técnicas computacionales ampliamente utilizadas en problemas de optimización. La principal ventaja de los algoritmos genéticos sobre técnicas de optimización tradicionales, tales como la programación no lineal (Nocedal y Wright, 2006), es que los algoritmos genéticos tienen mayor probabilidad de encontrar el óptimo global, particularmente cuando se utilizan funciones altamente no lineales, no diferenciables, discontinuas o estocásticas. Las bases de los algoritmos genéticos fueron establecidas por Holland (1984) y han sido analizadas extensivamente por otros autores, como Goldberg (1989). Figura 1. Función de Pérdida cuadrática de Taguchi.

Nótese que cuando Yc=Tc la pérdida es cero. La pérdida L[Yc ] se incrementa cuando la característica de calidad Yc se aleja de Tc. La función de pérdida cuadrática es un modelo que implica que el costo promedio de pérdida con característica de calidad Yc es L[Yc ]. Es claro que, la pérdida que ocasiona a un cliente en particular dependerá de las condiciones de operación. En la literatura existen pocos casos de aplicación de la función de pérdida para optimización en DRP, entre ellos se pueden mencionar las aportaciones de Pi y Low (2006) que presentaron una propuesta sobre la evaluación y selección de proveedores utilizando la función de pérdida de Taguchi como ponderador principal, en la cual se evaluaron 4 proveedores con 4 criterios de decisión. Pandey et al (2012) presentaron una metodología para la optimización de parámetros de diseño para el mantenimiento preventivo y políticas de calidad incorporando al modelo la función de pérdida, permitiendo la minimización del costo total esperado por unidad de tiempo en el sistema. Sharma et al (2015) presentaron una propuesta de aplicación de la función de pérdida de Taguchi y el QFD aplicada en la selección de proveedores. Un caso de aplicación que ha sido analizado por algunos autores estadísticos es el presentado por Goel y Amin (1998) relacionado a el área médica, en el cual se busca la optimización en la administración de diclofenaco sódico. Los resultados obtenidos originalmente por los

50

Revista Científica

Los algoritmos genéticos pueden utilizarse para la resolución de problemas de optimización restringida o no restringida. La base de la técnica es la imitación de los procesos de selección natural que ocurren en la evolución biológica. El algoritmo cambia de forma repetida una población de soluciones individuales en un proceso iterativo que involucra la selección, reproducción, mutación, combinación (crossover) y técnicas de migración. En su forma matemática, las poblaciones son arreglos matriciales, un individuo puede aparecer en más de una línea de la matriz y van cambiando a medida que ocurren las nuevas generaciones. La función de fitness es la función que se desea optimizar y es equivalente a la función objetivo de los esquemas de optimización tradicionales. En cada iteración son creadas secuencias de nuevas generaciones que evolucionan de acuerdo a las condiciones de optimización declaradas en el problema. La evaluación de la función de fitness define los rangos de valores más adecuados llamados valores esperados, aquí los nuevos individuos con mejores valores de fitness son llamados élite y pasan a la nueva población. Para la mejora de las nuevas generaciones, los hijos de la élite son producidos por cambios aleatorios en un pariente individual (mutación) o por la combinación de entradas de una pareja de parientes (crossover), la población es reemplazada con los hijos para formar la siguiente generación. El algoritmo se detendrá cuando se dé una condición de paro determinada por el analista. El esquema de optimización por algoritmos genéticos se perfila como el más adecuado para el caso de análisis, debido a que se trata


de un esquema de optimización restringida con la presencia de restricciones de tipo no lineal. Asimismo, la función objetivo o función de fitness que es el valor esperado del costo total, contiene a las funciones de pérdida y costos de no conformidad que son funciones con una complejidad matemática importante. Debido a las condiciones anteriores, se tendrá mayor probabilidad de encontrar la solución óptima global.

Metodología Análisis del proceso

Experimentación

El formato de la matriz experimental se muestra en la Tabla 1, se tienen los factores de control en un arreglo ortogonal y se obtienen datos experimentales para cada una de las corridas. Con la finalidad de estimar modelos para los modelos de las variables, se obtienen m réplicas experimentales, lo cual es equivalente al uso del esquema del arreglo ortogonal cruzado (interno y externo), propuesto por Taguchi. Tabla 1. Matriz Experimental.

El proceso de fabricación de suela de hule se muestra en el diagrama de la Figura 2. La fase crítica para la realización de la experimentación es la fase de vulcanización en las prensas, en las cuales se utilizan los factores de presión, tiempo y temperatura, los cuales pueden ser variados en el experimento con el fin de analizar las características físicas y mecánicas en el material.

Donde: Yc es la característica de calidad, (c=1,2…w. Para el caso de análisis: 1 es para la dureza, 2 es para la carga máxima). Ycrj es la observación de Yc en el r- ésimo punto del diseño, en la j- ésima réplica. Y̅ c es el vector de medias para las n corridas.

s2cr son las varianzas de las respuestas para el r-ésimo punto del diseño. sc2 es el vector de varianzas para las n corridas, n es el número total de corridas experimentales.

El diseño seleccionado para variar los niveles de los factores de control es un diseño de Box-Behnken de 3 factores y 15 corridas experimentales, cuyas propiedades estadísticas pueden consultarse en Box y Behnken (1960). Los modelos para los estimadores de la media y la varianza en los r- ésimos puntos del diseño se muestran en las ecuaciones 2 y 3, respectivamente: (2)

(3)

Figura 2. Diagrama de operaciones del proceso de fabricación de suela.

Una vez seleccionados los factores experimentales se procedió a la selección de una matriz experimental adecuada que puede ser preferentemente un diseño factorial 22 o un diseño para superficie de respuesta a 3 niveles con la finalidad de generar modelos adecuados para la optimización.

Los modelos de regresión μ̂c (“x”) sc2 (“x”) para cada una de las respuestas se ajustan mediante el método de mínimos cuadrados.

Definición del esquema de optimización

El modelado de la función de pérdida de Taguchi ha sido analizado por Joseph y Wu (2002). El esquema de optimización para características de calidad de tipo nominal es lo mejor supone el conocimiento de límites de especificación LEIc y LESc. Para cualquier punto experimen-

Revista Científica

51


tal, debe existir un costo de manufactura asociado con la no conformidad de las especificaciones ($NC). La meta es la minimización del costo total esperado (E[$CT]) sobre la región experimental. El esquema de optimización se muestra en las ecuaciones 4 - 8:

Resultados Los resultados experimentales se muestran en la Tabla 2. Tabla 2. Datos experimentales para dureza y carga máxima.

(4)

(5)

(6)

(7)

(8)

Donde: E[$CT] es el costo total esperado (función de fitness). LEIc y LESc son los límites de especificación para inferior y superior respectivamente para cada una de las características de calidad.

Ya que el modelo de f(Yc ) está basado en la distribución normal, es importante verificar que los datos experimentales cumplan el supuesto, por lo que se procede a realizar las pruebas de normalidad de Anderson Darling a los datos de las dos variables, mostrado en la Figura 3 y Figura 4. En ambos casos, el valor P de la prueba es mayor a =0.05, por lo que con un nivel de confianza del 95% no se puede rechazar la idea de que las variables provienen de una distribución normal. Los modelos ajustados para las medias (Ecuación 9 y 11) y varianzas (Ecuación 10 y 12) para las características de calidad analizadas quedan de la siguiente forma: (9)

Yc es la característica de calidad, (c=1,2 para el caso de análisis: 1 para la dureza, 2 para la carga máxima).

(10)

L[Yc ] la función de pérdida para la característica de calidad. $NC el costo de manufactura asociado con la no conformidad de las especificaciones.

(11)

μ̂c (“x”) el modelo de regresión ajustado para la media de la característica de calidad c.

(12)

sc2 (“x”) el modelo de regresión ajustado para la varianza de la característica de calidad c. f(Yc ) la función de distribución normal en función de las medias μ̂c (“x”) y varianzas ŝc2 (“x”). Tc el valor target para la característica de calidad. kc el coeficiente de pérdida de calidad para la característica de calidad.

Figura 3. Prueba de normalidad a los datos de Dureza.

52

Revista Científica


Figura 6. Función de pérdida para Carga Máxima.

Figura 4. Prueba de normalidad a los datos de Carga Máxima.

Al realizar una inspección a los supuestos de normalidad, independencia y varianza constante en los residuales para los modelos (9), (10), (11) y (12) se observó un comportamiento adecuado, con lo cual se procedió a realizar la optimización de la función objetivo (4) sujeta a las restricciones (5) a (8). Los modelos de las medias y varianzas fueron sustituidos en las restricciones correspondientes.

Optimización por algoritmos genéticos

Para efectuar la optimización se asignaron los siguientes valores para LEI1=60 Shore A, LES1=70 Shore A, T1=65 Shore A, k1=0.25, LEI2=0.30 kN, LES2=0.50 kN, T2=0.40kN, k2=0.25 cuyos valores se sustituyen en las ecuaciones (3), (5) y (6) dentro del esquema experimental. La optimización se realizó por medio del software MATLAB 2018b, en la Figura 5, la convergencia se da en la 5ª generación obteniéndose los valores de x1=-1, x2=1, x3=0.1221.

Figura 5. Optimización por algoritmos genéticos.

Sustituyendo los valores obtenidos con los niveles óptimos, se tiene un valor de μ̂1=65.4021, μ̂2=0.412455, s22=0.0400654, s22=0.0003989. Las gráficas para la función de pérdida se muestran en la Figura 5 y Figura 6 respectivamente.

Figura 7. Función de pérdida para Dureza.

La Figura 6 muestra la función de pérdida para la carga máxima (color naranja), al sustituir los niveles óptimos para la media y la varianza, se observa que la variación en la gráfica de la distribución normal (color azul) es relativamente pequeña, cumpliéndose uno de los objetivos del DRP al tener una varianza reducida en función de los valores obtenidos para los factores de control al minimizarse la variación alrededor de la media. Se observa que el valor target deseado es 65 Shore A, mientras que la media del proceso es 65.4021 Shore A, observándose que la diferencia es muy pequeña (0.4021 Shore A). Otra forma de interpretar la solución obtenida mediante el esquema de optimización es que el área bajo la función de pérdida cuadrática y que abarca el área definida por la función de distribución normal es mínima. La Figura 7 muestra la función de pérdida para la dureza en color naranja y la función de distribución normal en color azul, se observa que la variación de la distribución normal es muy cerrada, mientras que el valor target buscado es 0.40 kN y la media del proceso con los niveles óptimo es de 0.400654, con lo cual se cumple con el objetivo de la optimización, ya que los niveles de los factores de control minimizan la varianza y reducen la variación de la media del proceso con el valor target deseado. Igualmente se observa que el área bajo la función de pérdida que cubre el área de la función de distribución normal es la mínima.

Revista Científica

53


Tabla 3. Solución óptima para el proceso.

La Tabla 3 muestra el resumen para la solución obtenida en el esquema de optimización propuesto, se observa un valor para la función del costo total esperado compuesto de 0.05074, mientras que el error cuadrático medio estimado con los niveles óptimos para los factores de control es de 0.0405, los valores obtenidos son bajos y puede verificarse la eficiencia de la propuesta de optimización.

Conclusión La metodología presentada en éste artículo mostró buena eficiencia para encontrar la solución óptima que cumple con los objetivos propuestos por Taguchi, ya que los valores óptimos de los parámetros generan valores para las medias muy cercanos a los valores target, mientas que la variación para las dos características de calidad es muy reducida, con lo cual se logra que la distribución de ambas características de calidad esté dentro de los límites de especificación señalados. Todo lo anterior resulta en una reducción significativa en las pérdidas en costo por incumplimiento de la calidad, lo cual indica que se cumplieron los objetivos de la optimización. Las aplicaciones de la propuesta para la mejora de calidad en manufactura tienen amplio potencial en muchos tipos de procesos. Actualmente no existen en la literatura muchos casos originales de análisis para la aplicación del DRP para multirespuestas, por lo que se requiere de mayor investigación y aplicaciones para analizar el impacto en otros tipos de procesos, así como la realización de comparativos con otras metodologías y propuestas que puedan mejorar aún más los resultados. Los niveles obtenidos para el proceso de la suela de hule son adecuados, ya que son muy parecidos a los que se trabajan actualmente en la empresa y dan buenos resultados en cuanto a las características físicas y propiedades mecánicas que se obtienen en el material. A partir de los resultados obtenidos se proponen futuros trabajos basados en el análisis de otras características y pruebas de calidad adicionales en el hule para suela de calzado, como pueden ser pruebas de flexión, compresión, abrasión, entre otras. Los procesos de fabricación de hule y otros materiales poliméricos también permiten la aplicación de otros esquemas experimentales como lo es la experimentación secuencial. Además, se puede aplicar la experimentación desde la fase de formulación con la finalidad de mejorar las propiedades físicas y mecánicas. También es importante la realización de comparativos de eficiencia con otras metodologías de optimización multiobjetivo como lo es la función de deseabilidad, regresión múltiple basada en la señal a ruido ponderada, redes neuronales, entre otras.

54

Revista Científica


Bibliografía + Taguchi, G.; Chowdhury, S. y Wu, Y. (2004). Taguchi’s Quality Engineering Handbook. Hoboken, NJ, USA: John Wiley & Sons, Inc. https://doi.org/10.1002/9780470258354 + Del Castillo, E. y Montgomery, D. C. (1993). A Nonlinear Programming Solution to the Dual Response Problem. Journal of Quality Technology. 25(3): 199-204. https://doi.org/10.1080/0022 4065.1993.11979454

+ Pi, W. N. y Low, C. (2006). Supplier evaluation and selection via Taguchi loss functions and an AHP. International Journal of Advanced Manufacturing Technology. https://doi.org/10.1007/ s00170-004-2227-z + Pandey, D.; Kulkarni, M. S. y Vrat, P. (2012). A methodology for simultaneous optimisation of design parameters for the preventive maintenance and quality policy incorporating Taguchi loss function. International Journal of Production Research. https:// doi.org/10.1080/00207543.2011.561882

+ Lin, D. K. J. y Tu, W. (1995). Dual response surface optimization. Journal of Quality Technology. 27(1),34-39 https://doi.org/ 10.1080/00224065.1995.11979556

+ Sharma, S. K. y Kumar, V. (2015). Optimal selection of third-party logistics service providers using quality function deployment and Taguchi loss function. Benchmarking. https://doi. org/10.1108/BIJ-02-2014-0016

+ Copeland, K. A. F. y Nelson, P. R. (1996). Dual response optimization via direct function minimization. Journal of Quality Technology. 28(3),331-336. https://doi.org/10.1080/00224065.19 96.11979683

+ Gohel, M. C. y Amin, A. F. (1998). Formulation optimization of controlled release diclofenac sodium microspheres using factorial design. Journal of Controlled Release. https://doi.org/10.1016/ S0168-3659(97)00102-8

+ Kim, K. J. y Lin, D. K. J. (1998). Dual response surface optimization: A fuzzy modeling approach. Journal of Quality Technology. 30(1),1-10 https://doi.org/10.1080/00224065.1998.11979814

+ Wu, F. C. y Chyu, C. C. (2004). Optimization of robust design for multiple quality characteristics. International Journal of Production Research. https://doi.org/10.1080/0020754032000123605

+ Kim, Y. J. y Cho, B. R. (2002). Development of priority-based robust design. Quality Engineering. 14(3), 355-363. https:// doi.org/10.1081/QEN-120001874

+ Nocedal, J. y Wright, S. J. (2006). Numerical optimization. Springer.

+ Köksoy, O. y Doganaksoy, N. (2003). Joint Optimization of Mean and Standard Deviation Using Response Surface Methods. Journal of Quality Technology. 35(3), 239–252. https://doi.org/10. 1080/00224065.2003.11980218 + Derringer, G. y Suich, R. (1980). Simultaneous Optimization of Several Response Variables. Journal of Quality Technology. 12(4), 214-219. https://doi.org/10.1080/00224065.1980.11980968 + Hsieh, K. L. (2010). Employing Artificial Neural Networks into achieving parameter optimization of multi-response problem with different importance degree consideration. Information Technology Journal, 9(5), 918–926. https://doi.org/10.3923/ itj.2010.918.926 + Mares, A. y Dominguez, J. (2015). Robust Design in Generalised Linear Models for Improving The Quality of Polyurethane Soles. The South African Journal of Industrial Engineering. 26(3), 152-166 https://doi.org/10.7166/26-3-1181

+ Holland, J. H. (1984). Genetic Algorithms and Adaptation. In O. G. Selfridge, E. L. Rissland, & M. A. Arbib (Eds.), Adaptive Control of Ill-Defined Systems (pp. 317-333). Boston, MA: Springer US. + Goldberg, D. E. (1989). Genetic Algorithms in Search, Optimization and Machine Learning. Boston, MA Addison-Wesley Longman Publishing Co., Inc. + Box, G. E. P. y Behnken, D. W. (1960). Some New Three Level Designs for the Study of Quantitative Variables. Technometrics, 2(4), 455–475. https://doi.org/10.1080/00401706.1960.10489912 + Joseph, V. R. y Wu, C.-F. (2002). Performance Measures in Dynamic Parameter Design. Journal of Japanese Quality Engineering Society, 10,82-16

+ Ciesielski, A. (1999). An Introduction to Rubber Technology. Castable Polyurethanes. + ASTM Int. (2006). D412-06 Standard Test Methods for Vulcanized Rubber and Thermoplastic Elastomers–Tension. ASTM International, West Conshohoken, PA, USA. https://doi. org/10.1520/D0412-06AR13.2 + ASTM Int. (2015). D2240-15: Standard Test Method for Rubber Property — Durometer Hardness. ASTM International, West Conshohoken, PA, USA. https://doi.org/10.1520/D1415-06R12.2

Revista Científica

55


César Saldaña Carro1, Sergio Muñoz González2 y Julio César Becerra Díaz3

Universidad Politécnica de Tlaxcala Avenida Universidad Politécnica No.1 Tepeyanco, Tlaxcala, México, C.P. 90180. 1,2,3

cesar.saldana@uptlax.edu.mx

Resumen: En la actualidad los inversionistas analizan los diferentes modelos para la creación de portafolios de inversión en donde se generan las mejores combinaciones del riesgo y el rendimiento de los activos financieros. Dicho lo anterior, se aborda la parte teórica y práctica para la construcción de carteras de inversión a través de los métodos de optimización y multicriterio en relación del rendimiento-riesgo. El objetivo de este trabajo de investigación es la propuesta de una metodología para la toma de decisiones de inversión, en la selección y creación de portafolios con mayor rendimiento y menor riesgo. Además, se realizó un análisis estadístico (varianza, desviación estándar y herramientas matemáticas) con activos financieros que cotizan en la Bolsa Mexicana de Valores, y se comparó con seis modelos para comprobar que la metodología propuesta tiene un menor riesgo que las metodologías tradicionales que se aplican en la construcción de portafolios con los requerimientos y necesidades del inversionista.

+

Palabras clave: Metodología de Análisis Bursátil, Toma de Decisiones, Portafolio de Inversión, Riesgo, Rendimiento.

Recibido: Noviembre 24, 2019. Recibido en forma revisada: Mayo 11, 2020. Aceptado: Junio 10, 2020.

56

Revista Científica

Abstract: Currently, investors analyze the different models for creating investment portfolios where the best combinations of risk and return on financial assets are generated. Having said the above, the theoretical and practical part for the construction of investment portfolios is


addressed through the optimization and multi-criteria methods in relation to risk-return. The objective of this research work is the proposal of a methodology for making investment decisions, in the selection and creation of portfolios with higher yields and lower risk. In addition, a statistical analysis (variance, standard deviation and mathematical tools) with financial assets that are listed on the Mexican Stock Exchange was performed, and compared with six models to verify that the proposed methodology has a lower risk than the traditional methodologies that are They apply in the construction of portfolios with the requirements and needs of the investor.

+

Keywords: Stock Analysis Methodology, Decision Making, Investment Portfolio, Risk, Performance.

Introducción En la actualidad, los instrumentos financieros son muy volátiles debido a los cambios de la política monetaria y la deficiencia en políticas macroeconómicas e imprudencia en el manejo de la deuda pública y privada. No obstante, los inversionistas buscan obtener el mayor rendimiento con el menor riesgo, de ahí que, es necesario la creación de herramientas esenciales para realizar un análisis bursátil, por ende la propuesta de una metodología bien definida para el cálculo de indicadores que permita en primera instancia el análisis de CVAR (administración del riesgo) para seleccionar los instrumentos, en segundo lugar la creación del portafolio de inversión, y por último, la construcción de los escenarios de diversificación de la inversión para la interpretación en la toma de decisiones de inversión a través de un análisis bursátil. Es importante mencionar, que la necesidad de minimizar el riesgo de un portafolio para obtener un equilibrio dado en la rentabilidad por parte del inversionista es el objetivo principal que conlleva aplicar algunas técnicas tradicionales de media varianza de la metodología de Markowitz, para tener los resultados que más le conviene, y a su vez, tener un escenario que le satisfaga a los inversionistas en el momento de invertir. En los mercados financieros, se plantean estrategias que permitan obtener dos puntos importantes que involucran a los oferentes (emisoras) en función de los demandantes (inversionistas), en la adquisición de los instrumentos y son los siguientes: (1) Maximizar la rentabilidad considerando un nivel mínimo de riesgo y (2) Minimizar el riesgo considerando un máximo de rentabilidad. Estas dos condiciones son las que debe satisfacer a los inversionistas; sin embargo, no es tan fácil de hacerlo por lo que se requiere plantear una metodología que permita realizar un análisis bursátil y que cumpla con estas condiciones. En este trabajo de investigación, el objetivo es plantear una metodología para el análisis bursátil para la toma de decisiones de inversión en los instrumentos de los mercados financieros, que cumpla las condiciones de los inversionistas. Por lo anterior, este trabajo de investigación se divide en cuatro apartados, el primero es la revisión de la literatura donde se considera los conceptos y trabajos realizados que sustentan la investigación, el segundo se refiere al método que se utilizó en la investigación, el tercero se refiere a los resultados donde se realiza la comparación de las dos metodologías y el último apartado son las conclusiones de acuerdo con los resultados.

Revisión de literatura El análisis de riesgo y las variables estadísticas es un tema que se analiza para la creación de portafolios de inversión, cuya medición se realizan mediante el modelo de varianza histórica de la rentabilidad que fue propuesto en 1952 por Markowitz, conviene destacar que es una aportación muy importante para el análisis y construcción de portafolios de inversión desde la perspectiva teórica y práctica, Por lo que se planteó los siguientes pasos:

1. Determinar el tiempo de las inversiones. 2. Tipo de inversionista según su preferencia entre el riesgo y rendimiento, que debe ser expresado de forma matemática o gráficamente por la varianza o desviación estándar, de acuerdo a las expectativas del rendimiento. 3. Realizar la combinación de diferentes activos según los mercados financieros (creación del portafolio). 4. Calcular la esperanza matemática del rendimiento, su varianza o desviación estándar y covarianzas. 5. No incluye cualquier tipo de costo de transacción es decir comisiones e impuestos. 6. No se considera asimetrías de información debido que es un mercado que tiene activos de competencia. En relación con el cálculo de esperanza matemática del rendimiento del portafolio para el siguiente periodo se plantea como: (1)

Donde:

E(Rp)= Tasa esperada de rendimiento del conjunto de activos del portafolio. Ri= Tasa esperada de rendimiento de cada uno de los activos financieros. wi = Ponderación del activo que tiene dentro del portafolio.

Conviene subrayar que el rendimiento de un instrumento financiero es una medida de rentabilidad en un periodo de tiempo según el caso de cada inversionista, puede ser de forma diaria, semanal, mensual y anual. De ahí que existen dos características, la primera se refiere a la ganancia, es decir, hay un aumento de los precios de los instrumentos y la segunda es la perdida, cuando hay una disminución de los precios del instrumento. Para determinar el siguiente paso que es la metodología, es necesario analizar el termino entre el riesgo e incertidumbre, por lo que el riesgo es la aleatoriedad con probabilidades conocidas en una unidad de tiempo, y la incertidumbre es la aleatoriedad con probabilidades desconocidas en una unidad de tiempo (Knight, 1921). Según Hull (2011), la volatilidad es la desviación estándar de los rendimientos realizados durante un periodo de tiempo, siempre y cuan-

Revista Científica

57


do el rendimiento se exprese en una capitalización frecuente durante un periodo. Por esta razón, la volatilidad se define como la inestabilidad o variabilidad de los precios en el mercado accionario, conviene decir que no aplica necesariamente en las modificaciones de los precios, sino una mayor dispersión alrededor de ese promedio en un periodo analizado por el inversionista es posible que existan cambios en el promedio del nivel de los precios de los instrumentos financieros sin que se modifique la volatilidad. Para Rosii (2013), el terminó de volatilidad es muy sensible a la corriente de los datos en la formación del nivel de los precios, esto se refiere a la velocidad de los cambios que puedan existir de la nueva información relevante de la compra y venta de los instrumentos que determinan estos factores el equilibrio del mercado. Es así como se producen cambios tanto positivos o negativos en las cotizaciones de los instrumentos, la volatilidad aumentará o disminuirá dependiendo la magnitud de relativa de aquellos cambios que impactan a los promedios de los precios en un periodo determinado. Con respecto al riesgo se explica como factores negativos que afectan al entorno de cualquier actividad futura, es decir, tiene relación directa con el futuro de los instrumentos financieros, con la necesidad de prever y anticiparse a los cambios de los mercados financieros; o en el peor de los casos, establecer estrategias para la mejor toma de decisiones de inversión en la conformación de los portafolios. De manera que el riesgo y el rendimiento tienen una relación directa debido a que mayor rendimiento mayor será el nivel de riesgo que enfrentará el inversionista o viceversa, a menor rendimiento menor será el nivel de riesgo que tendrá el inversionista al invertir en los activos financieros (García, 2014). Esto implica analizar los instrumentos antes de invertir en cada uno de ellos. Asimismo, se puede utilizar para medir las dispersiones existentes entre los rendimientos de los diferentes instrumentos de inversión de las cuales se encarga de medir el modelo de riesgo. Por lo tanto, es de suma importancia tener estos dos conceptos muy definidos para analizar cualquier escenario para el análisis bursátil. Además, cada instrumento que conforma el portafolio de inversión tiene ciertas características propias, las cuales pueden afectar de forma significativa, de ahí que la naturaleza de cada instrumento le da sentido a la palabra diversificación del portafolio, por lo que es necesario considerar la variación de los rendimientos de los activos con respecto al tiempo (ecuación 2). Los diferentes resultados del rendimiento del portafolio a través del tiempo se tienen de la siguiente manera:

(2)

De la ecuación 2 se puede obtener la volatilidad del portafolio de inversión, al tomar la raíz cuadrada de la varianza (ecuación 3).

(3)

Independientemente que la desviación estándar del portafolio que mida la volatilidad se determina en la ecuación 2, que las varianzas de los instrumentos financieros son positivas mientras que las covarianzas entre los activos pueden ser cero, positivas o negativas. Por lo consiguiente, para reducir el riesgo del portafolio es necesario que las

58

Revista Científica

covarianzas sean lo más reducidas posibles o negativas, así como la diversificación de los diferentes valores del producto de los porcentajes de inversión (ecuación 4).

(4)

Para la volatilidad (desviación estándar) del portafolio de inversión es la raíz cuadrada del riesgo (ecuación 5).

(4)

La ecuación 5 que representa el riesgo, se puede escribir de manera matricial como se muestra en la Figura 1.

Figura 1. Forma matricial del riesgo del portafolio. Elaboración propia, 2019.

Donde representa el vector transpuesto de covarianzas.

y Σ es la matriz de

Es importante mencionar, en cuanto a la extensión del modelo de Markowitz se debe por los trabajos realizados de Tobin en 1958 y Sharpe en 1964 en su aplicación de teorema de separación de fondos, en donde debe escoger entre activos riesgosos y activos libres de riesgo. Posteriormente, en el trabajo de investigación denominado “los métodos de evaluación de riesgo para portafolios” publicado por Cristian Andrew, propone un método alternativo de análisis y evaluación del riesgo para portafolios con múltiples activos, en el cual aborda los conceptos de Retorno Total, Frontera Eficiente, Valor de Riesgo (VaR), Teoría de Valores Extremos (EVT), Tracking Error y Simulación de Monte Carlo que utilizo para la construcción de portafolios (Johnson, 2000). Esta metodología está asociada al retorno y el grado de liquidez de los activos financieros, el riesgo está considerado de manera parcial debido que no se dispone de un método en el momento de analizar y medir estos riesgos. Además, esta metodología presenta una selección de los activos cuando se comportan de manera no lineal como opciones y recomienda la aplicación de técnicas simples, como la simulación histórica que está en función de la construcción de una matriz de riesgo, de donde resulta que la información de los activos financieros se trabaja a través de los retornos históricos considerado como volatilidad implícita. Por otro lado, si dispone de activos no lineales recomienda el método de Monte Carlo para el análisis y evaluación del riesgo de los instrumentos.


Considerando el cálculo de retorno total, se inicia a partir horizonte del tiempo predefinido sin considerar la dimensión del riesgo (ecuación 6). (6)

Hay que mencionar que los instrumentos de mayor tiempo tienen mayor volatilidad en los precios y lo define de la siguiente ecuación:

(7)

Otro rasgo de la metodología es definir los portafolios factibles a través de la frontera eficiente que cumplan las condiciones de los inversionistas, para tal caso existen dos formas de hacerlo:

estrategia de administración, que relaciona varios factores, entre ellos el riesgo del inversionista que quiere asumir, el grado de liquidez del activo y situación económica del sector. Por esta razón, buscando obtener mayores rentabilidades y necesidades de capitalizar las inversiones, es importante decir que el aporte de este trabajo de investigación está en función de asignar ponderaciones a cada activo que sea inversamente proporcional al riesgo del mismo instrumento (PIR) y además fue comparado con tres metodologías:

1. La Media Varianza (M-V). 2. La Mínima Varianza (MINVAR). 3. La Equiponderada (1/N). Con respecto al modelo de ponderación inversa al riesgo (PIR) que aplicaron los autores consideraron la siguiente ecuación:

1) Maximizar los rendimientos dado un perfil de riesgo, es decir, el inversionista propone cual es el riesgo al cual está dispuesto a asumir y se busca el portafolio con el mayor rendimiento.

(10)

Donde: (8)

2) Minimizar el riesgo dado un rendimiento propuesto, en este caso

el inversionista propone cual es el rendimiento que espera obtener del portafolio y se busca aquel portafolio con el mínimo riesgo.

(9)

Cualquiera de los dos modelos anteriores permite construir la frontera eficiente del portafolio de inversión. En el análisis bursátil es importante determinar la frontera eficiente para conocer las mejores rentabilidades para un riesgo determinado, es necesario recalcar que a mayor riesgo corresponde a una mayor rentabilidad. Esto situación depende al inversionista según el grado de aversión al riesgo que quiera obtener en la adquisición de los instrumentos (Giraldo et al, 2015). Es decir, el inversionista se situará de forma racional en cualquier punto de la línea de la frontera eficiente, cualquier otro punto sería afectado debido al riesgo alto que podría correr por sus inversiones. Es necesario recalcar que la frontera eficiente, es un espacio geométrico de variancias mínimas definidas por aquellas carteras que, para un riesgo determinado, le genera un rendimiento máximo para el inversionista o igual para un rendimiento dado le genera un riesgo mínimo. Por ende, la frontera eficiente es un subconjunto de varianzas mínimas que permite medir el riesgo de los instrumentos financieros de la cartera (Cardona, 2018).

X1, X2, …, Xn = Son variables aleatorias que representan los retornos de N activos financieros. P = es una medida de riesgo positiva univariante.

La estrategia que utilizaron los autores es la selección de portafolio, se basa sobre la asignación a cada activo una ponderación dada. Además, si las rentabilidades siguen el mismo comportamiento de probabilidades, la estrategia propuesta sugiere asignar la misma ponderación para cada instrumento. Para el 2014 el investigador colombiano John Willmer desarrollo una metodología basada en multicriterio de Borda para la toma de decisiones de inversión en la creación de portafolios considerando los criterios de rentabilidad y riesgo. Esta metodología permite crear un número de combinaciones con diferentes criterios de acuerdo con las necesidades del inversionista (Willmer, 2014). Por lo tanto, el método de Borda refleja una eficiencia en el equilibrio entre rentabilidad y riesgo. De ahí se deriva los siguientes pasos para la mejor toma de decisiones de inversión y son los siguientes:

1. Obtener las cotizaciones de los activos. 2. Aplicar criterios estadísticos para la selección de los instrumentos. 3. Seleccionar los mejores instrumentos. 4. Seleccionar los mejores portafolios. 5. Seleccionar a través del modelo de multicriterio Borda con los

diferentes criterios de rentabilidad y riesgo.

En relación con la selección de los portafolios, el autor considera el criterio de Markowitz y la teoría Sharpe que desarrolla en el paso cuatro de la metodología y plantea las siguientes ecuaciones: (11)

En el trabajo de Puerta y Laniado (2010), desarrollan un método de selección de activos financieros de forma eficiente utilizando una

Revista Científica

59


(12)

(13)

Donde: wi =El porcentaje que se va a invertir del activo (i). E(Ri) = El valor esperado de la rentabilidad del activo. σ2i= la varianza del activo (i). σij= la covarianza entre el activo (i) y el activo (j). La ecuación 11 se refiere a la rentabilidad del portafolio (maximizar el valor esperado de la rentabilidad) y la ecuación 12 al riesgo del portafolio para dos activos financieros (minimizar el riesgo del portafolio considerando el comportamiento no lineal en los activos). De ahí se indica en las restricciones que la suma de los porcentajes invertidos de los instrumentos debe ser igual 1 y además se puntualiza la naturaleza de las variables que se consideran en el modelo (ecuación 13). Por otro lado, introduce en el análisis la teoría de Sharpe (ecuación 14) que permite evaluar el rendimiento de los activos financieros:

(14)

En donde se considera a βi es el coeficiente de riesgo sistemático o volatilidad del activo (i). Dado que determina las siguientes restricciones:

1. Si el valor resultante de βp es alto indica que el activo financiero responde rápidamente a cambios del mercado financiero. 2. Si el valor es bajo indica que responde de forma lenta a cambios del mercado. Por último, determina la mejor alternativa para invertir a través del modelo de multicriterio de Borda con los diferentes criterios de rentabilidad y riesgo ya calculados. En la actualidad destaca el trabajo de Durango y Delgado (2017), que proponen una metodología para la estructuración de portafolios de inversión según el perfil de riesgo considerado para cada inversionista conforme a la ecuación 9. En los criterios que debe tomar los inversionistas aparece una clasificación según sus necesidades o perfiles de cada uno de ellos, el primero se caracteriza por su aversión al riesgo. De manera que valora mucho la seguridad de su capital y procura sumir el menor riesgo posible, de modo que suele invertir en instrumentos financieros estables (Useche , 2015). Es decir, de poco rendimiento, pero bajo nivel de riesgo o volatilidad e invierten a corto y a largo plazo se le denomina inversionista conservador. En segundo lugar, se encuentra el inversionista moderado y su objetivo es obtener buenos rendimientos sin asumir demasiado riesgo. Conviene subrayar que procura mantener

60

Revista Científica

un equilibrio entre rendimiento y riesgo; por lo tanto, invierte a mediano o a largo plazo. El tercero tiene el perfil de inversionista agresivo, en el cual busca altos rendimientos y a la vez está consciente que los instrumentos son muy sensibles a la volatilidad. Además, invierten en instrumentos con alto riesgo y buscan oportunidades a través de estrategias dinámicas para tener buenos rendimientos, de ahí que el inversionista tiene un conocimiento total del mercado y además invierte en largo plazo. Por otro lado, se aplicaron técnicas de análisis de contenido para construir modelos que permita la mejor toma de decisiones de inversión. Dado que se consideran para el análisis bursátil y construcción de portafolios inversión seis tipos de riesgo: riesgo de mercado, crediticio y contraparte, liquidez, operacional, legal y reputacional. Asimismo, utilizaron un modelo matemático que permite aproximar la relación de dependencia entre variables de estudio, con la finalidad de desarrollar escenarios de toma de decisiones en el mercado financiero. Esta propuesta metodológica admite que existen errores en la medición de las variables que se analizaron con una línea de tendencia en un conjunto de datos de un periodo determinado que ha crecido o decrecido en comparación de otros modelos con las mismas variables analizadas. Habría que decir también que la estrategia de monitoreo que implementaron consiste en evaluar los activos a través de modelo de valor en riesgo (VaR) para seleccionar los instrumentos adecuados y mitigar el riesgo del portafolio. Dado que el control permanente de los límites de cada tipo de riesgo permite minimizar la probabilidad de perdida que afecte al patrimonio del inversionista. Es imprescindible mencionar, que el objetivo de los inversionistas es incrementar su capital financiero a través de compra de instrumentos financieros o adquisición de una parte del capital social de una organización constituida como sociedad anónima que beneficia de forma económica y a su vez es la generación de utilidades para el inversionista. Por tal motivo, el proceso de la toma de decisiones de inversión está en función de la rentabilidad esperada a través del grado de riesgo que asume el inversor. Por tal motivo, los juicios y valores son diferentes entre un individuo a otro, de donde resulta que el proceso analítico jerárquico es una teoría de decisiones sobre juicios y valoraciones que permite combinar lo científico y racional a través de la experiencia para la mejor opción del inversionista (Willmer, 2014). Los trabajos antes mencionados dan una explicación clara y sencilla de la forma en que se aborda diferentes maneras de considerar los parámetros asociados a la Teoría Moderna de Portafolios de Inversión (Markowitz), junto con teorías más recientes como lo es la Teoría de Sharpe relacionada directamente con el rendimiento anormal de un portafolio, es decir, que tan por arriba del mercado un portafolio tiene rendimientos, entonces, los parámetros son:

1. El tiempo de inversión. 2. Aversión al riesgo (perfil del inversionista). 3. Probabilidad de perdida (VAR y CVAR). 4. Número de activos financieros en el portafolio. 5. Cuánto dinero se debe invertir en cada activo financiero. De esta manera se puede aplicar y extender el uso de los parámetros del problema relacionado con el de obtener mejores rendimientos, buscando un nivel de riesgo razonable, mediante la metodología propuesta.


Método La estrategia metodológica, que para efectos del presente trabajo se ha diseñado en el buen desempeño de la optimización de portafolios para la mejor toma de decisiones de inversión. Por tanto, atiende la problemática de la construcción de portafolios para minimizar el riesgo y maximizar el rendimiento para los inversionistas. Por lo consiguiente, se sitúa en tres ejes de investigación. El primero de ellos es la selección de instrumentos financieros donde se investigará en fuentes electrónicas, el segundo es la construcción de portafolios inversión a través de métodos de optimización heurística de recientes investigaciones que resuelven apropiadamente las operaciones (optimización), el tercero es la toma de decisiones de inversión que se construyen varios escenarios para obtener mejor elección para invertir considerando el menor riesgo y el mayor rendimiento para el inversionista (Figura 2).

• Factores internos: Inversionista Conservador (IC), Inversionista Moderado (IM) e Inversionista Agresivo (IA). • Factores externos: Información de las Emisoras (IE) y Volatilidad de los Mercados Financieros (VMF). • Factores de gobernanza del país: Riesgo País (RP). Es imprescindible mencionar que para comprobar la eficiencia de la metodología planteada se hace una comparación de los resultados en las variables de rendimiento y riesgo del portafolio, así, se enumeran las metodologías que se utilizaron:

1. A partir de la interpretación de la frontera eficiente (Trujillo, 2018). 2. Técnica multicriterio de Borda (Escobar, 2014). 3. Multicriterio AHP (Willmer, 2014). 4. Multicriterio (Castaño Giraldo, 2015). 5. Evaluación del riego (Johnson, 2000). 6. Estrategias óptimas para la selección de portafolios (Laniado, 2010).

Aunque existen muchas otras las que se proponen cumplen con las características generales de lo que comúnmente se hace para administrar un portafolio de inversión. Después de aplicar cada una de las metodologías al grupo de empresas conforme se describe cada una de ellas y bajo los mismos supuestos de inversión, se evalúa su eficacia de cada una de ellas conforme a su rendimiento.

(15)

Donde: Figura 2. Método General de Investigación. Fuente: Elaboración propia, 2019.

Por lo tanto, los datos que se utilizaron en el proceso de administración del portafolio de inversión fueron tomados de la Bolsa Mexicana de Valores, desde la página de yahoo finanzas; de ahí plantear y resolver dos modelos de administración de portafolios de inversión que deriven en un problema de optimización heurística y programar algoritmos eficientes que resuelvan y modelen lo planteado en los dos primeros puntos anteriores, con el objetivo de poder escalarlos a cómputo paralelo. Conviene subrayar el ingreso de datos reales en una ventana de tiempo conocida para estimar la matriz de covarianza y calcular el error del método propuesto, a partir de varios escenarios conocidos. Para el presente trabajo los métodos de optimización son el principal reto para resolver ya que se deben programar y verificar su óptimo funcionamiento, utilizando problemas de prueba recomendados por la comunidad científica. Como prueba final se harán comparaciones de la implementación desarrollada de la metodología con las ya existentes y por último se emitirán recomendaciones de mejora o se verificará su eficiencia. Para determinar las causas que afectan la mala interpretación y construcción de los portafolios inversión, el comité técnico del Cuerpo Académico de Finanzas y Negocios Inteligentes (CAFYNI), realizó un estudio cuantitativo del que surgieron las categorías y se agruparon en tres factores:

RP representa el rendimiento promedio del portafolio. wi es el porcentaje de participación de cada una de las empresas que conforman el portafolio. Ri es el rendimiento promedio de cada una de las empresas que conforman el portafolio. Y otra de las variables para la evaluación de las metodologías se considera el riesgo.

(16)

Donde: σP es la desviación estándar del rendimiento del portafolio, también conocido como riesgo. Cov(ri,rj) es la covarianza de los rendimientos entre la empresa i-ésima y j-ésima.

Revista Científica

61


Resultados En este apartado, se aplica la metodología propuesta a los precios históricos de trece años de los instrumentos financieros de ocho empresas que cotizan en la Bolsa Mexicana de Valores tomando los rendimientos mensuales, así como el incremento de sus precios con respecto al anterior, se calcula la media de los retornos y la matriz de covarianzas de los activos financieros como datos de entrada del algoritmo, cabe señalar que se restringe el monto máximo a invertir en cada empresa al 70% por lo que los pesos se consideran en el intervalo de [0,0.7] y de esta manera se propicia una mayor diversificación que permite ser más eficiente el portafolio. El algoritmo de la metodología propuesta es comparado con otras metodologías. Para la optimización donde se maximiza el retorno de la inversión dado un riesgo fijo, el valor mínimo de riesgo de los históricos de los retornos para el cual se puede tener una solución del 1.7%. En este caso se hicieron diferentes combinaciones se considera un riesgo fijo del 8%. Para el planteamiento del problema descrito ver la ecuación 17.

(17)

En la Figura 3 se muestra el comportamiento del riesgo de la metodología propuesta versus las otras metodologías, se puede observar que la nueva metodología tiene ventaja sobre las demás ya que en la mayoría de los casos el riesgo calculado es menor, en el caso donde el riesgo es mayor, también se tiene un rendimiento muy por encima de la metodología multicriterio (Willmer, 2014).

Figura 4. Comparación del Rendimiento de las Diferentes Metodologías.Fuente: Elaboración Propia, 2019.

Si se considera el problema de minimizar el riesgo dado un rendimiento fijo, el problema tiene solución para rendimientos menores al 4% mensual de acuerdo con los rendimientos de las empresas, es decir, el portafolio puede a lo más brindar el 4% de rendimiento a diferentes valores de riesgo (ecuación 18). Por lo tanto, ambos algoritmos presentan promedios de rendimientos similares, pero el incremento porcentual del riesgo en las otras metodologías con respecto la metodología que se propuso es del 41.68%, entonces la metodología que se propone en este caso da mejores resultados que el nivel de incremento en rendimientos promedio de otras metodologías no compensa el aumento del riesgo.

(18)

En relación con los resultados anteriores, se desarrolla una estrategia basada en una propuesta de una metodología de análisis bursátil para la toma de decisiones de inversión a través de la construcción de portafolios de inversión, y con ello el mayor rendimiento con menor riesgo para el inversionista. Es importante mencionar que esta metodología considera el modelo CVAR y de Markowitz; asimismo, se describe de forma gráfica la metodología para mostrar los elementos de la propuesta (ver la Figura 5).

Figura 3. Comparación del riesgo de las Diferentes Metodologías. Fuente: Elaboración propia, 2019.

La metodología propuesta en el caso del rendimiento (Figura 4) se comporta de manera similar con un pequeño incremento con respecto a la interpretación de la frontera eficiente (Trujillo, 2018) y un poco debajo de las metodologías analizadas (Laniado, 2010). Pero en todos, excepto el explicado en el párrafo anterior, la ventaja de la metodología propuesta ofrece un menor riesgo a rendimientos similares a las otras metodologías.

Figura 5. Metodología para el Análisis Bursátil para la toma de decisiones de inversión a través de la construcción de portafolios de inversión. Fuente: Elaboración propia, 2019.

Por lo que se refiere a la aplicación de la metodología en trabajos

62

Revista Científica


futuros, en problema de optimización los cuales estén relacionados directamente al hallar el portafolio que tenga la menor probabilidad de tener perdidas a través de un análisis de Montecarlo, el de maximizar el índice de Sharpe que mide la relación entre rendimiento y riesgo de un portafolio, o el de maximizar el rendimiento anormal donde se involucra el comportamiento del mercado, son alternativas fiables para identificar cómo se comportan las variables de interés que son rendimiento y riesgo, a través de cambios en los parámetros, tiempo, aversión al riesgo y pesos de inversión.

Conclusión Al considerar seis metodologías propuestas en diferentes bibliografías que en general abarcan las técnicas recientes y comunes para la generación y administración de un portafolio de inversión, se propone una nueva metodología la cual es validada en comparación a las otras mediante el rendimiento y el riesgo que cada una de ellas ofrece. En general, conforme al rendimiento de todas las metodologías se comportan de manera similar a excepción de un caso donde la metodología propuesta ofrece un mejor rendimiento, la variable donde se aprecian las ventajas de la nueva metodología es en el riesgo. Por lo tanto, la metodología propuesta ofrece riesgos más bajos que las otras metodologías. Es relevante señalar que la metodología que se propone contempla un análisis CVaR (administración de riesgo) para la selección de los instrumentos financieros para obtener menor riesgo y un rendimiento aceptable en el portafolio de inversión y lo cual satisface las necesidades de los inversionistas. En este caso se postulan probabilidades de pérdidas del portafolio como parte fundamental a la determinación de la pertinencia de los mismos activos financieros y como cada activo sensibiliza las posibilidades de pérdida, con el fin de apreciar portafolios más estables, pero menos susceptibles a cambios bruscos al riesgo. También es importante identificar los activos financieros que de acuerdo con los perfiles de riesgo o rendimiento son más bursátiles en el sentido que es alta la posibilidad de salir del portafolio y en posterior reintegrarse al mismo, propiciando así una administración activa del portafolio. Por el otro lado, en perfiles conservadores la selección de aquellos menos bursátiles permite administrar el portafolio en periodos de inversión más largos y estables. Además, la metodología propuesta construye escenarios de diversificación en función de las metas, objetivos, costos y perfiles de los inversionistas para la mejor toma de decisiones de inversión.

+ Durango, M. y Delgado, L. (2017). Diseño metodológico para la estructuración de portafolios de inversión según el perfil de riesgo del inversionista. doi:https://orcid.org/0000-0001-8955-2706 + Escobar, J. W. (2014). Metodología para la conformación de portafolio de acciones utilizando la técnica multicriterio de Borda. INGE CUC, 60-66. + García, V. M. (2014). Introducción a las finanzas . Recuperado el 14 de 01 de 2019, de https://editorialpatria.com.mx/pdffiles/9786074387230.pdf + Giraldo, L.; Díaz, J.; Arboleda, S.; Galarcio, C.; Lotero, J. y Isaza, F. (2015). Modelo de selección de portafolio óptimo de acciones mediante el análisis de Black-Litterman. Recuperado el 16 de 02 de 2019, de http://www.scielo.org.co/pdf/rium/v14n27/v14n27a08.pdf + Hull, J. C. (2011). Introducción a los Mercados Financieros. España: ADDISON-WESLEY. + Johnson, C. A. (2000). Método de Evaluación de Riesgo para Portafolios de Inversión. Recuperado el 17 de 7 de 2019, de https:// www.researchgate.net/publication/5003777_Metodos_de_Evaluacion_del_Riesgo_para_Portafolios_de_Inversion + Johnson, C. A. (2000). Métodos de Evaluación del Riesgo para Portafolios de Inversión. Chile: Banco Central de Chile. + Knight, F. (1921). Incertidumbre y riesgo. Recuperado el 21 de 01 de 2019, de http://www.ebour.com.ar/advmicro/IX-INCERTIDUMBRE%20Y%20RIESGO.pdf + Laniado, N. P. (2010). Diseño de estrategias óptimas para la selección de portafolios, un análisis de la ponderación inversa al riesgo. Lecturas de economía, 243-273. + Castaño Giraldo, F. R. (2015). Metodologías para la eleccion de portafolios óptimos de inversión. Escenarios: Empresas y Territorio, 3-10. + Puerta, A. y Laniado, H. (2010). Diseño de estrategias óptimas para la selección de portafolios, un análisis de la ponderación inversa al riesgo (PIR). Recuperado el 10 de 06 de 2019, de http://www. scielo.org.co/pdf/le/n73/n73a10.pdf + Rossi, G. D. (2013). La volatilidad en los mercados financieros y de commodities . Recuperado el 06 de 02 de 2019, de http://www. redalyc.org/pdf/877/87726343005.pdf

Bibliografía + Cardona, D. (2018). Construcción de la frontera eficiente de Markowitz. Recuperado el 18 de 02 de 2019, de file:///C:/Users/ Sony%20Vaio/Desktop/Articulos%20a%20desarrollar/Articulo%20 de%20cartera%20de%20inversión/ES_frontera.pdf + De Lara, A. (2005). Medición y control de riesgos financieros (3ra. ed.). México: LIMUSA.

+ Trujillo, J. L. (20 de Febrero de 2018). Universidad Autónoma de Hidalgo. Obtenido de https://www.uaeh.edu.mx/scige/boletin/tepeji/n2/e2.html + Useche, A. J. (2015). Construcción de portafolios de inversión desde las finanzas del comportamiento: una revisión crítica. Recuperado el 06 de 05 de 2019, de http://www.scielo.org.co/pdf/cadm/ v28n51/v28n51a02.pdf + Willmer, J. (2014). Metodología para la toma de decisiones de inversión en portafolio de acciones utilizando la técnica multicriterio AHP. Recuperado el 14 de 07 de 2018, de https://www.sciencedirect. com/science/article/pii/S0186104215300048 Revista Científica

63


Lamia Hamdan Medina1, Ma. Susana Flores Alarcón2, Silvana Marina Flores Barajas3 y Emmanuel Rodríguez Velázquez4

Tecnológico Nacional de México/ Instituto Tecnológico de La Laguna Blvd. Revolución y Calzada Instituto Tecnológico de La Laguna S/N Torreón, Coahuila, México, C.P. 27000. 1,2,3,4

lhamdanm@correo.itlalaguna.edu.mx

Resumen: En el presente trabajo se expone el diseño y desarrollo de una aplicación de software que permita favorecer la comunicación de las personas con discapacidad auditiva y de habla ayudando a su inclusión en la sociedad. La aplicación desarrollada reconoce e interpreta por medio de una cámara, las configuraciones de mano de la Lengua de Señas Mexicana (CONADIS, 2016) traduciéndolas a letras y palabras que se puedan reproducir auditivamente, logrando una comunicación viso-gestual. Para lograr el reconocimiento de imágenes generadas enfrente de la cámara se implementaron técnicas de inteligencia artificial como el aprendizaje profundo.

+

Palabras clave: Lengua de señas mexicana, inteligencia artificial, aprendizaje profundo.

Recibido: Abril 15, 2020. Recibido en forma revisada: Mayo 14, 2020. Aceptado: Junio 10, 2020.

64

Revista Científica

Abstract: This work exposes the design and development of a software application that benefit people’s communication with hearing and speech impairment that could help them for a better inclusion in society. The application uses a camera for recognizing and interpreting the hand gestures using mexican sign language as base translating them to letters and words and that can be listened achieving a visual-gestural communication. To achieve the image recognition generated in front of the camera, artificial intelligence techniques such as deep learning were implemented.


+

Keywords: Mexican Sign Language, artificial intelligence, deep learning.

Introducción El Instituto nacional de estadística y geografía, INEGI por sus siglas, define como población con discapacidad aquella que presenta alguna limitación física o mental de manera permanente o por más de seis meses que le impidan desarrollar sus actividades normales. La discapacidad auditiva se define como la pérdida o restricción de la capacidad para recibir mensajes verbales o mensajes auditivos (INEGI, 2000). Al presentar una discapacidad auditiva, no en todos los casos, la comunicación se ve impedida debido a que no se pueden recibir ni transmitir mensajes verbales por la disminución o nula capacidad de auditiva. Por otro lado es importante destacar que la comunicación es la base del desarrollo social para el ser humano, siendo la expresión oral la más común y que acompaña a las personas durante toda la vida. Según datos del INEGI en su encuesta nacional de la dinámica demográfica (ENADID por sus siglas) versión 2018 (ENADID, 2018) en México existen aproximadamente 7.8 millones de personas con alguna discapacidad. La discapacidad auditiva y de comunicación son el 18.4% y 10.5% respectivamente. La dificultad de las personas con discapacidad auditiva hace que la comunicación con su entorno represente un obstáculo por lo que tiene consecuencias en su desarrollo humano y educativo ya que se ven disminuidas sus oportunidades de inclusión. El Consejo Nacional para el Desarrollo y la Inclusión de las Personas con Discapacidad, CONADIS por sus siglas, es el órgano rector de las políticas públicas en discapacidad. La CONADIS coordina e impulsa acciones que aseguren el ejercicio y goce de los derechos de las personas con discapacidad así como contribuir a su desarrollo integral e inclusión plena (CONADIS, 2016). Debido a lo anterior, este consejo y ante la necesidad arriba mencionada, una manera de comunicación es el lenguaje de señas para México. La Lengua de Señas Mexicana, LSM por sus siglas, es la lengua utilizada por las personas sordas y tiene su propia sintaxis, gramática y léxico. El Consejo Nacional para Prevenir la Discriminación, CONAPRED por sus siglas (CONAPRED, 2020) , cuenta con una herramienta que se llama Manos con voz (Serafín de Fleischmann y González Pérez, 2011) que es un diccionario básico está dividido por temas para facilitar su uso y aprendizaje. El vocabulario se conforma por 1,113 palabras distribuidas en 15 temas: abecedario, alimentos, animales, antónimos, casa, calendario, colores, escuela, entre otros. La LSM está compuesta de la dactilología y los ideogramas. La primera es el deletreo en la lengua oral como el abecedario. Por ejemplo, el deletreo de la palabra mamá como se muestra en la Figura 1.

Figura 1. Ejemplo de dactilología. Fuente de la imagen: Manos con voz (Serafín de Fleischmann y González Pérez, 2011).

La segunda, los ideogramas, representan una palabra con una o varias configuraciones de mano, por ejemplo, para la palabra mamá se articula con la letra m (eme) sobre los labios, con la que se golpean tres veces. La necesidad de este proyecto nace en la inquietud de poder brindar la capacidad de comunicación a las personas que tienen discapacidad auditiva y de habla (sordo-mudas) con el fin de mejorar su capacidad o comunicación con el entorno en que viven ya que en el Instituto Tecnológico de La Laguna no hay personal capacitado que hable la lengua de señas. El objetivo del proyecto es favorecer el proceso de integración e inclusión de las personas sordo-mudas a través de una aplicación que sea capaz de interpretar la dactilología (configuraciones de mano) creando palabras y oraciones que se puedan reproducir auditivamente permitiendo de esta manera una comunicación viso-gestual. Para lograr este objetivo se implementaron técnicas de inteligencia artificial que permitieran reconocer las configuraciones de mano para relacionarlas con el abecedario.

Desarrollo Para el desarrollo de esta aplicación se realizó el análisis de las funcionalidades que debería contar este tipo de proyecto. El resultado fue dividirlo en tres grupos de usuarios. El primer grupo se refiere a los usuarios que conocen la LSM y tienen la discapacidad auditiva, para ellos la aplicación debe de detectar el movimiento de manos y la lectura o traducción de ellas. El segundo grupo son usuarios que no conocen la LSM y no tienen de la discapacidad auditiva, las funciones de interés de este grupo es la lectura o traducción de las señas y la reproducción auditiva de las mismas. Y por último, para el tercer grupo, son los usuarios técnicos que serán los responsables de entrenar al sistema de la aplicación las señas o las configuraciones de mano; para realizar esta función es necesario utilizar técnicas de inteligencia artificial como aprendizaje profundo (deep learning) logrando de esta manera que el sistema reconozca objetos en base a la búsqueda de patrones en la configuración de la mano. Para realizar esta función, se debe implementar un módulo que utilice las técnicas antes mencionadas el cual se dividirá en dos fases. La fase uno abarcará el entrenamiento del sistema y la segunda fase será el funcionamiento, esto es, el reconocimiento de señas por medio de patrones realizándose frente a la cámara. El módulo deberá detectar y analizar únicamente las manos bajo distintas condiciones como iluminación, tamaño, posición, entre otras. Las funciones para este tipo de usuario técnico son la captura y almacenamiento de imágenes con variantes en condición como las ya mencionadas, detección de las manos y señas en las imágenes capturadas y la categorización de señas y configuraciones para la interpretación en letras o palabras. El aprendizaje profundo es una subrama del aprendizaje automático (machine learning) que a su vez es una rama de la inteligencia artificial. El aprendizaje profundo es utilizado para simular las funciones redes neuronales biológicas incluyendo memoria de corto plazo, largo plazo, agrupamiento (clusterización), etc. Para el proyecto fue necesario utilizar aprendizaje profundo ya que permite el uso redes neuronales convolutivas que facilitan el procesamiento de imágenes para la búsqueda de

Revista Científica

65


patrones (Hilera y Martínez, 1995; Raschka y Mirjalili, 2019). El módulo de reconocimiento de señas, como ya se mencionó se compone de dos fases. A continuación se explicará acerca del funcionamiento general de cada fase. Para la fase de entrenamiento se tomaron fotografías de las señas en diferentes escenarios o efectos como se muestra en la Figura 2.

Corporation, para la creación de Rich Internet Applications, esto es, aplicaciones web que tienen las características y capacidades de aplicaciones de escritorio, incluyendo aplicaciones multimedia interactivas (JavaFX, 2020). ► TensorFlow: es una biblioteca de código abierto para aprendizaje automático a través de un rango de tareas, y desarrollado por Google para satisfacer sus necesidades de sistemas capaces de construir y entrenar redes neuronales para detectar y descifrar patrones y correlaciones, análogos al aprendizaje y razonamiento usados por los humanos (TensorFlow, 2020).

Figura 2. Entrenamiento de la seña para la letra C con diferentes efectos sobre la mano.

► OpenCV: es una biblioteca libre de visión artificial originalmente desarrollada por Intel. Desde que apareció su primera versión alfa en el mes de enero de 1999, se ha utilizado en infinidad de aplicaciones (OpenCV, 2020).

Sin embargo, los efectos no son suficientes para el reconocimiento de la seña y en consecuencia se realizaron 360 tomas de cada letra con diferente tipo de iluminación e inclinación y cada una con los efectos mostrados en la Figura 2. De esta manera se completó la fase de entrenamiento del módulo.

► gTTS (Google de texto-a-voz): una biblioteca de Python y una herramienta CLI para interactuar con la API de texto a voz de Google Translate. Escribe datos mp3 hablados en un archivo, un objeto similar a un archivo (cadena de bytes) para una mayor manipulación de audio o la salida estándar (gTTS, 2020).

En la Figura 3, se muestra la lógica general del módulo reconocimiento de la seña o configuración de mano en su fase de funcionamiento. Inicialmente como entrada se le presenta al sistema la imagen de la cámara, el módulo de reconocimiento busca si la imagen contiene una mano. Una vez detectada, verifica si esa seña es conocida. Si “conocida” entonces realiza un cálculo para determinar qué tan parecida es con respecto a la que encontró. El porcentaje de semejanza debe ser mayor a un parámetro que se establece desde el inicio en su fase de entrenamiento, su función es definir qué tan parecido debe ser un objeto nuevo con los objetos que ya conoce el sistema. Lo anterior se debe a que puede haber una seña parecida a otra y el sistema debe ser capaz de detectar esta diferencia (Hilera y Martínez, 1995).

► gTTS-Token (Google token de texto a voz): una implementación en Python de la validación de token del traductor de Google (gTTS-TOKEN, 2020). ► Flask: es un framework minimalista escrito en Python que permite crear aplicaciones web rápidamente y con un mínimo número de líneas de código. Está basado en la especificación WSGI de Werkzeug y el motor de templates Jinja2 y tiene una licencia BSD (Flask, 2020).

Resultados y discusión Para la construcción de la aplicación, se eligió un entorno sencillo y rápido de ingresar. La ejecución inicia con nombre del proyecto y selecciona al azar alguna de las imágenes mostradas en la Figura 4, las cuales tienen movimiento haciendo configuración de mano.

Figura 3. Diagrama de flujo del esquema general de reconocimiento de señas.

Si la semejanza fue mayor que el parámetro de vigilancia entonces la seña se acepta como conocida y se interpreta mostrándose al usuario. Las herramientas utilizadas en el desarrollo del proyecto fueron: Figura 4. Interfaz de entrada.

► Python: es un lenguaje de programación interpretado cuya filosofía hace hincapié en la legibilidad de su código. Se trata de un lenguaje de programación multiparadigma, ya que soporta orientación a objetos, programación imperativa y, en menor medida, programación funcional (Python, 2020). ► JavaFX: es una familia de productos y tecnologías de Oracle

66

Revista Científica

Enseguida aparecerá la opción de seleccionar la cámara como se muestra en la Figura 5. La selección de la cámara se realiza de una manera fácil ya que hace un diagnóstico de las cámaras que tiene configuradas el sistema en el que se ejecuta la aplicación, lo que posibilita utilizar cámaras externas a las cámaras integradas permitiendo el uso de dispositivos de alta resolución.


Figura 7. Oculta/muestra la imagen de la cámara.

Figura 5. Configuración de la cámara.

6. Guardar. Esta función permite guardar en un archivo de texto el contenido del área de texto. Permite seleccionar la carpeta y el nombre del archivo. En la Figura 8 se muestra esta función.

Una vez seleccionada la cámara que se utilizará para el reconocimiento de señas, se presenta la interfaz principal de la aplicación que es dividida en siete recursos o elementos que se muestran en la Figura 6, a continuación se detalla la función de cada uno de ellos.

Figura 8. Se muestra la opción de guardar el archivo con nombre y localización deseada.

Figura 6. Interfaz principal de la aplicación.

7. Modo nocturno. Este recurso permite cambiar los tonos de la interfaz a tonos oscuros (o de modo nocturno a modo normal) para aquellos usuarios sensibles a la luz como se muestra en la Figura 9.

1. Área de cámara. Éste es el espacio designado para mostrar la imagen que proporcione la cámara. En otras palabras, en esta área se observará el usuario hablando en señas. 2. Área de texto. Es el espacio utilizado para la traducción de la dactilología que el usuario está realizando frente a la cámara. La aplicación va concatenando las letras de las diferentes señas. 3. Ayuda. Es un recurso que al presionarlo iniciará un tutorial animado del uso de la aplicación y sus funciones. 4. Dictado. Esta función de la aplicación reproduce mediante un sintetizador de voz el contenido en el área de texto. 5. Cámara. Es un recurso que permite ocultar o mostrar la imagen de la cámara como se muestra en la Figura 7.

Figura 9. Demostración del modo nocturno.

La ejecución de la aplicación se muestra en la Figura 10. En (a) y (b) se muestra detección de la dactilología y su traducción en el área de texto de la interfaz.

Revista Científica

67


Figura 10. Demostración del funcionamiento de la aplicación. En (c) se muestra el funcionamiento formando palabras, creando una oración. Para la separación de palabras fue necesario configurar una seña específica para que la aplicación la interprete como una separación de palabras y de esta manera tener la posibilidad de reproducir con voz y guardar en el archivo correctamente.

Trabajos futuros Una recomendación sería agregar los ideogramas a la aplicación, para realizar esto, se sugiere se introduzcan o implementen de acuerdo a la clasificación del diccionario Manos con Voz. Otra recomendación sería optimizar el módulo de reconocimiento de señas para que sea más rápido, exacto y menos sensible al entorno.

Conclusiones El desarrollo del proyecto se realizó en el periodo de seis meses para poder concluirse satisfactoriamente, el aprendizaje fue significativo no sólo en la implementación e interoperabilidad de las herramientas utilizadas sino también en la sensibilización como seres humanos. Las personas que sufren alguna limitación de comunicación o movimiento luchan para integrarse a la sociedad. El desarrollo de esta aplicación ayuda un poco al esfuerzo que realizan éstas personas para poder comunicarse de una manera ágil y fluida. Cabe señalar que se realizaron pruebas con personas con discapacidad auditiva que conocen la LSM y los resultados fueron satisfactorios. La aplicación generó correctamente la dactilología esperada y la reproducción de voz correctamente. La siguiente fase del proyecto es tomar en consideración los ideogramas y que serán agregados en la siguiente versión del proyecto. Para la implementación del proyecto fue esencial comprender el uso de las herramientas sobre todo las relacionadas con inteligencia artificial ya que su función fue primordial para el desarrollo de este proyecto. La aplicación puede ser instalada en cualquier computadora con procesador de preferencia Intel core i5 o i7 con memoria en RAM mínima de 8GB y que cuente con cámara. La cantidad de memoria RAM se debe al procesamiento de imágenes. Las herramientas utilizadas son multiplataforma por lo que la aplicación puede ser instalada en los diferentes sistemas operativos para computadora de escritorio.

68

Revista Científica


Bibliografía + CONADIS (2016). Consejo Nacional para el Desarrollo y la Inclusión de las personas con Discapacidad, Gobierno de México. Documento digital Recuperado el 1 de marzo de 2020, de https://www.gob.mx/conadis/articulos/lengua-de-senas-mexicana-lsm?idiom=es + CONADIS (2020). Consejo Nacional para el Desarrollo y la Inclusión de las personas con Discapacidad, Gobierno de México. Página web Recuperado el 1 de Marzo de 2020, de https://www.gob.mx/conadis + CONAPRED (2020). Consejo Nacional para Prevenir la Discriminación, Gobierno de México. Página web Recuperado el 1 de Marzo de 2020 de https://www.conapred.org.mx/ + ENADID (2018). Encuesta Nacional Dinámica Demográfica. Instituto Nacional de Estadística, Geografía e Informática, INEGI. Gobierno de México. Documento digital Recuperado el 1 de Marzo de 2020, de https://www.inegi.org.mx/contenidos/ programas/enadid/2018/doc/resultados_enadid18.pdf + Flask (2020). Python Software Foundation. Obtenido de https://flask.palletsprojects.com/en/1.1.x/ + gTTS (2020). Python Software Foundation. Obtenido de https://pypi.org/project/gTTS/

internet.contenidos.inegi.org.mx/contenidos/productos/ prod_serv/contenidos/espanol/bvinegi/productos/historicos/1329/702825010043/702825010043_1.pdf#[0,{%22name%22:%22Fit%22}] + JavaFX (2020). Open JavaFX, Java Platform Group at Oracle. Obtenido de https://openjfx.io/ + OpenCV (2020). OpenCV. Obtenido de https://opencv.org/ + Python (2020). Python Software Foundation. Obtenido de https://www.python.org/ + Raschka, S. y Mirjalili, V. (2019). Python Machine Learning, aprendizaje automático y aprendizaje profundo con python,sci-learn y tensorflow. México. Marcombo. 207-330, ISBN #978-84-267-2720-6 + Serafín de Fleischmann, M. L. y González Pérez, R. (2011). Manos con voz, diccionario de lengua de señas mexicana. México: Libre Acceso, A.C. ISBN #978-607-9134-01-3 (Libre Acceso), ISBN #978-607-7514-35-0 (Conapred). + TensorFlow (2020). TensorFlow. Obtenido de https:// www.tensorflow.org/ + gTTS-TOKEN (2020). Python Software Foundation. Obtenido de https://pypi.org/project/gTTS-token/

+ Hilera, J. R. y Martínez, V. J. (1995). Redes neuronales artificiales: Fundamentos, modelos y aplicaciones. Madrid, España: Addison-Wesley; Ra-ma, 219-248, ISBN #0-201-87895-X + INEGI (2000). Instituto Nacional de Estadística, Geografía e Informática. Gobierno de México. Documento digital Recuperado el 1 de Marzo 2020, de http://

Revista Científica

69


Claudia Delfín Ruiz1, Rodrigo Cano Guzmán2 y Claudia Llanes Cañedo3

Departamento de Ciencias Sociales, Centro Universitario del Sur, Universidad de Guadalajara. 3 Departamento de Ciencias de la Naturaleza, Centro Universitario del Sur, Universidad de Guadalajara. Dirección: Avenida Enrique Arreola Silva #883, Centro, C.P.49000, Ciudad Guzmán, Jalisco, México. 1,2

claudia.delfin@academicos.udg.mx

Resumen: Este trabajo da a conocer el efecto de la ansiedad maternal en la organización familiar y como afecta su dinámica. Desde las narrativas de una madre, en el contexto de una entrevista, un diario personal y la escala de ansiedad de Beck (BAI), desde la terapia narrativa, se realizaron narraciones que marcan el inicio de cambios de hábitos nutricionales y como éste le ayudó a tomar conciencia de su dinámica familiar. Es una investigación mixta y transversal; en lo cualitativo, de la entrevista y del diario personal, se obtuvieron unidades de análisis y categorías desde la terapia narrativa; en lo cuantitativo, se obtuvo una comparativa de los resultados de las dos escalas de ansiedad de Beck (BAI) aplicadas al inicio y al final. Los resultados muestran que la madre al atender sus necesidades y cambiar de hábitos alimenticios, logra reconstruir su autoestima y su autopercepción, cambiando así su narrativa dominante sobre su familia.

+

Palabras clave: Ansiedad materna, dinámica familiar, escala de ansiedad de Beck, relaciones familiares, terapia narrativa.

Recibido: Abril 15, 2020. Recibido en forma revisada: Mayo 14 , 2020. Aceptado: Junio 10, 2020.

70

Revista Científica

Abstract: This paper shows the effect of maternal anxiety on family organization and how it affects family dynamics. From the narratives of a mother, in the context of an interview, a personal diary and the Beck


Anxiety Scale (BAI), from the narrative therapy, narratives were made that mark the beginning of changes in nutritional habits and how this helped her become aware of her family dynamics. It is a mixed and transversal research; in the qualitative aspect, from the interview and the personal diary, units of analysis and categories were obtained from the narrative therapy; in the quantitative aspect, a comparison of the results of the two Beck’s Anxiety Scales (BAI) applied at the beginning and at the end was obtained. The results show that the mother, by attending to her needs and changing her eating habits, manages to rebuild her self-esteem and self-perception, thus changing her dominant narrative about her family.

+

Keywords: Maternal anxiety, family dynamics, Beck’s anxiety scale, family relationships, narrative therapy.

Introducción Las preocupaciones de la vida cotidiana suelen provocar ansiedad, es decir, preocuparse por el trabajo, por cuestiones familiares, por problemas maritales, entre otras cosas, es muy común. La ansiedad moderada se considera como una reacción normal y muy humana, dado que incluso puede dotar de energía y ayudar para salir adelante en nuestras tareas cotidianas. Pero la ansiedad en exceso puede lograr enfermar y llevar al nivel de interferir gravemente en nuestra salud mental y física. Cuando las preocupaciones son repetitivas y constantes, suelen convertirse en una forma de afrontar la vida y lleva a sufrir enfermedades, infelicidad personal y desajuste en nuestro núcleo más cercano como lo es la familia, alterando tanto la dinámica como el funcionamiento familiar, los cuales son cruciales para la salud de los miembros de la misma. En la actualidad la familia sufre cambios estructurales y sociales importantes, que llegan a tornarla vulnerable, esto puede atentar contra la salud de alguno de sus miembros, afectando la interacción del mismo sistema e impactando en su funcionalidad. Todo lo anterior lleva a plantear la siguiente pregunta de investigación: ¿Cuál es el efecto de la ansiedad maternal en la dinámica familiar y cómo se explicaría a la luz de la terapia narrativa? Y la hipótesis a confirmar o descartar sería: A mayor ansiedad maternal menos posibilidades de crear una dinámica familiar saludable.

Objetivo general

Identificar el efecto de la ansiedad maternal en la dinámica familiar y explicarla desde la terapia narrativa.

Objetivos específicos

● Analizar los efectos de la ansiedad maternal en la dinámica familiar a través de la escala de ansiedad de Beck (BAI). ● Describir las narraciones dominantes de la madre ante el cambio de hábitos alimenticios y como se crearon nuevas relaciones familiares.

Desarrollo La familia es el núcleo de la sociedad, es donde se aprenden y desa-

rrollan las habilidades para la vida. Es el conjunto natural de personas unidas por vínculos afectivos y que tiene un objetivo formativo para cada uno de los integrantes, a través de sus funciones, roles y la propia dinámica familiar. En este sentido y dependiendo de éstos las familias pueden ser funcionales o disfuncionales (Mendoza, 2013). En un estudio realizado por Mendoza (2013) menciona que los atributos femeninos y masculinos se construyen socialmente, generando el rol de genero el cual determina la vida de los individuos condicionando sus sentimientos, pensamientos, proyectos de vida e interviniendo en la forma en que las personas actúan ante los demás y conforman su personalidad. También hace referencia al rol tradicional de la mujer el cual puede ser: cariñosa, obediente, maternal, delicada, atractiva entre otras y que brinda un apoyo incondicional al hombre, esta feminidad llevada al extremo se torna negativa y a la larga se manifiestan en actitudes de: sumisión, negación de sus propias necesidades, permite humillaciones, conformista ante el fracaso, tristeza, abandono de sus proyectos personales por atender proyectos de sus hijos y esposo. Según Larrain (2006, citado por Mendoza, 2013) menciona que hay estudios donde se observó que los roles de género negativos están íntimamente relacionados con la mala salud en específico la aparición de depresión, conductas neuróticas y psicóticas, resultando que cuando las mujeres presentan un rol sumiso padecen problemas emocionales y adquieren conductas insanas tales como seguir una dieta poco saludable para llegar a un ideal de delgadez, mostrando altos niveles de angustia, estrés, ansiedad y somatizaciones. Por el contrario, tener unas características del rol de género positivas están íntimamente relacionados a mejores condiciones de salud, aumentando las posibilidades de éxito y proyectándolo todo en una salud física mental y social (Matud et al., 2002 citado por Mendoza, 2013). En el caso de los trastornos de la conducta alimentaria Mendoza (2013) señala que estos padecimientos se asocian al rol femenino, pero a sus características negativas de la feminidad (sumisión elevada), en cambio mayores niveles de autoestima y menor preocupación por su figura física generan factores protectores contra los trastornos de la conducta alimentaria. Concluye que las mujeres tienen una discrepancia entre problemas emocionales (baja autoestima, ansiedad, depresión, enojo, frustración y trastornos de conducta alimentaria) y la autopercepción (insatisfacción personal, sumisión) así como también la percepción de lo que la sociedad espera de ellas lo que las lleva a realizar conductas insanas. Vargas (2014) explica que el funcionamiento familiar es el que tiene mayor relación con la aparición de la ansiedad y depresión en los miembros de la familia, dado que al alterarse el funcionamiento familiar por problemáticas externas o si algún miembro presenta algún padecimiento o enfermedad mental es necesario apoyar, asistir y capacitar al sistema familiar para un mejor afrontamiento. Soriano-Fuentes et al. (2003, citado por Vargas, 2014) mencionan como resultados de su investigación en la cual participaron una muestra de 124 pacientes en atención primaria, los cuales presentaron los siguientes trastornos mentales: depresión, distimia, trastorno por ansiedad generalizada, agorafobia y fobia social, concluyendo que las mujeres eran las mas afectadas principalmente por depresión y ansiedad, sin embargo no encontró conexión significativa entre el tipo de familia y la enfermedad mental. Hinostroza-Castelú et al. (2011, citado por Vargas 2014) argumenta en una investigación que realizaron con 152 escolares entre 13 y 15 años, que existe una estrecha relación entre la dinámica familiar y la presencia de depresión, encontrando que la familia normo funcional fue en la que

Revista Científica

71


predominó esta situación y se debieron a factores externos, apareciendo los siguientes síntomas de depresión: pesimismo, aislamiento social y reducción del apetito. Cruzat Mandich y Cortez Carbonell (2008) señalan que mujeres con trastornos alimenticios son vulnerables a desarrollar emociones negativas hacia su esquema corporal, reflejándose en los trastornos alimenticios que presentan como una manera de negativa de manejar sus emociones, las emociones negativas son mediadoras entre la insatisfacción corporal y los trastornos alimenticios. Hayaki, Fridman y Brownell (2002, citado por Cruzat, 2008) correlacionaron en su investigación, la expresión emocional y la insatisfacción corporal en una población de 147 mujeres universitarias jóvenes, donde se evalúo la expresión emocional, la fragilidad, la insatisfacción corporal y los síntomas depresivos descubriendo que entre menos expresen sus emociones mas insatisfacción corporal presentan y viceversa, proponiendo estrategias para modificar su ansiedad con relación a la figura corporal y el peso. Cruzat (2008) explica que el problema en el control de los estados de ánimo negativos esta ligado a los trastornos alimenticios, explicando que el control emocional implica cambios en los estados emocionales, tales como latencia, magnitud, tiempo y duración de las conductas manifestadas. Bydlowski et al. (2005, citado en Cruzat, 2008) realizaron una investigación del proceso emocional en un grupo de 70 mujeres con trastornos alimenticios comparado con 70 mujeres control, el estudio tenía dos objetivos, el primero medir la conciencia emocional y la alexitimia (incapacidad para corresponder emociones con acciones), los participantes completaron un inventario de depresión (BDI DEPRESSION), los resultados mostraron que las mujeres que tienen trastornos alimenticios presentan puntajes altos en alexitimia y puntajes bajos en la incapacidad para identificar y describir sus emociones concluyendo que pacientes con trastornos alimenticios muestran tener un déficit en el proceso de emociones independientemente de la ansiedad o la depresión que padezca. López (2014) realizó un estudio comparativo con pacientes con trastornos de conducta alimentaria comparando con las variables: percepción subjetiva del vínculo y dinámica familiar, por consiguiente afirma que un gran número de pacientes con trastorno de la conducta alimentaria que viven las consecuencias difíciles en cuanto a lo personal, familiar y social, alteran el funcionamiento en sus relaciones y requieren de procesos terapéuticos, psicológicos y médicos que coadyuven a mejorar la calidad de vida de dichos pacientes, así como la de sus familias, es por ello que estudiar la dinámica familiar y los vínculos parentales de estos pacientes nos puede ayudar a entender su funcionamiento para así lograr intervenciones efectivas tanto con ellos como con sus familias. Con estas investigaciones se aporta o beneficia a la práctica profesional creando modelos de intervención acordes a la familia y al padecimiento de los pacientes. Como resultados significativos encontraron que existen diferencias significativas en la función parental, mas no en el funcionamiento global del sistema familiar, aportando que en la terapia se enfatice en mejorar la estructura y fusiones de las relaciones entre padres e hijos. Aunado a ello se deben hacer además de intervenciones individuales también se realicen intervenciones familiares. Quevedo (2015) concluye en los resultados de su estudio que el grupo femenino presenta mayor frecuencia de ansiedad en comparación con el grupo masculino, en su estudio no existe relación entre los niveles de ansiedad con la edad, pero si con el sexo como ya se mencio-

72

Revista Científica

nó, identificando la insatisfacción corporal entre otros factores como potenciador de los trastornos de conducta alimentaria. En otra investigación Blanco (2013) analizó la relación existente entre la influencia de la depresión en el entorno familiar y como ésta se relaciona con su afrontamiento, encontrando la relevancia de la relación familiar sobre la aparición de la depresión. García y Rodríguez (2005, citado por Blanco, 2013) refieren que el afrontamiento familiar son los comportamientos y recursos de apoyo que cambian, a los que recurre la familia con la finalidad de atender el problema específico. Además mencionan que la posición de la familia debe girar entorno al cambio de roles, objetivos y metas así como cambiar las relaciones directas o indirectas con el enfermo de depresión adoptando pautas, conocimientos y estrategias prácticas en el actuar ante cualquier problema que presente el enfermo por otra parte estos autores enumeran requerimientos que debe poseer una familia para afrontar alguna enfermedad mental (ansiedad, depresión y estrés) de alguno de sus miembros y que favorecen la forma de afrontar dichas enfermedades: recursos físicos: (energía), recursos personales (creencias), recursos sociales (comunicación efectiva), técnicas de resolución de problemas y recursos ambientales (amigos, apoyo social, condiciones laborales y tipo de vivienda). Blanco (2013) concluye que se requiere que el paciente primeramente tenga conciencia de la enfermedad para que posteriormente se adecúe a nuevos roles dentro de la dinámica familiar, participando de manera activa y positiva frente al reconocimiento de la enfermedad y asimilando las nuevas acciones con el fin de fortalecer los vínculos en el sistema familiar. En esta investigación, con diseño transversal (duró 30 semanas), se utilizó la perspectiva de la terapia narrativa, tanto en la metodología como en la interpretación de los datos, es por ello que a continuación se explicará a detalle lo que es la terapia narrativa. Pedraza, Perdomo y Hernández (2009) mencionan que, en todas las personas, los recuerdos, las ideas y los conceptos nacen en una interacción social y se transmiten a partir del lenguaje y es en esta conversación, donde se desarrolla una identidad personal o una voz interna que puede ser positiva o negativa para la persona. Es así como, en lo individual, cada uno desarrolla para sí, una narración interna de su propia experiencia, para después narrarlo a los otros, formando narraciones colectivas (o familiares). Por ende, las narrativas adquieren importancia como resultado de las narraciones sociales o co-construcciones de los integrantes de una familia como grupo social. Entender la conducta humana o la dinámica de una familia en esencia es conocer el sistema de interpretaciones que cada miembro usa para dar significado a sus experiencias. La manera en que las familias narran sus vidas los obliga a crear nuevas perspectivas respecto a sus relaciones familiares. En consecuencia, la terapia narrativa se centra en el desarrollo de estas nuevas historias, es decir, en crear nuevas perspectivas resultando así una nueva visión de las problemáticas o vivencias. La terapia narrativa postula que las personas dan sentido y significado a sus vidas y sus relaciones relatando su experiencia y al interactuar con otros en la representación de estos relatos, modelan sus propias vidas y relaciones (Pava-Ripoll, 2015), es por ello que se utilizó este paradigma en la entrevista a profundidad, también se utilizó un inventario que mide ansiedad, éste se describirá a continuación:


de su vida cotidiana. La escala de Ansiedad de Beck (BAI) fue creado por Aarón T. Beck y Robert A. Steer, en 1988, sin embargo los autores de la adaptación española son: Jesús Sanz, Fréderique Vallar, Elena de la Guía y Ana Hernández, quienes lo adaptaron en el 2011. Cabe mencionar que el BAI, fue diseñado como instrumento fiable y validado para la medición de la ansiedad, en el ámbito clínico, sin contaminarla del elemento depresivo (CGPE, 2013; APA, 2014; WHO, 2000).

Metodología Se realizó una investigación mixta de corte transversal (30 semanas), en tres fases; donde en la primera fase, que fue la parte cualitativa se utilizó una entrevista a profundidad bajo la perspectiva de la terapia narrativa, donde se describe una historia de manera detallada, que ayudó a comprender la problemática, como ya se mencionó se utilizó como técnicas de recolección de datos la entrevista a profundidad y la primera aplicación de la escala de ansiedad de Beck (BAI). En la segunda fase, se revisó el diario personal que llevó a través de 30 semanas donde registraba sus emociones y el porcentaje de apego a la dieta y se volvió a aplicar la escala de ansiedad de Beck (BAI) para lograr una comparativa al final. Y la tercer fase fue el análisis de los resultados de las dos fases anteriores, donde en la parte cualitativa se obtuvieron las unidades de análisis, para así formar categorías. Y en la parte cuantitativa, una comparativa numérica de las dos escalas de ansiedad (BAI). Cabe mencionar que esta investigación se realiza mientras la madre, que es el caso estudiado, se inscribió a un Programa de Salud Organizacional, que se efectuó en su centro laboral, el cual consiste en un reto de cambio de hábitos alimenticios. El grupo de investigadores se centró en analizar a profundidad la narrativa de la persona, de la cual el nombre se mantendrá anónimo por cuestiones de ética y privacidad. En el momento de la aplicación de los instrumentos de recolección de datos, la forma de analizar la narrativa se desprende del modelo narrativo que en terapia familiar sistémica se define como la técnica terapéutica donde “las personas dan sentido y significado a sus vidas y sus relaciones relatando su experiencia y al interactuar con otros en la representación de estos relatos, modelan sus propias vidas y relaciones” (Pava-Rippol, 2015). Bajo el método de estudio de caso, la participante firmó consentimiento informado y se grabó la entrevista a profundidad y se analizaron los documentos siguiendo la objetividad y la neutralidad pertinente con la finalidad de identificar las situaciones, emociones, creencias, actitudes, que se observaron durante la entrevista y la aplicación de las escalas de ansiedad de Beck (BAI) y además de la revisión conjunta del diario personal, cabe mencionar que la entrevista a profundidad fue reveladora en cuanto a los sentimientos, emociones y conflictos personales que la persona destaca como limitaciones para el logro de sus metas y su estabilidad emocional. En el análisis del estudio de caso, se puede rescatar que, en el propio proceso de recolección de datos y narrativas, se gestó una catarsis y la descripción de las emociones fue de mayor descripción. Con el fin de incrementar la fiabilidad en los estudios cualitativos se contrastó la información con el diario de la persona, el cual revelaba día a día, su ingesta de alimentos como sus emociones y reacciones ante las situaciones de su día. Revelando, así como en un inicio al final, hubo cambios de su humor y su capacidad de afrontamiento a los problemas

En la parte cuantitativa, se obtuvieron frecuencias y porcentajes de cada una de las escalas de Beck (BAI) que se aplicaron (al inicio y al final) para obtener una comparativa del nivel de ansiedad. Para lograr un rigor metodológico y estadístico, fue necesario establecer los estimadores de los parámetros que determinaron los valores mínimos de referencia de las escalas; para tal finalidad se desarrollaron los criterios, las características, los supuestos y las condiciones teóricas de las escalas de manera cuantitativa. Dentro de los principios éticos que se siguieron en esta investigación se encuentran: el respeto por las personas, entendido como respetar la autonomía de las personas, proteger a las personas con autonomía disminuida o deteriorada, la beneficencia, que es maximizar el beneficio y minimizar el daño en el tratamiento. No causar daño deliberadamente, la justicia, entendida como tratar a cada persona de acuerdo con lo que se considera correcto y apropiado, la solidaridad, donde ser solidario con el paciente en situaciones en donde existan distintas necesidades, y la responsabilidad, que es responder voluntariamente a las necesidades del paciente (Heinze y Camacho, 2010).

Resultados En la entrevista a profundidad se buscó crear una nueva conversación con la intención de co-crear una nueva narración junto con la persona (en este caso la madre) al relatar su ansiedad, al relacionarla con sus malos hábitos alimenticios y al ir registrando cada día sus emociones al mismo tiempo que registraba su nivel de apego al cambio nutricional. El punto de inicio fue una narración que la madre hizo de su propia dinámica familiar en el contexto de una entrevista a profundidad con enfoque en la terapia narrativa, donde cada una de las preguntas iban creando una nueva relación y visión, que posibilitó un cambio de percepción de la madre hacia una mas sana y positiva de sí misma, y sobre todo ser consciente de donde provenía la ansiedad que había estado presentando desde hace mucho tiempo. Las unidades de análisis encontradas fueron: narración familiar, narración social, nueva perspectiva, re-significación de su vida familiar, perspectiva de su familia de origen, descripción de su familia de origen, relato del problema; las cuales se agruparon en cuatro grandes categorías: externalización, de-construcción, co-construcción y empoderamiento. En la Tabla 1, se encuentran los registros del diario personal, donde describe sus emociones y como están íntimamente relacionados con el porcentaje de apego, siendo la emoción de ansiedad (12), la que predominó durante las 30 semanas y esta emoción hacía que su porcentaje de apego disminuyera.

Revista Científica

73


Tabla 2. Resultados de la escala de Beck en escala numérica. Tabla 1. Registro del diario personal

Como conclusión se rescata que durante la entrevista a profundidad las narrativas se englobaron en cuatro grandes categorías: externalización, de-construcción, co-construcción y empoderamiento. En ese orden de aparición fueron acomodadas las narrativas del caso, para llegar finalmente al empoderamiento de la persona sobre su vida familiar. En el diario personal, se encontró que fueron 12 de las 30 registradas, donde ella vivió con ansiedad, lo que da cuenta de que sus percepciones y estrategias para afrontar sus problemas de la vida cotidiana influyen en su dinámica familiar. En la parte cuantitativa, la comparación de la primera evaluación con un puntaje de 32, lo que la ubica en una ansiedad moderada y en la segunda evaluación de 2, que la ubica en una ansiedad muy baja. Nos da cuenta de la gran diferencia de la percepción de ansiedad manifestada en ambas.

Conclusiones:

A continuación, en la Tabla 2, se describen los resultados de la comparación de la escala de ansiedad de Beck (BAI) en niveles y en números, los aspectos se evalúan en una escala de 4 niveles: En absoluto, levemente, moderadamente, severamente. Interpretación cuantitativa de los resultados de la escala de Beck (BAI): Los aspectos se evalúan en una escala numérica del 0 al 3, siendo: 0 En absoluto, 1 levemente, 2 moderadamente, 3 severamente.

74

Revista Científica

Al darse cuenta en la primera evaluación que pesar 115 kilos, era producto de 9 años de descuido personal, resultó impactante, dado que casi el 50% de su peso era grasa. Participar en el reto de cambio de hábitos alimenticios y en esta investigación, la llevó a una profunda reflexión personal, que la obligó a identificar el abandono total, que ella tuvo consigo misma, por atender únicamente las necesidades de su familia, descubrió además que eso le provocaba una ansiedad desbordante, al elaborar estas narraciones, registros y vivir este proceso de de-construcción y co-construcción, ella comenta que su mayor logro fue perdonarse y comprometerse a no volverse a abandonarse nunca. Durante el compromiso de apegarse a una dieta durante 30 semanas, donde se tuvo que concentró en ella misma, la llevó a lograr establecer límites con su marido, reorganizar a sus hijos y manejar sus tareas domésticas y laborales, llevándola a sentirse mejor física y mentalmente, reducir 13 kilos de grasa manteniendo peso muscular, realizar grandes cambios dentro de sus hábitos alimenticios y disminuir considerablemente la ansiedad.


Al relatar su problemática actual, la llevó a un análisis profundo de su familia de origen, la cual, al externalizarla, la pudo de-construir para co-construir una nueva visión de la misma, se dio cuenta que la problemática de su vida familiar actual, se debía mas a creencia pasadas, hábitos dañinos y emociones negativas. Todo lo anterior la llevó a una reflexión profunda sobre sus valores, sus acciones y sus metas en la vida, creando un compromiso personal que la empoderó para manejar su vida, su familia y sus problemas actuales. Recontar su historia le permitió crear una nueva narración de su vida, lo que le ayudó a aclarar por sí misma, la nueva dirección por la que quiere llevar su dinámica familiar.

Bibliografía + Kupfer, D. J.; Regier, D. A.; Arango López, C.; Ayuso-Mateos, J. L.; Vieta Pascual, E. y Bagney Lifante, A. (2014). DSM5: Manual diagnóstico y estadístico de los trastornos mentales (5a ed.). Madrid [etc.]: Editorial Médica Panamericana. + Blanco, J. (2013). Afrontamiento familiar del paciente con depresión. Realitas: revista de Ciencias Sociales, Humanas y Artes, 1(2), 46-51. + Consejo General de la Psicología en España (2013) Evaluación del inventario BAI. Recuperado de www.cop.es https:// www.cop.es/uploads/PDF/2013/BAI.pdf + Cruzat Mandich, C. y Cortez Carbonell, I. (2008). Expresión emocional, afecto negativo, alexitimia, depresión y ansiedad en mujeres jóvenes con trastornos de alimentación: una revisión teórica. Revista Argentina de Clínica Psicológica, XVII (1), 5-17. + Heinze, G. y Camacho, P. (2010) Guía Clínica para el manejo de la ansiedad. Instituto Nacional de Psiquiatría Ramón de la Fuente. México. Recuperado de: http://inprf-cd.gob. mx/guiasclinicas/manejo_ansiedad.pdf + Hernández Sampieri, R.; Fernández Collado, C. y Baptista Lucio, P. (2014). Metodología de la investigación. Sexta Edición. Editorial Mc Graw Hill. México. 2014• Hernández, R. Metodología de la Investigación. 6a Edición, Mc Graw Hill, México. + López, C.; Herrero, O. y Botella, L. (2014). Dinámica familiar y vínculo parental en pacientes diagnosticados de trastorno de la conducta alimentaria. Revista de Psicoterapia, 25(99), 69-81.

+ Mendoza Jiménez, J. I.; González Alcántara, K. E. y Silva, C. (2013). Autopercepción, ideal personal y prescripción social del rol de género con relación a las actitudes hacia la alimentación en un grupo de mujeres adolescentes. Revista Psicología Y Salud, 23(1), 63-73. + Pava-Ripoll, N. A. (2015). Narrativas conversacionales con familias y docentes de niños y niñas con discapacidad: un aporte metodologico. Revista Interdisciplinaria, vol. 32, no. 2, 2015. Recuperado de: https://link.galegroup.com/apps/doc/ A493992929/AONE?u=udeg1&sid=AONE&xid=4ce66751. + Pedraza-vargas, F.; Perdomo-Carvajal, F. y Hernández-Manrique, E. (2009). Terapia narrativa en la co-construcción de la experiencia y el afrontamiento familiar en torno a la impresión diagnóstica de TDAH. Revista Universitas Psychologica, 8(1), 199-214 + Quevedo, L.; Reyna, N. y Bermúdez, V. (2015). Ansiedad y conductas de riesgo de trastornos alimentarios. Sindrome Cardiometabolico , 5 (1), 12-18. + Vargas Murga, Horacio (2014). Tipo de familia y ansiedad y depresión. Revista Medica Herediana, 25(2), 57-59. Recuperado de http://www.scielo.org.pe/scielo.php?script=sci_arttext&pid=S1018-130X2014000200001&lng=es&tlng=es. + World Health Organization (2000). Guía de bolsillo de la clasificación CIE-10: clasificación de los trastornos mentales y del comportamiento. Madrid : Editorial Médica Panamericana. Recuperado de: http://www.who.int/iris/handle/10665/42326 + Montesano, A. (2013). La perspectiva narrativa en terapia familiar sistémica. Revista de psicoterapia. 89. 5-50.

Revista Científica

75


Yolanda Flores Ramírez 1, Germán Espino Olivas 2 y José Ángel Pendones Fernández 3

Instituto Tecnológico Superior de Nuevo Casas Grandes Av. Tecnológico No. 7100, Centro, C.P. 31700 Nuevo Casas Grandes, Chih..

1, 2, 3

Recibido: Abril 15, 2020. Recibido en forma revisada: Mayo 18, 2020. Aceptado: Junio 14, 2020.

76

Revista Científica

Resumen: La ventaja de implementar sistemas administrativos de control interno en las empresas debe verse reflejada en la información con la que se cuenta para tomar decisiones económicas, que impacten de manera positiva en las utilidades. Con mayor razón, cuando se invierte en sistemas tecnológicos, que cumplan con esta finalidad. Este proyecto, tiene como propósito identificar el impacto que tiene el capital humano en la eficiencia de los sistemas administrativos de control interno en las empresas del sector ferretero en Nuevo Casas Grandes, Chihuahua. Se aplicó una encuesta a 64 empleados de 10 empresas, que conforman el sector ferretero de Nuevo Casas Grandes, Chihuahua; para medir la relación en la eficiencia de los sistemas administrativos de control interno, con la motivación del capital humano. Para el análisis, se utilizaron los métodos estadísticos de correlación y regresión lineal. Los resultados muestran un grado de asociación alta entre la satisfacción de los empleados y la eficiencia de sistemas administrativos. Se concluye que, si la empresa cuenta con sistemas administrativos de control y el personal se encuentra satisfecho laboralmente, la información generada estará actualizada y será útil. En general, este estudio aporta elementos necesarios a considerar en el manejo del capital humano, que impactarán positivamente en la eficiencia de la información generada para la toma de decisiones económicas.


+

Palabras clave: Administración, control interno, eficiencia, información, capital humano.

Abstract: The advantage of implementing administrative systems of internal control in companies must be reflected in the information available in order to make economic decisions, that have a positive impact on profits. All the more so, when investing in technological systems, that comply with this purpose. The aim of this work, is to identify the impact that human capital has on the efficiency of administrative internal control systems on companies in the hardware sector in Nuevo Casas Grandes, Chihuahua. A survey was applied to 64 employees of 10 companies, that conform the hardware sector of Nuevo Casas Grandes, Chihuahua; to measure the relationship between the efficiency of the administrative internal control systems, with the motivation of human capital. Statistical methods of correlation and linear regression were used for the analysis. The results show a high degree of correlation between employee satisfaction and the efficiency of administrative systems. It is concluded that, if the company has administrative control systems and the staff is satisfied with their work environment, the information generated will be updated and useful. In general, this study provides the necessary elements to consider in human capital management, that will positively impact the efficiency of the information generated for economic decision making.

+

Keywords: Administration, internal control, efficiency, information, human capital.

Introducción El control interno, incluye el plan de organización de todos los métodos y medidas de coordinación acordados dentro de una empresa para salvaguardar sus activos, verificar la corrección y confiabilidad de sus datos contables; promover la eficiencia operacional y la adhesión a las políticas gerenciales establecidas. Por mucho tiempo, el alcance del control interno estuvo limitado a las áreas económicas; como si sólo abarcara las actividades de la contabilidad y las finanzas. Por lo tanto, las áreas operativas y los mismos trabajadores no se sentían involucrados (Plasencia, 2010). Es importante, que el personal de las áreas encargadas de administrar los recursos conozca la relevancia de mantener actualizados los registros en los sistemas con los que cuente la empresa ya que esta información ayuda a medir, evaluar y dar seguimiento a cualquier desviación que se presente respecto a las metas establecidas. Coadyuvando de esta manera a generar información pertinente y oportuna, que será la base para la toma de decisiones económicas acertadas. Al mismo tiempo, se ayuda a eficientar al máximo los sistemas administrativos. Por lo tanto, es importante también que el personal sea consciente de la responsabilidad que tiene al administrar estos sistemas y del compromiso qué debe tener para lograr la máxima productividad. En este proyecto se consideran sistemas administrativos de control, los inventarios de mercancías que ayudan a controlar la existencia

en almacenes, inventarios de activos fijos que permiten detectar bienes obsoletos y con demasiada carga de mantenimiento, las cuentas de bancos que ayudan a conocer el saldo con el que se cuenta para emitir cheques, controlar el efectivo, conocer el total de ventas, cuentas por cobrar para evitar acumulación de cuentas incobrables, cuentas por pagar para disminuir gastos de intereses, etc. Chacon (2007), considera los sistemas administrativos de control como los procesos formales, que ayudan a la administración a garantizar que los recursos sean adquiridos y utilizados de una manera eficiente y eficaz, para que la organización logre sus objetivos estrátegicos. Debido al papel que desempeñan los sistemas administrativos, es muy importante que la empresa cuente con un equipo de empleados capacitados, calificados, comprometidos e involucrados con las metas de la organización; que se sientan identificados y motivados. Conociendo la importancia de la información que se puede obtener mediante sistemas administrativos de control, Dessler (2009), menciona que según datos estadísticos, el crecimiento de las empresas se ha visto entorpecido o detenido porque son incapaces de mantener una fuerza laboral eficiente y entusiasta, deduciendo de esto, la importancia del capital humano en la eficiencia de los sistemas administrativos de control. Las empresas del sector ferretero de Nuevo Casas Grandes, Chihuahua; tienen un problema en común, cuentan algunas de ellas con software de sistemas administrativos, que les brindan el soporte para controlar los rubros más importantes en el capital de trabajo como: bancos, efectivo, cuentas por cobrar (clientes), cuentas por pagar (proveedores) e inventarios, pero no se utilizan de una manera eficiente. Generando así un inventario desactualizado, con inventarios físicos que no cuadran con las existencias en el sistema, productos en exceso, pérdida de tiempo en la búsqueda en almacén de productos, que el sistema marca su existencia y que físicamente no están; pérdidas monetarias en productos desaparecidos, cuentas por cobrar vencidas, porque no tienen políticas de crédito establecidas. En ocasiones, autorizando créditos a clientes morosos, causando de esta manera la acumulación de cuentas incobrables que disminuyen la utilidad de la empresa. Por ello, el objetivo de este estudio es identificar el impacto que tiene el capital humano en la eficiencia de los sistemas administrativos de control en las empresas del sector ferretero en Nuevo Casas Grandes, Chihuahua; en las dimensiones de administración, clima organizacional, motivación e información oportuna y suficiente relacionada con la productividad de la empresa.

Marco Teórico

Los sistemas administrativos de control ayudan en la supervisión del avance en el logro de los objetivos, para que éstos sean eficientes, es necesario crear las condiciones que motiven a los empleados a trabajar en beneficio de la empresa. Para ello, es importante conocer las causas que pueden estimular o en caso contrario desanimar la acción del capital humano.

Revista Científica

77


Los sistemas administrativos se implementan con la finalidad de mantener controlados los recursos, que representan una inversión para la empresa y al mismo tiempo, para obtener información que permita tomar decisiones o estrategias que impacten en la productividad. El concepto eficiencia, se utiliza con frecuencia como sinónimo de productividad; se puede resumir como la utilización óptima de los recursos. Un trabajador eficiente debe utilizar los materiales con el mínimo de desperdicio; emplear el mínimo de tiempo posible en la producción, sin deteriorar la calidad del producto; utilizar los servicios de electricidad, agua, gas, etc., en las cantidades necesarias, sin desperdicio, y utilizar los medios tecnológicos: máquinas, equipos, herramientas, etc., de manera tal que no se deterioren más de lo normal (Rincón, 2001). Es importante adoptar indicadores que permitan medir el desempeño organizacional, para identificar la eficiencia de los sistemas administrativos para ello, Mejía (s/f), define eficiencia como el logro de un objetivo al menor costo unitario posible. En este caso, se busca el uso óptimo de los recursos disponibles para los objetivos deseados. “El mundo en que vamos es una sociedad institucionalizada y compuesta de organizaciones”, Chiavenato (2014), refiere que todas las actividades relacionadas con la producción las planean, coordinan, dirigen y controlan las empresas; estas se conforman por personas y recursos materiales, financieros etc., define a la administración como la dirección racional de las actividades de una organización con o sin fin de lucro. Esto implica planeación, organización, dirección y control de las actividades realizadas. Las organizaciones cuentan con elementos básicos y elementos de trabajo: los elementos básicos son las personas, cuyas interacciones conforman la organización. El éxito o fracaso de ésta lo determina la calidad de las interacciones de sus miembros. La interacción es la relación entre dos personas o sistemas de cualquier clase, por lo cual la actividad de uno está determinada por la del otro. Los elementos de trabajo son los recursos que utiliza: humanos, no humanos y conceptuales (Chiavenato, 1999).

Las áreas que se ven afectadas cuando no existe un control interno adecuado en la compañía son: la imagen corporativa, el ambiente laboral y la confianza de los usuarios en la información financiera. En ocasiones, esto puede llevar a quebrantos sustantivos como: incremento en los costos de operación y desorden en la administración (Martín y Mancilla, 2010). Las debilidades más comunes en las organizaciones son: que no existe en la mayoría de las organizaciones, planes ni manuales, que permitan conocer las funciones de los empleados, así como tampoco conocen los objetivos organizacionales, no están claras las líneas de autoridad ni comunicación; escasa segregación de funciones. Independientemente del tamaño de la organización, la responsabilidad de tareas que pueden inducir a irregularidades o fraudes, recaen en una sola persona; no existe un adecuado control sobre los activos, no está clara la entidad o figura jurídica de la organización, no se percibe el sistema contable como un factor más, que interactúa en la organización, solo tiene fines tributarios por lo que no se toma en cuenta para la toma de decisiones, estos factores inciden en la eficiencia y eficacia de la organización (Viloria, 2005). La administración de una organización consiste fundamentalmente en la capacidad de manejar sistemas complejos, en mayor o menor grado. En nuestros días, observamos cómo poco a poco, los sistemas y su estudio cobran importancia de acuerdo con el desarrollo de las organizaciones. Se puede afirmar que los procedimientos, formas y métodos para llevar a cabo las actividades son elementos componentes del sistema. Para la práctica administrativa adecuada y actualizada, serán los sistemas utilizados los que así lo determinen (Gómez, 1997). Existen varias ramas de la contabilidad que ayudan a generar sistemas administrativos de control de gestión, entre ellas se mencionan:

Para lograr los objetivos de la organización es necesario buscar estrategias empresariales, desde hace ya algunos años, muchas empresas utilizan técnicas de alto rendimiento de los recursos humanos, para conseguir que los trabajadores estén más motivados, trabajen involucrándose en la empresa sintiéndose parte de ésta (Miralles, 2013).

La contabilidad financiera, que se conforma por una serie de elementos tales como: las normas de registro, criterios de contabilización, formas de presentación, etc., con el fin de proporcionar información útil y segura a usuarios externos para la toma de decisiones (Guajardo y Andrade, 2008).

La administración de recursos humanos, materiales y financieros es tan importante como las herramientas implementadas para generar información. Por esta razón es trascendental, que se adopten métodos que permitan conjugar satisfacción laboral y la eficiencia en los sistemas administrativos.

La Contabilidad administrativa, que se define como un sistema de información al servicio de las necesidades de la administración, con orientación pragmática destinada a facilitar las funciones de planeación, control y toma de decisiones. Esta rama con sus diferentes tecnologías permite que la empresa logre una ventaja competitiva, de tal forma que alcance un liderazgo en costos y una clara diferenciación que la distinga de otras empresas (Ramírez, 2008).

Para lograr conjugar estos métodos, es importante, conocer la estructura de control interno de una entidad, que consiste en las políticas y procedimientos establecidos con el fin de proporcionar una seguridad razonable y de lograr los objetivos específicos de la entidad (Instituto Mexicano de Contadores Públicos, A.C., 2001). El control interno es un conjunto de normas, controles, consideraciones y aspectos a tener en cuenta por el propio ente que los ha de

78

adoptar, cuyo objetivo es: evitar la comisión de errores y fraudes, ganar seguridad y confiabilidad en la operación de la organización sin que ello signifique pérdida de eficiencia operativa. De esta forma se contribuye a un más adecuado cuidado y control del patrimonio del ente (Pungitore, 2006).

Revista Científica

La contabilidad de costos, Chacón (2007), describe a la contabilidad de costos también llamada contabilidad de gestión, como la rama de la contabilidad que se ocupa del estudio de las transacciones, que tienen lugar en el interior de las organizaciones, las relacionadas con el núcleo de operaciones donde se llevan a cabo las actividades de conversión de insumos en los bienes y/o servicios aptos al fin perseguido.


Para que los sistemas de control sean efectivos, deben establecerse centros de responsabilidad con recursos materiales, financieros y humanos. Estos centros de responsabilidad ayudan a controlar los costos, las utilidades y las inversiones. Los sistemas administrativos que las empresas necesitan implementar para controlar sus recursos son: compras, cuentas por pagar, pagos con cheques, ventas, cuentas por cobrar, cobranza; conciliaciones bancarias, de clientes, de proveedores, de activos, de mercancías; inventarios, activos fijos, nóminas, etc. (Pungitore, 2006). Los sistemas administrativos de control, se utilizan como diagnóstico e interactivo según Gómez, López, Ripoll y González (2013), mencionan que primero sirve a los directivos para seguir y vigilar las acciones de la organización y tratar de corregir las desviaciones sobre los estándares de rendimiento establecidos, de esta manera, se prioriza el control y la eficiencia de las organizaciones. Por otra parte, el uso interactivo de los sistemas de operación, sirve a los directivos para involucrar personalmente a los subordinados en los objetivos de la organización. Estos sistemas, deben generar información que refleje la situación diaria que vive la empresa y le permita ser evaluada y medida contra indicadores; así como generar a tiempo decisiones preventivas, correctivas y adecuadas (Venegas, 2000). Es necesario asignar objetivos como puntos de referencia, para guiar la acción de los diferentes niveles o segmentos de la administración empresarial, Laris (1988), así como desarrollar los sistemas de control que estructuran las actividades y funciones donde se hace la aplicación de recursos humanos, financieros y materiales. Por otro lado, así como ha evolucionado la sociedad, las organizaciones también se han transformado y desde las condiciones laborales más inhumanas, se ha progresado hasta lograr formas más aceptables de trabajo, que buscan equilibrar la calidad de vida con la tan deseada productividad (Díaz, 2012). De esta manera han evolucionado también las teorías que permiten entender las definiciones de los conceptos de capital humano y motivación, entre otros. La teoría del Capital humano de, Theodore W. Schultz, abordada por Destinobles (s/f) quien señala que en 1960 fue acuñado por primera vez el término como sinónimo de educación y formación. En palabras de Schultz, “Al invertir en sí mismos, los seres humanos aumentan el campo de sus posibilidades. Es un camino por el cual los hombres pueden aumentar su bienestar”. Afirma que cualquier trabajador al ingresar al sistema productivo aporta su trabajo, sus habilidades y todos los conocimientos adquiridos a través de la educación y la experiencia.

Revista Científica

79


Para que el trabajador aporte a la productividad es necesario comprender la teoría de motivación de Maslow (1991) donde afirma que el individuo es un todo integrado y organizado de tal manera que la satisfacción se da en todo el individuo. Refiere en su teoría que las necesidades básicas están organizadas dentro de una jerarquía de relativa prepotencia o predominio, a las necesidades fisiológicas una vez satisfechas les siguen otras superiores como seguridad, estabilidad, dependencia, protección, ausencia de miedo, ansiedad y caos, etc. A su vez, basado en la Teoría Bifactorial sobre la motivación de Herzberg y López (2005) profundiza sobre la hipótesis que afirma que únicamente el logro de los resultados intrínsecos motivadores del trabajo, puede iniciar una motivación sostenida hacia los objetivos de la organización. Define la motivación como una característica de la psicología humana, que contribuye al grado de compromiso de la persona. La motivación en el ámbito laboral es definida como un proceso que activa, orienta y mantiene el comportamiento hacia la realización de objetivos esperados. En este sentido, el modelo situacional de motivación desarrollada por Vroom, se refiere a la motivación para producir. Los factores que determinan en cada individuo la motivación para producir son: los objetivos individuales, la relación que el individuo percibe entre la productividad y el logro de sus objetivos particulares, la capacidad del individuo para influir en su nivel de productividad (Chiavenato, 1999). Estas teorías influyeron en las prácticas, que inicialmente estaban centradas en aspectos propios de la función de recursos humanos como: reclutamiento, selección y entrenamiento; sistemas formales para compartir información con los trabajadores, diseño claro del trabajo, participación a nivel local, evaluación del desempeño, esquemas de promoción y compensación para el alto desempeño, se ampliaron a aspectos relacionados con los procesos (trabajo flexible, círculos de calidad, enriquecimiento del trabajo, habilidades participativas) o de dirección de las personas, más allá del control de la función de recursos humanos como la comunicación, el diseño del trabajo, la cultura y el liderazgo (Wright, Dunfort y Snell, 2001). En esta investigación se consideran como factores para lograr la satisfacción laboral, primero: tener cubiertas las necesidades físicas y de seguridad; después las que cumplan con el logro de los objetivos personales, alineados con los objetivos de la organización. Considerando de suma importancia, la función de recursos humanos en implementar estrategias para lograr la motivación del personal y que ésta se vea reflejada en la participación y el compromiso que requiere operar sistemas administrativos, ofreciendo obviamente la capacitación y desarrollo de programas para la formación del personal.

Metodología El estudio tiene un enfoque cuantitativo ya que se medirán las variables: eficiencia de los sistemas de control de gestión administrativa y capital humano, mediante un análisis estadístico, para determinar el impacto positivo o negativo. Para lograr esta medición se formularon las siguientes hipótesis:

80

Revista Científica

H1: Existe una correlación positiva entre la eficiencia de los sistemas administrativos de control y el capital humano. Ho: No existe una correlación positiva entre la eficiencia de los sistemas administrativos de control y el capital humano. El alcance del estudio es Descriptivo y correlacional se describen las características del capital humano y la eficiencia de los sistemas administrativos de control y se determinará la relación e impacto considerando los factores que motivan al personal a trabajar en conjunto para lograr los objetivos fijados por la gerencia. El diseño es transversal correlacional ya que se recolectarán datos en un solo momento en el tiempo aplicando una encuesta. La base de datos utilizada como marco muestral, es el Directorio Estadístico de Unidades Económicas (DENUE) del INEGI, donde se buscaron las empresas del sector ferretero clasificadas como comercio al por menor en ferreteras y tlapaleras con un número de 6 empleados en adelante, obteniendo una población total de 47 empresas. A esta totalidad se hizo una depuración de entidades dedicadas a compra venta de material eléctrico, pinturas y negocios con cero empleados, quedando un total de 19 como la población total. La unidad de análisis son los empleados de las empresas del sector ferretero de Nuevo Casas Grandes, Chihuahua. Se determinó la muestra por medio de la fórmula conociendo el tamaño de la población o finita y se obtuvo n=9.60. La técnica utilizada para recolectar información es una encuesta con escala de Likert, con un total de 22 preguntas. Con las primeras 17 se mide la variable capital humano y con las siguientes 5 se mide la variable eficiencia de los sistemas administrativos de control. Para diseñar la encuesta se desarrolló la definición de operacionalización correspondiente a cada una de las variables y la asignación de los indicadores:

• Primera variable: Capital humano, se utilizó la dimensión grado de satisfacción laboral de los empleados. Utilizando los indicadores: Selección, evaluación, contratación, capacitación, remuneración salarial, motivación, clima organizacional, retroalimentación, flexibilidad de horarios, ética, promociones, comunicación, desarrollo personal y profesional. • Segunda variable: Sistemas administrativos de control, definición de operacionalización: Herramientas para administrar y coordinar las actividades de cada una de las áreas, generando información que ayuda a tomar decisiones para alcanzar los objetivos de la organización. Indicadores: Información, toma de decisiones, medición de desempeño organizacional, eficiencia, productividad.

Se aplicó una prueba piloto de la encuesta a 26 empleados de las empresas del sector ferretero de Nuevo Casas Grandes, para determinar la confiabilidad con el Coeficiente Alfa de Cronbach. Obteniendo como resultado que los cuestionarios evaluados son confiables, con un coeficiente de 0.854.


Tabla 1. Coeficiente Alfa de Cronbach.

Tabla 3. Diagrama de dispersión.

Fuente: Elaboración propia.

Análisis de interpretación de resultados Se aplicó el método de regresión lineal simple y coeficiente de correlación para determinar la correlación entre las variables: grado de satisfacción laboral de los empleados y la eficiencia de los sistemas administrativos de control obteniendo un coeficiente de: 0.7662. Entre más próximo esté el resultado a 1 significa que las variables X y Y, están intensamente relacionadas, al aumentar una, aumenta la otra y viceversa. Por lo tanto, el resultado de 0.7662 en el coeficiente de correlación indica que hay una asociación lineal positiva que, si hay una satisfacción laboral habrá eficiencia de los sistemas administrativos de control.

Tabla 2. Regresión lineal simple y coeficiente de correlación.

Fuente: Elaboración propia Excel.

Los datos muestran un patrón ascendente de izquierda a derecha, esto indica una relación positiva (pendiente positiva) entre las variables: X Sistemas administrativos de control con Y satisfacción laboral.

Conclusiones Al analizar la información recolectada en las encuestas, se evidencia que las empresas que cuentan con una estructura organizacional y administrativa bien implementada, donde se tiene un departamento de gestión de capital humano con un proceso bien definido de selección de personal, contratación, capacitación, planes de desarrollo para el personal, promociones basadas en logros de objetivos, metas establecidas, mediciones y evaluaciones de desempeño continuas; los sistemas de administración de control son eficientes. Generan información actualizada, útil para tomar decisiones y se mantiene un control adecuado en los recursos de la entidad. Caso contrario, cuando el personal no se siente motivado de acuerdo con las remuneraciones según su desempeño, no se le capacita, no está involucrado con los objetivos de la empresa; los sistemas administrativos de control no son eficientes no son confiables para la toma de decisiones. Con base en los métodos estadísticos empleados para comprobar la hipótesis

Fuente: Elaboración propia Excel.

H1: Existe una correlación positiva entre la eficiencia de los sistemas administrativos de control y el capital humano.

En el diagrama de dispersión podemos determinar la relación entre las variables utilizando el coeficiente R cuadrado (coeficiente de correlación de Pearson) para probar la hipótesis:

Ho: No existe una correlación positiva entre la eficiencia de los sistemas administrativos de control y el capital humano.

H1: Existe una correlación positiva entre la eficiencia de los sistemas de gestión administrativa y el capital humano. Obteniendo una relación del 0.58 evidenciando que, en las empresas, entre más alto es el grado de satisfacción de los empleados mayor es la eficiencia en los sistemas de control de gestión administrativa. Aportando elementos para apoyar la hipótesis planteada con una relación positiva entre estas dos variables.

Se apoya la hipótesis H1: Existe una correlación positiva entre la eficiencia de los sistemas administrativos de control y el capital humano. Ya que el análisis de regresión lineal simple y coeficiente de correlación dan un resultado del coeficiente de 0.766 y el diagrama de dispersión muestra que existe asociación lineal positiva ya que varían en el mismo sentido. Se concluye que existe una relación positiva entre los sistemas administrativos de control y el capital humano, cuando el personal se encuentra motivado, satisfecho laboralmente, los sistemas administrativos son útiles y confiables para tomar decisiones. No obstante, se recomiendan más estudios para fortalecer estas conclusiones.

Revista Científica

81


82

Revista CientĂ­fica


Bibliografía + Agüero, J. (2007). Teoría de la Administración: Un campo fragmentado y multifacético. Visión de futuro(7). Recuperado el 16 de noviembre de 2018, de http://www.redalyc.org/pdf/3579/357935466001.pdf + Chacón, G. (2007). La contabilidad de costos, los sistemas de control de gestión y la Rentablidad Empresarial. Redalyc.org. Recuperado el 13 de noviembre de 2018, de http://www.redalyc.org/html/257/25701504/ + Chiavenato, I. (1999). México: Mc Graw Hill. + Chiavenato, I. (2014). Mc. Graw Hill. Obtenido de https://s3.amazonaws.com/academia.edu.documents/36557602/ Introduccion_a_la_Teoria_General_de_la_Administracion. pdf?AWSAccessKeyId=AKIAIWOWYYGZ2Y53UL3A&Expires=1542318248&Signature=wgRES7cvHoBv62A9OTp1xzlqYDU%3D&response-content-disposition=inline%3B%20fil

+ López, J. (2005). Motivación laboral y gestión de recursos humanos en la teoría de Frederick Herzberg. Gestión en el tercer Milenio. Recuperado el 13 de noviembre de 2018, de http://revistasinvestigacion.unmsm.edu. pe/index.php/administrativas/article/view/9692/8498 + Martín, M. E. y Mancilla, M. E. (2010). Control en la adminisración para una información financiera confiable. Contabilidad y Negocios, 72. + Maslow, A. (1991). Motivación y personalidad. Madrid: Diaz de Santos, S.a. + Mejía, C. (s/f). Indicadores de Efectividad y Eficacia. Planning. Medellín. + Miralles, M. (mayo de 2013). Factores que influyen en el éxito empresarial: recursos humanos, estrategia, dieseño organizativo y entorno. Bellaterra.

+ Dessler, G. (2009). Administración de Recursos Humanos. (Decimoprimera ed.). México: Pearson Educación.

+ Plasencia, C. (2010). El Sistema de Control Interno: garantía del logro de los objetivos. SciELO. Obtenido de http://scielo.sld.cu/pdf/san/ v14n5/san01510.pdf

+ Destinobles, A. (s/f). El capital humano en las teorías del crecimiento económico. Juan Carlos Martínez Coll,2000.

+ Pungitore, J. L. (2006). Sistemas Administrativos y de Control Interno. Buenos Aires: Osmar D. Buyatti.

+ Díaz, G. S. (2012). Lo humano en la teoría de las organizaciones. Visión gerencial, 45-57.

+ Ramírez, D. (2008). Contabilidad Administrativa. México, D.F: McGraw-Hill.

+ Gómez, G. (1997). Sistemas Administrativos Análisis y Diseño. México: McGraw-Hill.

+ Rincón, D. H. (2001). Calidad, Productividad y Costos: Análisis de Relaciones entre estos Tres Conceptos. Actualidad Contable.

+ Gómez, J.; López, E.; Ripoll, V. M. y González, M. (2013). El efecto mediador y moderador de la internacionalización en la relación entre los sistemas de control de gestión y el compromiso con la innovación. Revista de Contabilidad.

+ Segredo Pérez, A. (2016). Aproximación teórica a la evolución, teorías enfoques y características que han sustentado el desarrollo de las organizaciones. Revista cubana de Salud Pública. Recuperado el noviembre de 2018, de http://eds.a.ebscohost.com/eds/pdfviewer/pdfviewer?vid=1&sid=9c53f36e-bb84-4a64-b458-8f93968371b5%40sessionmgr4009

+ Guajardo, G. y Andrade, N. (2008). Contabilidad Financiera. México: McGrawHill. + Hernández Sampieri, R.; Fernandez Collado, C. y Baptista Lucio, P. (2010). Metodología de la investigación. México. D.f.: Mac Graw Hill. + Inegi. www.ci.inegi.org.mx. Obtenido de http://www.ci.inegi.org.mx/ docs/Informe%20COSO%20Resumen.pdf + Instituto Mexicano de Contadores Públicos, A.C. (2001). Boletín 3050. En Normas y procedimientos de auditoría . México, D.F. + Laris, F. J. (1988). Estrategias para la planeación y el control empresarial. México, D.F.: Publimex, S.A.

+ Venegas, J. L. (2000). Diagnóstico financiero integral. México: Ediciones Contables, Administrativas y Fiscales, S.A. + Viloria, N. (2005). Factores que inciden en el sistema de control interno de una organización. Actualidad contable FACES, (87-92). + Wright, P. y McMahan, G. (1992). Theoretical perspectives for strategic human resource management. Journal of Management, 295-320. + Wright, P.; Dunfort, B. y Snell, S. (2001). Journal of Management, 701-721.

Revista Científica

83


Rosa Elizabeth Díaz De la Cruz1, Alonso Reyes Bárbara Muñoz2, Ivett Reyes Guillén3 y Leticia del Carmen Flores Alfaro4

Universidad Autónoma de Chiapas Miembros de la Red de Investigación en Salud Pública y Atención a problemas del Desarrollo Calle Presidente Obregón s/n, Col. Revolución Mexicana C.P. 292010, San Cristóbal de las Casas, Chiapas 1,2,3,4

ivettrg017@gmail.com

Resumen: Los procesos de aprendizaje son complejos por múltiples causas, fundamentándose en dos órdenes: cognitivo y emocional. A pesar de esto, el modelo educativo tiende a ignorar o minimizar los aspectos emocionales en cualquier nivel escolar. Sin embargo, como resultado de la revolución educativa generada a partir del surgimiento del constructivismo, el impacto de la teoría de las inteligencias múltiples y la inteligencia emocional se ha abierto un nuevo debate en pedagogía que incluye el papel de las emociones como uno de los aspectos fundamentales a ser considerados en la formación integral del educando. El presente documento expone los resultados de un estudio sobre cognición y emociones realizado en la escuela primaria rural indígena Emiliano Zapata Salazar, ubicada en el ejido Adolfo López mateos, Huixtán, Chiapas, México. Uno de los principales hallazgos es que los alumnos ven a la escuela principalmente como una zona de desarrollo social más que académico.

+ Recibido: Abril 15, 2020. Recibido en forma revisada: Mayo 18, 2020. Aceptado: Junio 14, 2020.

84

Revista Científica

Palabras clave: Cognición, emociones, primaria rural.


Introducción Los modelos educativos han cambiado en diversas ocasiones en las últimas décadas, concentrándose en buscar la mejor forma de logar conocimientos duraderos y aplicables para las distintas etapas de la vida. Si bien, el modelo más utilizado recientemente en América Latina es el modelo basado en competencias, éste como muchos otros modelos modernos se enfocan en solo uno de los órdenes de aprendizaje, el cognitivo. Dentro de un proceso de enseñanza-aprendizaje existen dos órdenes dinámicos: el cognitivo y el emocional; aspectos que se influyen mutuamente, resultado en conocimientos y prácticas que se generalizan y repiten en la persona, formando el estilo de aprendizaje y del actuar (Retana, 2012). Como se menciona anteriormente, los modelos educativos minimizan e incluso ignoran el aspecto emocional dentro de la enseñanza, buscando así únicamente los métodos y medios que permitan un mejor alcance cognitivo. El resultado de lo anterior se hace evidente en la persistente deficiencia de la mayoría de los modelos educativos, ya que no cumplen con el objetivo global de la educación formal, que desde 2001 dejó de ser la formación de capital humano, centrándose en formación humana para el encause pacífico y de desarrollo de las sociedades (Loavore, 2018).

faciales estereotipadas y también repetidas entre la mayoría de los individuos humanos. Las emociones básicas son 6: alegría, enojo, tristeza, miedo, disgusto (asco para América Latina) y asombro. Posteriormente, en 1989 Damásio, encuentra que cada una de estas emociones cuenta con un mecanismo cerebral definido y que condiciona a los procesos de alto nivel que se realizan ante el estímulo. Esto permite vislumbrar que la emoción conlleva la valoración del estímulo, y al ser la base de procesos cognitivos superiores, tiene una influencia marcada en la valoración total del hecho, como se siente emotivamente el hecho será el conocimiento que se genere de éste. Toda esta información teórica sustenta la importancia de las emociones en el aspecto educativo, además de apoyar la noción principal del presente artículo: las emociones que se generen en el alumno ante el concepto de “escuela”, en el sentido general del término, como ante los conocimientos específicos en enseñanza, alteraran sus procesos cognitivos dentro del aprendizaje. Dicho de otro modo, al conocer que las emociones dan lugar a los sentimientos, y este conjunto afecta la cognición, el brebaje psicoemocional que el alumno presente ante el concepto “escuela” afectará su desenvolvimiento en los conocimientos específicos enseñados en el aula. Ya que la valoración del ambiente y de la información se hará a partir de las emociones generadas y asociadas al concepto global de escuela o educación.

En este documento, cabe definir el concepto de emociones, tomando para ello la escrita por Lawler en 1999, para este autor, son estados evaluativos, positivos o negativos, relativamente breves, que tienen elementos fisiológicos, neurológicos y cognitivos. Esto nos abre la pauta para diferenciar la emoción del sentimiento, siendo elementos psicológicos completamente diferentes. Por una parte, las emociones son la primera reacción del sistema nervioso ante los estímulos externos. Mucho antes de haber una acción consciente ante un estímulo (actividad cortical), existe una emoción producida por las estructuras subcorticales. De modo que toda información es inicialmente tratada en zonas emocionales del cerebro para luego ser enviadas a las zonas racionales. Esto es una respuesta evolutivamente adaptativa que promueve la salud física y mental de los individuos. La respuesta emocional, al ser inmediata, condiciona a los procesos siguientes que se realizarán con la información, como su grado de impacto, la estrategia seleccionada para hacerle frente o, incluso, las relaciones que se establezcan con estímulos previamente captados (Brody, 1999).

La relación emoción-cognición ante la escuela como concepto es de afectación bidireccional. La emoción que se presente ante los primeros acercamientos al ambiente escolar condiciona la cognición que de este se haga, como se mencionaba anteriormente, pero también las diferentes modificaciones cognitivas e información recibida dentro del aula afectaran los procesos emocionales y sentimentales del alumno. De modo que las emociones pueden ser tratadas, no únicamente como una causa de los juicios que el alumno realiza hacia su ambiente y desempeño escolar, si no como una herramienta que debe ser incluida en los modelos educativos y utilizada para mejorar el aprendizaje y el desarrollo en general del alumno.

Ante esto puede surgir la interrogante sobre la diferencia entre un impulso y una emoción, la cual recae en que un impulso es producto de un estado mental que busca hacerse evidente, es decir es un proceso eferente, mientras que la emoción es el procesamiento inicial, automático y rápido de los estímulos externos, siendo aferente. Así la emoción es activada por un acontecimiento, siendo que necesita de un evento o información externa para crearse y por ende inicia la cognición del estímulo. Diferenciándose de los sentimientos que pueden ser estados continuos debido a los pensamientos complejos conscientes e inconscientes, y que pueden estar separados de los objetos del medio y no moverse en relación con ellos (Rodríguez, 2010).

Primera fase: Identificación de los aspectos psicoemocionales presentes en la cognición de “la escuela” en 20 alumnos del quito grado de la escuela rural indígena Adolfo López Mateos en Huixtán, Chiapas, mediante la utilización de la técnica de proyección mediante dibujo con el tema específico y explícito a los alumnos de “dibújate en la escuela” con aplicación al total de alumnos del grupo (n=20). La edad promedio de los niños es de 11.05 años, siendo 11 del sexo masculino y 9 del sexo femenino.

Con este orden de ideas, Ekman y Oster en 1981 establecieron una serie de emociones básicas, llamándolas así por su presencia común en la población humana y en otras especies, tal como retoma de los trabajos de Darwin. Además, expone que estas emociones presentan expresiones

Métodos El presente estudio se realizó con un corte cualitativo dividido en tres fases, dentro del período de agosto a diciembre del 2019:

Segunda fase: Esta fase inició dos semanas posteriores a haber concluido la primera. Identificación de emociones resultantes de tareas o conocimientos específicos presentes en alumnos de la escuela en 20 alumnos del quito grado de la escuela Adolfo López Mateos en Huixtán, Chiapas, a través de un cuestionario de emociones, creado para el presente estudio y validado por prueba piloto, con relación a eventos puntuales de enseñanza-aprendizaje. Se aplicó al total de alumnos del

Revista Científica

85


grupo (n=20).

Tercera fase: Análisis de resultados. Para la primera fase se uti-

lizó un método de análisis cualitativo basado en los principios de la interpretación del dibujo de la figura humana y de la interpretación de la prueba casa-árbol-familia (Buck, 2008), adaptado para la consigna de “la escuela”. Para la segunda fase se utilizó una descripción de las variables que se presentaban en la prueba.

La manifestación de las emociones dentro de la educación es un elemento que debe tomarse en cuenta considerando que el aprendizaje debe garantizar un mejoramiento en las formas de relación de la persona con su entorno, realidad comprendida por el modelo educativo basado en competencias.

A manera de comentarios técnicos: Se entiende por emociones a las llamadas básicas y en específico, para este caso, emergidas de su percepción en la escuela. La técnica de proyección mediante dibujo consistió en, pedir a los niños que dibujaran en una hoja blanca, a ellos mismos en la escuela. Para la interpretación de estos resultados se analizaron los elementos dibujados bajo los criterios interpretativos de las pruebas proyectivas: casa-árbol-persona de John Buck (2008), y la prueba de la figura humana de Karen Machover (1976), con una adaptación al contexto específico de la escuela. Ambas pruebas permiten la interpretación general de dibujos proyectivos en situaciones específicas tomando como elemento de análisis aspectos comunes en los dibujos y en la relación de éstos con la consigna dada sobre qué dibujar. Se utilizaron los principios de las pruebas proyectivas de Aiken (2003).

En el presente estudio, se expresan claras manifestaciones de la necesidad de los niños de ser atendidos en el plano emocional. Desafortunadamente también expresan en alto porcentaje (85%) la percepción de violencia doméstica, que los hace sentir enojados y avergonzados. Aunque en menor escala (15%) también se hace presente la expresión de actos de violencia en la escuela, mayormente por parte de sus compañeros. Contrariamente con lo sucedido en el siglo XIX, la figura del maestro está perdiendo el interés de los niños, un bajo porcentaje encuentra inspiración en la imagen del maestro(a).

Resultados De la interpretación de la prueba proyectiva “dibújate en la escuela” se encuentran influencias emocionales en la cognición de la escuela. El elemento mayormente encontrado dentro de las pruebas fue que los alumnos, sin distinción de género, ven a la escuela principalmente como una zona de desarrollo social más que académico. Los alumnos con mayor estabilidad emocional reflejada en la prueba tienen mayor interés explicito por la función académica de ésta. En cuanto al cuestionario de emociones en relación con eventos puntuales de enseñanza-aprendizaje se encuentra que el 95% de los alumnos presentan sentimientos de tristeza, llanto y pocas ganas de reintentar una tarea no lograda. El 90% de los alumnos ha recibido comentarios emocionalmente hirientes con relación a aspectos físicos por parte de sus compañeros y el 10% en relación con sus capacidades en la escuela. El 80% de los alumnos se ha sentido en mayor conflicto emocional, sienten tristeza, por no incluirse en juegos con otros compañeros que por no acompañarse en actividades escolares (el 20% restante es a la inversa). El 95% de la muestra se considera bueno jugando y el 5% se considera bueno en tareas domésticas. El 55% de la muestra manifestó que la principal razón que los hace reír es que su padre juegue con ellos y el 45% por que su padre les hiciera cosquillas. Dentro de las razones por las cuales se han sentido avergonzados y/o enojados, el 85% menciona regaños y golpes por parte de los padres, el 10% burlas de compañeros y 5% a causa de un docente. Del total de la muestra el 45% refiere que su figura de mayor inspiración es el padre, el 35% el maestro o maestra y el 20% su madre.

86

Discusión

Revista Científica

Podemos afirmar que, los alumnos ven a la escuela como una zona de desarrollo social más que de desarrollo académico. Esto puede sostenerse al encontrar que la mayoría de los niños (85%), han sentido mayor conflicto emocional, tristeza, por no incluirse en juegos con otros compañeros que por no acompañarse en actividades escolares; tampoco muestran inquietud por reintentar tareas escolares no logradas. Desde análisis teórico, se insiste en la importancia de conocer los estados emocionales en contextos educativos. El presente estudio, aporta al conocimiento práctico de estas realidades; citando a Thompson y Aveleyra (2004), conocer los estados emocionales de estudiantes dentro de los procesos educativos, pueden ayudar al profesor a organizar el trabajo de enseñanza aprendizaje. Para este caso, ocuparse de la educación primaria en contextos indígenas, y en específico en la escuela donde se realizó el estudio, requiere de atención especial a considerar que la socialización es preponderante para los niños y niñas. Atender estas necesidades para la educación integral, posibilita guiar a los estudiantes en el proceso de enseñanza-aprendizaje. Solo de esta manera y coincidiendo con Thompson y Mazcasine (2000) se puede realmente contribuir a que los estudiantes cimenten su propio aprendizaje.

Conclusión Otro de los aportes principales del presente estudio, es el sensibilizar al docente de nivel primaria, de la importancia de trabajarse como educadores emocionalmente inteligentes, generando un clima favorable en el aula, tanto para los estudiantes como para el maestro. Este aporte, coincide con lo afirmado por Campos (2010), cuando afirma que contar con un clima saludable y un trabajo emocionalmente inteligente, son factores esenciales para el aprendizaje. Si bien, el presente documento expone los resultados de un estudio en nivel primaria, esta reflexión puede ser considerada para todos los niveles de enseñanza encontrando un problema dentro del proceso poco vislumbrado, la cognición de la escuela como un ambiente social más


que académico. Ahora bien, partiendo del saber psicológico de que la evaluación de un entorno condiciona las actitudes y capacidades de las personas dentro de éste, si la escuela es identificada como un ambiente social preponderantemente, el interés por la adquisición y utilización de conocimientos académicos es relegada a un segundo plano emocional y cognitivo por parte de los alumnos. Chiapas es el estado de la república mexicana con mayor porcentaje de alumnos indígenas y sus alcances educativos están por debajo de la media nacional (Rojas et al, s/a). Si bien, las autoridades federales consideran al a educación como obligatoria, bilingüe e intercultural, se requiere de mayores esfuerzos por los distintos actores sociales para lograr una educación digna y respetuosa de las identidades. Lo anterior, amerita mayores estudios sobre el problema mencionado, para con ello poder modificar las valoraciones emocionales y cognitivas del alumno ante su entorno. Los elementos puntuales encontrados en el estudio son útiles para intervenir y direccionarlos hacia una valoración equitativa de la escuela en sus dos aspectos de crecimiento personal, el social y el académico. Enseñar-aprender, se convierte entonces en un proceso que requiere de atención psicoemocional bilateral.

Bibliografía + Aiken, Lewis (2003). Test psicológicos y evaluación. Undécima Editorial Pearson, México. + Rodríguez, Benedicto (2010). “Martha Nussbaum: emociones, mente y cuerpo” biblioteca de la Universidad de Zaragoza. España + Brody, L. (1999). “Gender, Emotion and the Family”. Cambridge, MA: Harvard University Press. + Buck, J. (2008). Cása-Árbol-Persona: H-T-P, técnica proyectiva de dibujo: manual y guía de interpretación. 2ª ed. Madrid: TEA. + Campos, A. (2010). Neuroeducación: uniendo las neurociencias y la educación en la búsqueda del desarrollo humano. La Educación. Revista Digital, 143. Recuperado de www.educoea. org/...Educacion.../laeducacion.../neuroeducacion.pdf

nual Review of Sociology. United States + Loavore, E. (2018). “Es la educación la cura de los males del mercado laborar de México”. Revista en línea Factor Trabajo. Inter-American Development Bank. México. Recuperado de https://bit.ly/2w8KXOD en 2020. + Machover, K. (1976). Manual práctico de Valoración del Test de la Figura Humana. Material mimeografiado no publicado. España. + Rojas, G.A; García, R.E; Rocha, R.S; Archunda, M.A. y Lara, A.F. (s/a). Problemas sociales de la educación indígena. El perfil actual. PAC. México. http://ri.uaemex.mx/bitstream/ handle/20.500.11799/40489/Libro+Problemas+Sociales+de+la+Educaci%F3n+Ind%EDgena.pdf;jsessionid=25DA4998D6414470C7F4F338449EB047?sequence=1 + Retana, J.A. (2012). “La educación emocional, su importancia en el proceso de aprendizaje” Revista Educación. Vol.36, No.1. Costa Rica.

+ Damasio, A.R. (1989). “Sentir lo que sucede: cuerpo y emoción en la fábrica de la conciencia” Edición para México. Editorial Andrés Bello. México.

+ Thompson, S. y Aveleyra, E. (2004). Estilos de aprendizaje en matemáticas. Recuperado de http://www.fceco. uner.edu. ar/cpn/catedras/matem1/ educmat/em22ta.doc.

+ Ekman, P. y Oster, H (1981). “Expresiones faciales de la emoción” Psicology Studies Vol.9,No.7 de 1981 recuperado a través de Dialnet en https://dialnet.unirioja.es/servlet/articulo?codigo=65835

+ Thompson, B. y Mazcasine, J. (2000). Attending to Learning Styles in Mathematics and Science Classrooms. ERIC Digest. Recuperado de http:// www.ericdigests.org/2000-1/ attending.html

+ Lawer, E.J. (1999). “Bringing emotions into theory”. An-

Revista Científica

87


David Ley Domínguez 1, César Leobardo Ordóñez Romero 2, Giuseppe Pirruccio 3, Francisco Miguel Ascencio Aguirre 4 y Ana Karla Bobadilla Valencia 5

1, 2, 3

Instituto de física, Universidad Nacional Autónoma de México, CU, 04510 D.F., México.

Instituto de Investigaciones en Materiales, Universidad Nacional Autónoma de México, CU, 04510 D.F., México 4, 5

Resumen: En este trabajo se presenta el desarrollo de instrumentación científica para la fabricación de películas delgadas ferromagnéticas, por la técnica de pulverización catódica (sputtering), para el uso de blancos de 2 pulgadas de diámetro. Se depositaron películas delgadas utilizando como material ferromagnético la aleación de Permalloy (NiFe20) a temperatura ambiente, sobre sustratos de Si (001). Los espeso80 res de las películas se midieron con perfilometria y se calculó una tasa de depósito para esta aleación de 16.2 nm/min. Microscopia electrónica de barrido mostró una formación de película continua y una composición química similar a la del blanco.

dleyd@fisica.unam.mx

+

Palabras clave: Magnetrón de pulverización catódica, películas delgadas, tasa de depósito.

Recibido: Abril 15, 2020. Recibido en forma revisada: Mayo 18, 2020. Aceptado: Junio 10, 2020.

88

Revista Científica

Abstract: This paper presents the development of scientific instrumentation for the fabrication of ferromagnetic thin films, by sputtering technique, for the use of 2-inch-diameter targets. Thin films were deposited using Permalloy alloy (Ni80Fe20) as ferromagnetic material at room temperature on Si (001) substrates. The film thicknesses were measured with profilometry and a deposition rate for this alloy of 16.2 nm/min was calculated. Scanning electron microscopy showed a conti-


nuous film formation and a chemical composition similar to the target.

+

Keywords: Magnetron sputtering, thin films, deposition rate.

Introducción La pulverización catódica (sputtering) es una técnica para fabricar películas delgadas mediante la deposición física de vapor, fue descubierta y reportada hace más de 100 años por Grove (1852) y de forma independiente por Plücker (1858). Ya para 1877 la pulverización catódica estaba siendo utilizada para la fabricación de espejos. Por 1930 esta técnica fue utilizada para recubrimientos en patrones de fonógrafos (Behrisch, 1991). En la pulverización catódica la superficie de un sólido es bombardeada con iones energéticos y los átomos de esta superficie son dispersados debido a colisiones entre los átomos de la superficie y las partículas energéticas. Estos átomos removidos son depositados en un sustrato formando una película delgada. En 1935 Penning, fue el primero en estudiar la técnica de pulverización catódica colocando un campo magnético en el área del plasma, formando un magnetrón. En un sistema de pulverización catódica de magnetrón, un campo magnético es superpuesto sobre el cátodo de forma paralela a la superficie del cátodo. Los electrones en la descarga luminiscente muestran un movimiento en forma de cicloide donde el centro de sus orbitas se desplaza en una dirección E x B, donde E y B son el campo eléctrico en la descarga y el campo magnético transversal superpuesto, respectivamente. El campo magnético está orientado de tal manera que los electrones desviados formen un circuito cerrado. Este efecto de atrapamiento de electrones aumenta la tasa de colisión entre los electrones y las moléculas del gas de pulverización catódica, con esto se consiguió bajar la presión de gas de depósito en un factor de 10 e incrementar la tasa de depósito de las películas (Wasa, 2004; Wasa, 2012). Sin embargo no fue hasta la década de 1950s que un mejor entendimiento de esta técnica y la demanda de películas delgadas de gran calidad de diferentes materiales, principalmente estimulada por avances tecnológicos de microelectrónica y semiconductores impulsaron nuevos desarrollos de esta técnica (Maissel, 1970). A principio de 1960s la técnica de pulverización catódica de magnetrón fue reconsiderada como un proceso atractivo para el depósito de películas delgadas. En 1967 Wasa, invento un prototipo de magnetrón plano, y en 1974 Capin, diseño un sistema practico de magnetrón con una bobina solenoide, similar a los utilizados hoy en día (Wasa, 2004). En el presente, la pulverización catódica permite un buen control de composición, dimensiones y una gran flexibilidad en los tipos de materiales que pueden depositarse. Esta técnica se utiliza para muchas aplicaciones y se ha convertido en un proceso indispensable en la nanotecnología moderna y la física. Las películas delgadas obtenidas por pulverización catódica son utilizadas para la fabricación de nanoestructuras, nanodispositivos, Sistemas-Mi-

cro-Electro-Mecánicos (MEMS) (Bhushan, 2017) así como para la fabricación de muestras de numerosos materiales para la investigación de diversas propiedades. En la industria, las películas delgadas obtenidas por pulverización catódica son utilizadas en dispositivos electrónicos, recubrimientos ópticos, revestimientos duros para instrumentos, dispositivos magnéticos de almacenamiento de datos y accesorios decorativos (Behrisch, 2007). En este artículo se presenta la fabricación de un magnetrón de pulverización catódica para blancos ferromagnéticos de 2 pulgadas, así como la caracterización de la tasa de depósito para películas de permalloy sobre sustratos de Si (001), morfología y análisis elemental semicuantitativo con microscopia electrónica de barrido.

Diseño y experimentación El diseño del magnetrón se dividió en tres partes; núcleo, carcasa y tapa. La Figura 1 muestra el esquema del magnetrón en donde se observan los diferentes componentes y materiales que lo conforman. El núcleo del magnetrón, mostrado en la Figura 2, es unas de las partes más importantes, como se comentó en la introducción para que el magnetrón funcione se requiere de un campo eléctrico y un campo magnético, por lo tanto al cerrarse el circuito eléctrico se generará calor, por esta razón el núcleo cuenta con un soporte de cobre mostrado en la Figura 2 b), ya que su buena conductividad térmica se utiliza para funcionar como intercambiador de calor con el refrigerante y su buena conductividad eléctrica es ideal para formar parte del electrodo. En esta parte se ubican los súper imanes de NdFeB que generan el campo magnético del magnetrón.

Figura 1. Esquema del diseño del magnetrón de pulverización catódica.

Revista Científica

89


a)

b)

c)

Figura 2. a) Tapa, b) soporte y c) base, que conforman el núcleo del magnetrón.

El núcleo también cuenta con una base ferromagnética de acero al carbono mostrada en la Figura 2 c), utilizada para cerrar las líneas del campo magnético, esta base también cuenta con juntas tóricas para sellar la zona del intercambiador de calor. La tapa mostrada en la Figura 2 a) se utiliza para sujetar el blanco, es de acero inoxidable no magnética para no interferir con las líneas de campo magnético del magnetrón. La carcasa mostrada en la Figura 3 es parte del otro electrodo y fue fabricada de acero inoxidable no magnético para no interferir con el campo magnético. La tapa mostrada en la Figura 4 también fabricada de acero inoxidable no magnético cuenta con espaciadores de diferente grosor para modificar la distancia entre los electrodos dependiendo del espesor de los blancos. La Figura 5 muestra el magnetrón sin la tapa donde se pueden observar los súper imanes de NdFeB montados en el soporte de cobre. En la Figura 6 se muestra el magnetrón ensamblado en el brazo de la cámara de vacío. Para la fabricación de las películas delgadas, el magnetrón fue montado dentro de una cámara de vacío con una presión base de 5 x 10-6 Torr, después fue presurizada con flujo de argón con una pureza de 99.998% a 3.0 x 10-3 Torr durante el depósito de las películas. Para el depósito se utilizó una fuente de RF fijada a una potencia de 40W, se utilizó un blanco de material ferromagnético de 2 pulgadas de diámetro de Permalloy (Ni80Fe20) con una pureza de 99.95%. Las películas fueron depositadas a una distancia vertical de 5 cm del magnetrón, sobre sustratos de silicio monocristalino con orientación (001), un espesor de 525 µm, un área de 5 mm x 7 mm y previamente lavados con ultrasonido. Las películas se fabricaron variando el tiempo de depósito y su tasa de depósito fue caracterizada con un perfilómetro Veeco Dektak 150. La morfología y composición química fue caracterizada por microscopia electrónica de barrido con un microscopio JEOL JSM-7600F.

Figura 3. Carcasa del magnetrón.

90

Revista Científica

Figura 4. Tapa y espaciadores del magnetrón.

Figura 5. Magnetrón sin tapa.

Figura 6. Magnetrón ensamblado en el brazo de la cámara de vacío.

Resultados y discusión La grafica de la Figura 7 a) muestra el espesor de películas de Permalloy que se obtuvo para tiempos de depósito de 5, 10 y 15 minutos realizados con una potencia de 40W y una presión de 3x10-3 Torr, el aumento en los espesores de las películas de permalloy respecto al tiempo muestran un comportamiento lineal, se realizó un ajuste lineal a estos datos con lo que se obtuvo una tasa de velocidad de depósito de 16.2 nm/min para el permalloy bajo estas condiciones de depósito. La grafica de la Figura 7 b) muestra la variación en el espesor en función de la distancia en una película de Permalloy, obtenida con un tiempo de depósito de 6.5 minutos, depositada sobre un portaobjetos de microscopio, de vidrio, con dimensiones de 7.5 x 2.5 x 0.1 cm. Se observa un espesor aproximado de 100 nm a una distancia de 0 cm (centro del magnetrón), este espesor va disminuyendo conforme nos alejamos horizontalmente del centro de depósito, llegando hasta un espesor de aproximado de 25 nm a una distancia de 7 cm. Aquí se puede observar que se mantiene un espesor similar del centro hasta el primer centímetro, esto permite ase-


gurar que se puede colocar muestras en un diámetro de 2 cm y obtener un espesor homogéneo.

Figura 8. Micrografía de una película de Permalloy depositada a una presión de 3x10-3Torr y una potencia de 40W por un tiempo de 15 minutos.

Tabla 1. Análisis elemental semicuantitativo de una película de Permalloy depositada a una presión de 3x10-3Torr y una potencia de 40W por un tiempo de 15 minutos.

Figura 7. a) Depósitos de Permalloy a una presión de 3x10-3Torr y una potencia de 40W, los círculos azules corresponden al espesor de la película obtenido para tiempos de 5, 10 y 15 minutos, la línea roja corresponde al ajuste lineal de los datos de los tres depósitos. b) Variación en el espesor de una película de Permalloy en función de la distancia, depositada a una presión de 3x10-3Torr y una potencia de 40W, los círculos azules representan el espesor de la película en diferentes distancias, la línea punteada roja es solo una guía visual. En ambas graficas las barras de error fueron obtenidas de tres diferentes medidas de espesor.

La Figura 8 muestra una micrografía tomada a un aumento de 50000x de la superficie de la película de Permalloy depositada a una presión de 3x10-3 Torr y una potencia de 40W por un tiempo de 15 minutos, se puede observar una película continua de Permalloy sobre el sustrato de silicio. En la Tabla 1 se muestran los datos del análisis elemental semicuantitativo obtenido por la técnica de EDS (Siglas del inglés, Scanning electron microscopy) en la película de Permalloy depositada a una presión de 3x10-3 Torr y una potencia de 40W por un tiempo de 15 minutos. Se puede observar que los valores obtenidos en la película son muy similares a los valores estequiométricos del blanco de Permalloy (Ni80Fe20).

Conclusión Se diseñó y fabrico un magnetrón de pulverización catódica para el uso de blancos ferromagnéticos de 2 pulgadas de diámetro. Se depositaron películas ferromagnéticas manométricas utilizando un blanco ferromagnético de Permalloy (Ni80Fe20). Se obtuvo la tasa de depósito para las películas delgadas de permalloy mediante un ajuste lineal de datos de tres diferentes espesores obtenidos de tres diferentes tiempos de depósito. Mediante microscopia electrónica de barrido se observó la formación de una película continua de permalloy sobre el sustrato y se obtuvo un porcentaje atómico de las películas similar a los porcentajes estequiométricos del blanco de Permalloy (Ni80Fe20). Este trabajo muestra que con un magnetrón fabricado en casa se pueden obtener películas delgadas de gran calidad, las cuales pueden ser utilizadas para la caracterización y estudio de una gran variedad de propiedades.

Agradecimientos Gracias a los Dres. Roberto Escudero y Stephen Muhl por la accesibilidad al uso de sus equipos.

Revista Científica

91


92

Revista CientĂ­fica


Bibliografía + Behrisch, R. y Klaus, W. (1991). Sputtering by particle bombardment III. Berlin: Springer. ISBN # 9783540534280. + Behrisch, R. y Wolfgang E. (2007). Sputtering by particle bombardment: Experiments and computer calculation from threshold to MeV energies. Berlin: springer. ISBN # 9783540445005. + Bhushan, B. (2017). Handbook of nanotechnology. Germany: Springer-Verlag. ISBN # 9783662543559. + Grove, W. (1852). On the electro-chemical polarity of gases. Trans. R. Soc. Lond, 142,87-101. ISSN # 0261-0523. + Maissel, L. R. (1970). Handbook of thin film technology. New York: McGraw Hill. ISBN # 9780070397422. + Plücker, J. (1858). Ueber die Einwirkung des Magneten auf die elektrischen Entladungen in verdünnten Gasen. Pogg. Ann, 103,88. ISSN # 1521-3889. + Wasa K.; Isaku K. y Hidetoshi K. (2012). Handbook of sputter deposition technology fundamentals and applications for functional thin films, nanomaterials, and MEMS. Waltham,USA. Oxford,UK: William Andrew. ISBN # 9781437734836. + Wasa K.; Makoto K. y Hideaki A. (2004). Thin films materials technology: sputtering of compound materials. Norwich, NY: William Andrew. ISBN # 0815514832701-721.

Revista Científica

93


Lizeth Guadalupe Muñoz Martínez1, Alix Xiomara Nolasco Romero2, Frida Paola Olguin Galvan3, Sandra Kareli Romero Mendoza4 y Carlos Omar González Morán5

Universidad Autónoma del Estado de México Instituto literario #100 C.P. 50000 Clo. Centro.

1,2,3,4,5

rom.axnr@gmail.com

Resumen: El presente artículo muestra la realización del levantamiento luminario existente hasta agosto del 2018 en el Centro Universitario UAEM (Universidad Autónoma del Estado de México) Valle de México; el estudio consiste en llevar a cabo una investigación sustentada en la Norma Oficial Mexicana NOM-025-STPS-2008, “Condiciones de iluminación en los centros de trabajo”, justificando las mediciones efectuadas, garantizando mayor eficiencia en las áreas de trabajo cuantificando el número de lámparas, tipo de luz y potencia individual. Igualmente se diseña una estrategia enfocada en disminuir el consumo energético, desarrollando el cálculo de un sistema fotovoltaico, que abastece el 100% de la energía demandada en la UAEM con base en los datos de la tarifa eléctrica de CFE del 2017, posteriormente se efectuó una cotización con la empresa Solar House, acerca de los requerimientos y conjuntamente en la plataforma de Helioscope se diseñó una simulación dimensional del arreglo final de los módulos fotovoltaicos.

+

Palabras clave: Consumo energético, tarifa eléctrica, energía solar, módulos fotovoltaicos, inversores de corriente.

Recibido: Abril 15, 2020. Recibido en forma revisada: Mayo 5, 2020. Aceptado: Junio 15, 2020.

94

Revista Científica

Abstract: This article shows the completion of the lighting survey existing until August 2018 at the UAEM University Center (Autonomous University of the State of Mexico) Valle de México; The study


consists of carrying out an investigation based on the Official Mexican Standard NOM-025-STPS-2008, “Lighting conditions in the work centers”, justifying the measurements made, guaranteeing greater efficiency in the work areas, quantifying the number of lamps, type of light and individual power. Likewise, a strategy focused on reducing energy consumption is designed, developing the calculation of a photovoltaic system, which supplies 100% of the energy demanded in the UAEM based on consumption data from the 2017 CFE receipt, subsequently a Quote with the company Solar House, about the requirements and jointly on the Helioscope platform, a dimensional simulation of the final arrangement of the photovoltaic modules was designed.

+ Keywords:

Energy consumption, electricity rate, solar energy, photovoltaic modules, power inverters.

de los ciclos día-noche, el avance de las tecnologías de almacenamiento eléctrico va a minimizar cada vez más esta circunstancia e incrementar la participación de este tipo de energías en el sistema energético. La ventaja principal que tenemos es la ubicación geográfica en la que se encuentra México, de acuerdo con ¨International Renewable Energy Agency (IRENA, 2015), México se encuentra entre 15° y 35° de latitud, región considerada la más favorecida en recursos solares, donde se recibe diariamente, en promedio 5.5 kwh/m² (unidad de medición de radiación solar), los puntos de demanda más altos son en el centro del país, lo que implica un reto/oportunidad para la infraestructura de transmisión de la CFE¨ (Tecnoenergía, 2018) como se observa en la Figura 1.

Introducción Las energías renovables son una fuente infinita, además de que son “limpias” al momento de generar electricidad y no afectan a las generaciones futuras. Existen varias formas de generar electricidad de manera sustentable, como son: ● Energía eólica: utiliza la fuerza del viento para generar electricidad. El principal medio para obtenerla son los aerogeneradores, “molinos de viento” que transforman con sus aspas la energía cinética del viento en energía mecánica (Twenergy, 2019). ● Energía hidráulica: se obtiene de la caída del agua desde cierta altura a un nivel inferior lo que provoca el movimiento de ruedas hidráulicas o turbinas a gran velocidad, se transforma en energía eléctrica por medio de los generadores (Nelson y Marc, 2002). ● Energía geotérmica: aprovecha el calor del subsuelo para climatizar y obtener agua caliente sanitaria de forma ecológica (Raúl, 2011). ● Biomasa: se trata de la materia orgánica, tanto de origen vegetal como animal, que puede aprovecharse con fines energéticos mediante su combustión (Calvo, 2012). ● Energía mareomotriz: consiste en el aprovechamiento de la energía mecánica generada por el movimiento de las aguas de mares y océanos durante el ascenso y el descenso de las mareas. Transformándola en energía eléctrica (Universidad Americana de Europa, 2020). El estudio energético realizado está enfocado exclusivamente en la energía solar que es la producida por la luz (energía fotovoltaica) o el calor del sol (termosolar) para la generación de electricidad o la producción de calor y se obtiene por medio de paneles y espejos. La energía solar goza de numerosos beneficios que la sitúan como prometedora al ser renovable, no contaminante, disponible en todo el planeta y contribuye al desarrollo sostenible. Otro aspecto beneficioso de esta energía según ACCIONA (s.f.) es que su implantación en un país disminuye la dependencia energética de otros países. Si bien es cierto que la energía solar es intermitente, esto es, directamente dependiente de la meteorología o

Figura 1. Mapa de la radiación solar diaria promedio anual en México.

Debido a la radiación solar en México se logra un potencial solar (horas solar pico) viable para el aprovechamiento de la energía y así proceder al efecto fotovoltaico, el cual consiste según Juste (2019), en la transformación parcial de la energía que procede de la luz o energía lumínica que hay en energía eléctrica. Para conseguir la energía solar se usan las células fotovoltaicas o solares que captan los rayos UV mandando la radiación absorbida hacia un inversor de corriente, el cual transforma la energía directa en energía alterna, y así poder aprovecharla como fuente de energía. Existen diferentes tipos de instalaciones fotovoltaicas, afirma el blog AutoSolar (2018), las cuales se muestran a continuación: ● Instalación aislada: permiten el suministro energético en aquellas viviendas o naves donde no existe previa instalación eléctrica. ● Instalación de conexión a red: están preparados para ser instalados en cualquier infraestructura donde existe previo suministro energético por la compañía eléctrica, pero se desea reducir el consumo y la factura, proporcionando suministro energético por módulos fotovoltaicos. ● Instalación de autoconsumo compartido: instalación capaz de suministrar a un complejo de viviendas. “El precio de la instalación fotovoltaica depende del suministro que se pretenda cubrir y tipo de instalación fotovoltaica, subordinando las necesidades requeridas del consumidor” (Autosolar, 2018).

Revista Científica

95


Toda fuente de energía produce un consumo energético, el cual se refiere a toda la energía empleada para realizar una acción, fabricar algo o, simplemente, habitar un edificio (Teba, 2019). En el estudio se determinó un elevado consumo energético en el Centro Universitario UAEM Valle de México, consecuencia de los malos hábitos que presenta la comunidad universitaria, a su vez la corrección de los mismos puede lograr un ahorro energético, que refiere a una práctica con objeto de limitar el uso de energía, a fin de optimizar el consumo de esta. “Esta práctica conlleva un aumento del capital financiero, ambiental, seguridad nacional, seguridad personal y confort humano” (Planetica, s.f.).

Marco Teórico De acuerdo con el Blog TEISA (2014), un estudio energético permite evaluar y mejorar el modo de explotación y funcionamiento de las prestaciones de una instalación de manera que podamos detectar los puntos débiles donde se pierde o se emplea de forma inadecuada la energía y proponer medidas de mejora que reduzcan el consumo y mejoren la eficiencia energética.

● Propuesta de mejora: proponer todas aquellas mejores técnicas necesarias en el edificio, las instalaciones u otro factores que consideremos adecuadas para reducir el consumo de energía y permitir que sus elementos de envolvente e instalaciones puedan funcionar adecuadamente con un rendimiento óptimo (Segui, 2014). ● Viabilidad económica: se presenta al cliente las propuestas para que valore los cambios y el ahorro que generaría la instalación de los nuevos productos y así tome su decisión (Tecnología de Gestión de Inmuebles, 2018).

Metodología Las siguientes etapas se desarrollan con base a mejorar la eficiencia del consumo de electricidad usando celdas solares, esta electricidad es suministrada por CFE (Comisión Federal de Electricidad), como se observa en la Figura 2.

Consultando varias fuentes bibliográficas, encontramos que, existe bastante información sobre el ahorro de energía, “Empleando métodos y procedimientos analíticos para proponer la tecnología más adecuada, un modelo sostenible y, un mapa solar tentativo con los puntos más estratégicos considerando los valores más altos de la irradiación solar” (Leones, 2010). Los principales objetivos son: ● Mejorar la eficiencia y producir un ahorro energético de las instalaciones por medio del uso de módulos fotovoltaicos. ● Adecuar y adaptar las instalaciones con base a la normativa de iluminación vigente. Segui (2014) recomienda algunas etapas para la elaboración del estudio energético, las cuales se describen a continuación: ● Recopilatorio de información sobre el edificio y planificación del estudio: dentro de este apartado se obtendrá la mayor información sobre el mismo, su envolvente e instalaciones así como del comportamiento de los usuarios. ● Verificación del estado actual: se deberá de verificar el estado en que se encuentra el edificio e instalaciones, de igual manera se deberá comprobar cuáles son los hábitos de los empleados y usuarios en relación a las instalaciones energéticas. ● Instalaciones y análisis del balance energético (uso de equipos eléctricos): se realiza un estudio detallado donde se exponen todos los cambios que podrían realizarse al sustituir las luminarias convencionales por otras y su consecuente ahorro energético (Tecnología de Gestión de Inmuebles, 2018).

96

Revista Científica

Figura 2. Etapas para el mejoramiento del consumo eléctrico con módulos fotovoltaicos.


A continuación, se desglosa el diseño de la estrategia para aminorar la factura de consumo eléctrico de CFE.

Etapa 1. Revisión de consumo energético vía recibo de CFE Con base en el recibo de la Comisión Federal de Electricidad (Figura 3) que refleja el alto consumo energético del Centro Universitario UAEM Valle de México. Al cuantificar cada equipo o maquinaria existente en el Centro Universitario, los datos recabados son: consumo energético, condiciones ambientales, ubicación en el edificio, etc. Con los datos recabados se hizo la gráfica de consumo histórico como se muestra en la Figura 4.

La investigación es con base a la Norma Oficial Mexicana NOM025-STPS-2008, “Condiciones de iluminación en los centros de trabajo”, (2008) justificando las mediciones realizadas, para obtener mayor eficiencia en las áreas de trabajo de acuerdo a los luxes requeridos en un espacio de trabajo, como se muestra en la Tabla 1. Según García, (2018) los luxes pueden definirse como la unidad utilizada para calcular la cantidad de luz sobre una superficie. Tabla 1. Niveles de iluminación (luxes).

Etapa 2. Cuantificar: Cantidad y tipo de luminarias

El número de luminarias, tipo de luz y potencia como se observa en la Tabla 2. Figura 3. Recibo CFE del Centro Universitario UAEM Valle de México y su consumo energético.

Figura 4. Gráfica del consumo histórico del Centro Universitario UAEM Valle de México.

En el Centro Universitario UAEM al notarse un uso elevado en base a la cantidad de dispositivos usados se sugiere que para ahorrar energía se consideren los siguientes puntos: ● El aprovechamiento de la luz natural: durante el día no encender las luces y aprovechar los rayos del sol como fuente de iluminación. ● Apagar las luces: en caso de encender las luces recordar apagarlas cuando ya no se utilicen. ● Desconectar los aparatos que no se utilicen: estos estando conectados, pero no encendidos, siguen consumiendo energía eléctrica, a esto se le conoce como “Standby” o “consumo vampiro”.

Tabla 2. Total de cada tipo de lámpara.

Con los datos anteriores se aprecia que la iluminación de los espacios de trabajo, en este caso, las aulas, oficinas y laboratorios utilizados por la comunidad estudiantil, se encuentran inadecuadas según la normatividad aplicada en este caso. En el siguiente ejemplo se muestra la forma en que se midieron los luxes en diferentes espacios de la Universidad. En el caso de los salones se mide (en los pizarrones blancos) como se observa en la Figura 5. En el caso de oficinas, laboratorios y pasillos se mide (el espacio libre a partir de un metro de altura).

Figura 5. Formato para medir la intensidad de luz en Luxes colocando un luxómetro en tres puntos diferentes.

Revista Científica

97


Etapa 3. Obtener total de contactos eléctricos y tipo de consumo en fases Dentro de esta etapa se inspeccionaron los equipos de cómputo, máquinas de laboratorio, teniendo como resultado, que estos aparatos se utilizaban alrededor de entre 8 a 10 horas de lunes a viernes.

Etapa 4. Propuesta de mejora del consumo energético Se sugiere a la comunidad estudiantil, administrativa y docente hacer las siguientes recomendaciones en base a la Comisión Federal de Electricidad, (s.f.): ● Revisa tu instalación eléctrica, apaga todos los focos y desconecta aparatos, ya que consumen energía, aunque estos se encuentren apagados. ● Aprovecha la iluminación natural por medio de ventanas o tragaluces.

Donde: - E, es consumo diario. - FSS, es factor de seguridad del sistema. - HPS, es horas solar pico. - WP, es potencia del panel. “En el Estado de México se suele utilizar un factor de seguridad del 30% debido a las condiciones de radiación en las peores condiciones como el invierno. El HPS es de 5 Hrs, WP es de 340W” Moro (2018).

Etapa 7. Viabilidad económica Es sujeto de objeción que el cambio de luminarias o nuevos productos presenta un coste elevado, sin embargo, quedaría totalmente compensado tras el resultado de la reducción energética al implementar tecnología innovadora (módulos fotovoltaicos); se propone el cambio de la iluminación tradicional de uso principal, es decir, la que mayor número de horas se encuentra funcionando. El sistema planteado permite amortizar la inversión en un lapso corto.

● Sustituye los focos incandescentes por focos ahorradores o led. Se hizo la cotización con Solar House (empresa dedicada a la venta e instalación de módulos fotovoltaicos), acerca de los módulos fotovoltaicos e inversores de corriente, Tabla 3.

Tabla 3. Cotización de inversores de corriente y Módulos fotovoltaicos.

Resultados ● De

acuerdo al recibo de CFE del año 2017

- El consumo diario promedio de CU UAEM Valle de México es de 856,000Wh. - 554 paneles se utilizarán para el abastecimiento del 100% de la Universidad.

Etapa 5. Simulación con software Helioscope

- Se contempló el siguiente precio de la tarifa eléctrica kW/h =$0.50 MX. - INVERSIÓN ÚNICAMENTE CON INVERSORES DE CORRIENTE Y MÓDULOS FOTOVOLTAICOS: $3,749,800 MX - Retorno de inversión de 7 años. ● De acuerdo al conteo de contactos en toda la Universidad

Figura 6: a) Distribución de paneles en los edificios, b) Paneles solares con sus inversores para mejor distribución.

- 318 paneles se utilizarán para abastecer la potencia solar.

Etapa 6. Cálculos matemáticos

Para calcular la cantidad de paneles se usa la Ecuación 1.

-Tenemos una CARGA INSTALADA de 470,598W y una POTENCIA SOLAR de 103,531W.

(1)

- Se contempló la misma tarifa eléctrica de $0.50MX. - INVERSIÓN ÚNICAMENTE CON INVERSORES DE CORRIENTE Y MÓDULOS FOTOVOLTAICOS: $1,826,673.51 MX. - Retorno de inversión de 4 años.

98

Revista Científica


Conclusión El proyecto simulador que realizamos puede contribuir de manera muy importante para identificar y resaltar los puntos clave para el ahorro de energía, para llevar a cabo una implementación exitosa de los sistemas fotovoltaicos. Se detectaron distintos puntos importantes como: las computadoras se encontraban prendidas o en standby aunque no fueran utilizadas por los alumnos, los salones de clases se mantenían las lámparas prendidas teniendo o no clases en el día. También se pudo apreciar que los niveles de iluminación de las vías no son los más adecuados ya que no cumplen con la norma de iluminación utilizada. Se recomiendan los siguientes aspectos: la inclusión de nuevas tecnologías que generan oportunidades clave a fin de contribuir a la mejora de nuestra vida cotidiana, como es el caso de la Domótica (edificios inteligentes) orientada al ahorro y eficiencia energética para ahorrar energía sin renunciar al confort. Frente a la contribución del ahorro energético, los sistemas de domótica presentan diversidad de aplicaciones con un extenso abanico de posibilidades, destacando como más importantes las siguientes afirma Querol (2016).

Bibliografía

Económico para la Generación Eléctrica Sostenible a través de la Energía Solar, con Aporte al medio ambiente. Revista Técnica” energía”, 6(1), 95-105. + Moro, M. (2018). Instalaciones solares fotovoltaicas, (2ª edición), Madrid: Madrid, España, Paraninfo. + NOM-025-STPS-2008 (2008). Norma Oficial Mexicana NOM025-STPS-2008. Condiciones de iluminación en los centros de trabajo. Texto vigente. + Ovacen (s.f). Domótica y eficiencia energética de edificios. 150/05/2020, de Ovacen Sitio web: https://ovacen.com/domotica-y-eficiencia-energetica-de-edificios-ovacen/ + Querol, O. (2016). Ahorro y eficiencia energética con Domótica e Inmótica. 15/05/2020, de Revista Inmueble Sitio web: file:///C:/Users/ Administrador/Downloads/Revista_Inmueble_-_Marzo_2016.pdf + Segui (2014). Cómo realizar una auditoría energética y no perderse 14-05-2020, de Construction21 ESPAÑA Sitio web: https://www.construction21.org/espana/articles/es/como-realizar-una-auditoria-energetica-y-no-perderse.html + Autosolar (Sin Fecha). Información sobre ahorro de energía, de Planetica. Recuperado: 03/06/2019. Sitio web: http://www.planetica. org/información/ahorro-de-energía

+ ACCIONA (Sin Fecha). Energía Solar, de ACCIONA. Recuperado: 13/05/2020. Sitio web: https://www.acciona.com/es/energias-renovables/ energia-solar/

+ Autosolar (2018). ¿Qué tipos de instalaciones fotovoltaicas existen?, de Auto Solar. Recuperado: 03/06/2019. Sitio web: https://autosolar.es/blog/aspectos-tecnicos/las-dudas-mas-comunes-sobre-el-autoconsumo-energetico-fotovoltaico

+ Calvo, M. (2012). ¿Qué es la biomasa?, de Twenergy. Recuperado: 03/06/2019. Sitio web: https://twenergy.com/a/que-es-la-biomasa-738

+ Autosolar (2019). Energía eólica, de Twenergy. Recuperado: 03/06/2019. Sitio web: https://twenergy.com/energia/energia-eolica/

+ CFE (Sin Fecha). Ahorro de energía, de CFE. Recuperado: 13/05/2020. Sitio web: https://www.cfe.mx/CFEAmbiental/Paginas/AhorroEnerg%C3%ADa.aspx

+ Tecnología de Gestión de Inmuebles (2018). Fases para la realización de una auditoría energética, de TDGI. Recuperado: 13/05/2020. Sitio web: https://tdgiespana.com/fases-auditoria-energetica/

+ García, F. (2018). ¿Qué es un lux?, de Iluminet. Recuperado: 13/05/2020. Sitio web: (https://www.iluminet.com/que-es-un-lux/

+ Teba, C. (2019). ¿Qué es consumo energético?, de Eficiencia energética Consumo energético. Recuperado: 03/06/2019. Sitio web: https:// www.dexma.com/es/que-es-consumo-energetico/#

+ Raúl, G. (2011). ¿Qué es la energía geotérmica?, de Twenergy. Recuperado: 03/06/2019, de https://twenergy.com/a/que-es-la-energia-geotermica-que-aplicaciones-tiene-108 + HelioScope (2018). Simulación dimensional de módulos fotovoltaicos, de Helioscope. Recuperado: 21/05/2020. Sitio web: www.helioscope. com: + IRENA (2015). Radiación solar y su aprovechamiento en México, de IRENA. Recuperado: 13/05/2020. Sitio web: https://www.irena.org/solar + Juste, I. (2019). ¿Qué son los paneles solares y cómo funcionan?, de EcologíaVerde. Recuperado: 13/05/2020. Sitio web: https://www.ecologiaverde.com/que-son-los-paneles-solares-y-como-funcionan-1836.html + Leones, W. (2010). Estudio Tecnológico, Viabilidad Energética y

+ Tecnoenergía (2018). Radiación solar en México; somos privilegiados, de Tecnoenergía. Recuperado: 21/05/2020. Sitio web: https:// www.tecnoenergia.mx/radiacion-solar-en-mexico-somos-privilegiados/ + TEISA (2014). Estudio energético. ¿En qué consiste?, de TEISA. Recuperado: 09/03/2019, de Teisa. Sitio web: https://www.tecnicasei. com/estudio-energetico-en-que-consiste/ + Universidad Americana de Europa (2020). Potencial de la energía mareomotriz, de Universidad UNADE. Recuperado: 21/05/2020. Sitio web: https://unade.edu.mx/energia-mareomotriz/ +Nelson, V. y Marc, A. (2002). Energía hidráulica. Recuperado: 03/06/2019. Sitio web: http://exterior.pntic.mec.es/pvec0002/e_hidraulica.htm

Revista Científica

99


Alexa Valeria Leyva Treviño1, Brenda Stefanía Pérez Martínez2, Daniela Lisseth Rodríguez Galindo3, María Fernanda Ordaz Ramírez4 y Karla María Nava Aguirre5

Universidad de Monterrey Av. Ignacio Morones Prieto 4500, Jesús M. Garza San Pedro Garza García, Nuevo León, México, C.P. 66238. 1,2,3,4,5

karla.nava@udem.edu

Recibido: Noviembre 22, 2019. Recibido en forma revisada: Mayo 4, 2020. Aceptado: Junio 10, 2020.

100

Revista Científica

Resumen: La industria de autopartes en México juega un papel importante en la economía nacional debido a que 4 de cada 10 autopartes del país son producidas en el Estado de Nuevo León. En este sector, las empresas están comenzando a implementar prácticas de la Industria 4.0 con la finalidad de introducir nuevas tecnologías en sus operaciones como el Internet de las Cosas (IoT), donde la manufactura tradicional está migrando a la innovación y la tecnología. Con respecto a esta transición, el objetivo principal de esta investigación es analizar la implementación del IoT en las empresas de autopartes en el Estado de Nuevo León, identificando las oportunidades y obstáculos en el sector de autopartes para proponer alternativas que contribuyan con el trabajo colaborativo de los sectores de academia, industria, empresa y gobierno. El enfoque del estudio es de tipo cualitativo con un alcance descriptivo exploratorio; se reunieron datos de fuentes primarias mediante ocho entrevistas semiestructuradas a expertos seleccionados a conveniencia, y a su vez, se recopiló información a través de fuentes secundarias. A partir de los hallazgos, se determina que al ejecutar el IoT, las empresas podrán eliminar actividades que no crean valor en la organización, eliminando procesos y permitiendo que los trabajadores inviertan su tiempo en actividades especializadas que difícilmente pueden ser reemplazadas por la automatización. Sin embargo, muchas empresas no se han sumado a esta transformación a causa de la falta de familiarización sobre los beneficios que el IoT ofrece, así como el


desconocimiento de la implementación de esta herramienta.

+ Palabras clave: Autopartes, Clúster Automotriz de Nuevo León, Industria 4.0, Internet de las Cosas, Tier.

Abstract: The auto part industry in Mexico plays an important role in the national economy because 4 out of every 10 auto parts in the country are produced in the State of Nuevo León. In this sector, companies are beginning to implement Industry 4.0 practices in order to introduce new technologies in their operations such as the Internet of Things (IoT), where traditional manufacturing is migrating to innovation and technology. Regarding this transition, the main objective of this research is to analyze the implementation of IoT in auto part companies in the State of Nuevo León, identifying opportunities and obstacles in the auto part sector to give alternatives that contribute to the collaborative work of the academy, industry, business and government sectors. This study focuses in a qualitative type with an exploratory descriptive scope; data from primary sources was collected through eight semi-structured interviews with experts selected for convenience, and in turn, information was collected through secondary sources. From the findings, it is determined that by executing the IoT, companies can eliminate activities that do not create value in the organization, eliminating processes and allowing workers to invest their time in specialized activities that can hardly be replaced by automation. However, many companies have not joined this transformation because they’re not acquainted with the benefits that IoT offers, as well as the lack of knowledge about the implementation of this tool.

+ Keywords: Auto parts, Automotive Cluster of Nuevo León, Industry 4.0, Internet of Things, Tier.

Introducción Hoy en día la industria manufacturera se enfrenta a los grandes desafíos de la revolución industrial conocida como la Industria 4.0 (I4.0), la cual fue mencionada por primera vez en el año 2011 en Alemania durante la feria de tecnología industrial más grande del mundo, Hannover Messe (Mosconi, 2015). Dicha revolución está conformada por nueve pilares, robots autónomos, análisis de Big Data, simulaciones, sistemas de integración vertical y horizontal, el Internet de las Cosas (IoT), ciberseguridad, computación en la nube, realidad aumentada y manufactura aditiva (PwC, 2016).

Con la llegada de la I4.0 es posible recopilar y analizar datos de máquinas que previamente tenían que ser calculados por una persona, permitiendo una mayor eficiencia en los procesos y mayor flexibilidad para producir bienes a menores costos y con mayor calidad. Con la implementación de la I4.0, se espera que la productividad de fabricación aumente, fomentando el crecimiento industrial y la competitividad de las empresas y regiones, para poder alcanzar una integración en la cadena de valor (Rüßmann, Lorenz, Gerbert, Waldner, Justus, Engel y Harnisch, 2015). Una de las tecnologías habilitadoras clave que permitirán que la I4.0 ofrezca estos beneficios es el Internet de las Cosas (Mitsubishi, 2017). En su artículo Making sense of IoT, Kevin Ashton menciona que el IoT son “sensores conectados a Internet que actúan mediante conexiones abiertas, compartiendo datos libremente y permitiendo aplicaciones inesperadas. Lo que define al IoT es la captura de la información” (Hewlett Packard Enterprise, 2016). A través de la I4.0, diversas industrias mexicanas se han visto involucradas en la implementación e investigación del IoT, una de ellas es la industria automotriz, la cual es sustancial para el crecimiento de la economía del país. Según ProMéxico (2017), México logró posicionarse como el séptimo productor y cuarto exportador de vehículos ligeros a nivel mundial. Dicha industria tiene la mayor aportación a la balanza comercial con alrededor de 62 mil millones de dólares, así mismo generó cerca de 800 mil empleos directos. El sector aportó 2.9% del PIB nacional y 18.3% del PIB manufacturero (Asociación Mexicana de la Industria Automotriz, 2018). La industria automotriz es el principal impulsor de las exportaciones del Estado de Nuevo León representando el 36% del total. Durante el primer bimestre del 2019, las exportaciones del sector automotriz tuvieron un crecimiento del 1.7%, lo cual influye a que la región sostenga un superávit del 7.5 mmdd (Secretaría de Economía y Trabajo, 2019). El Estado de Nuevo León cuenta con ventajas competitivas que, al ser correctamente utilizadas, proporcionan una mayor facilidad de implementación de estas tecnologías. En Nuevo León se encuentran aproximadamente 11 proyectos de inversión extranjera (IE) de la industria automotriz, relacionados con los proyectos de distintas empresas de la misma industria, logrando aportar más de 508 millones de dólares en IE para el Estado (Gobierno de Nuevo León, 2018). De acuerdo con un reporte realizado por la Secretaría de Economía y Trabajo (SEDET), la industria automotriz aporta el 22% de Inversión Extranjera Directa gracias a los proyectos que las empresas extranjeras desean realizar en el estado, así mismo, dicha industria genera alrededor de 70 mil empleos (Gobierno de Nuevo León, 2018). En adición, el Estado de Nuevo León posee una ventaja competitiva gracias a su ubicación, colindando con Estados Unidos, siendo este uno de los principales destinos de las exportaciones de México (OEC, 2017). A pesar de que el estado cuenta únicamente con una armadora, KIA Motors, Nuevo León es considerado como el cuarto productor de autopartes en México, contribuyendo con el 8.3% de la producción total nacional, en donde 4 de cada 10 autopartes del país son producidas en el estado (Clúster Automotriz, 2018). A su vez, de las empresas fabricantes de autopartes, el 12% son consideradas como medianas y grandes empresas, mientras que el 88% son micro y pequeñas empresas (Gobierno de Nuevo León, 2017).

Figura 1. Nueve pilares de la Industria 4.0. Fuente: Elaboración propia.

Revista Científica

101


Figura 2. Plantas fabricantes de vehículos ligeros y motores. Fuente: AMIA (2018).

Figura 3. Empresas de autopartes en México. Fuente: INEGI Denue, (2019).

En México, empresas transnacionales han comenzado a implementar prácticas de la I4.0 (González, 2017). El problema se encuentra en que las empresas más pequeñas de la industria de autopartes cuentan con un bajo nivel de automatización y dependencia de la mano de obra directa. Otro desafío presente es contar con capital humano calificado, aunado a esto, existen empresas que no cuentan con programas de capacitación y buscan reclutar personal ya capacitado (Clúster Industrial, 2018). México necesita trabajar en los siguientes cuatro pilares para poder avanzar hacia la I4.0: desarrollo del capital humano, innovación, aumentar las sinergias de los clústeres y la adopción de tecnología en las pequeñas y medianas empresas, para generar procesos más competitivos (Secretaría de Economía, 2018). Ante esta transformación en la industria, el objetivo principal de esta investigación es analizar la implementación del IoT de las empresas de autopartes en el Estado de Nuevo León, con lo anterior se pretende identificar las oportunidades y obstáculos en el sector de autopartes y poder, finalmente, proponer alternativas para contribuir con el trabajo colaborativo de los diferentes sectores de la industria.

Revisión de la literatura El término de IoT fue creado en 1999, cuando Kevin Ashton laboraba en el área de Cadena de Suministro en Procter & Gamble (P&G). Ashton ideó un plan para describir la forma en la que los objetos podían conectarse a Internet por medio de sensores y explicar la conexión que podían tener las etiquetas de identificación por radiofrecuencia (RFDI), las cuales se utilizaban en la cadena de suministro de la empresa, para tener un mayor control de las mercancías, esto sin la necesidad de la intervención humana (Internet Society, 2015).

102

Revista Científica

El IoT permite que dispositivos, desde sensores a máquinas, sean conectados al Internet, permitiendo monitorear, controlar, intercambiar y recaudar datos en cuestión de segundos, lo que favorece el análisis de información y toma de decisiones. Esta herramienta permite crear redes que incorporan todos los procesos de fabricación, haciendo que se desenvuelva un entorno inteligente (Kagermann, Wahlster y Helbig, 2013). Así mismo, el IoT beneficia el ambiente de los negocios, ya que al implementar esta tecnología los departamentos dentro de una compañía pueden tener una mayor productividad y eficiencia, lo cual permite reducir costos y poder tener un incremento en las utilidades de la empresa (Evans, 2011). Un ejemplo reciente que describe esta situación es el de la empresa Caterpillar y su alianza con una empresa minera en Australia, quienes implementaron una flota de camiones mineros autónomos que trabajan las 24 horas del día. Estas máquinas están equipadas con una variedad de sensores que transmiten información sobre la presión del aceite, filtros y otros componentes del camión a través de conexiones inalámbricas a la sede de Caterpillar en Peoria, Illinois, donde un asesor monitorea los signos vitales del equipo y puede, cuando sea necesario, hacer recomendaciones de mantenimiento al propietario de la flota. Así mismo, otros de los beneficios obtenidos del IoT y su análisis de la información, es el poder desarrollar herramientas de diagnóstico predictivo, mejorar el rendimiento del producto y diseñar productos con mayor rendimiento en menos pasos, lo que significa reducción de tiempo, operadores menos cansados y, por ende, mayor productividad para la empresa (Daecher y Schmid, 2016). La visibilidad es uno de los principales retos dentro de las cadenas de suministro, especialmente en la industria automotriz. Actualmente, la información abunda y la conectividad está al alcance de más empresas, sin embargo, hay menos información que se captura, administra, analiza y se pone a disposición de quienes la necesitan (IBM, 2018). Por lo que es de suma importancia que los humanos y las máquinas trabajen en conjunto, permitiendo a los ejecutivos actuar según la información proporcionada en tiempo real. La industria automotriz, conformada por vehículos ligeros, pesados, tracto camiones y autopartes, se ha convertido en una de las más activas y competitivas para México contando con un crecimiento sostenido en la producción de autopartes. A su vez, dicha industria vive un proceso de transición, de un perfil orientado a la manufactura a uno donde la innovación juega un papel importante. La cadena de suministro de la industria automotriz está integrada por armadoras de vehículos, y proveedores de primer nivel (Tier 1), segundo nivel (Tier 2) y tercer nivel (Tier 3). Este sector presenta desafíos, debido a que se espera que los proveedores involucrados en la cadena avancen a la par de las armadoras, ya que enfrentan dificultades para lograr una integración eficiente a las plataformas de manufactura debido al bajo desarrollo financiero, tecnológico y operativo (ProMéxico, 2016). Es importante mencionar que, aunque Nuevo León es considerado como un estado donde la Industria Automotriz está en constante evolución, no ha logrado lo mismo con toda la cadena, debido a que los proveedores de nivel 1 solo obtienen de México el 15% de sus componentes automotrices. Del porcentaje restante, el 42% es importado de Estados Unidos y el otro 43% de distintos países (Ramírez, 2016),


reflejando el área de oportunidad que existe en este sector. Una estrategia que ha utilizado Nuevo León es la conformación de agrupaciones industriales como lo es el Clúster Automotriz de Nuevo León (CLAUT), la cual es una Asociación Civil sin fines de lucro que fue creada en el 2007 para impulsar la competitividad y crecimiento del sector automotriz en Nuevo León, a través de la colaboración, entre gobierno, academia y empresas (armadoras, Tier 1 y Tier 2) (CLAUT, 2016). Esta institución es uno de los principales clústeres en México debido a su ubicación estratégica con Estados Unidos, la mano de obra especializada, sus costos competitivos y su alto potencial en desarrollo industrial (Nava, Colín, Cañamar, Falomir y Garza, 2019). Desde hace tres años, el CLAUT ha trabajado en conjunto con clústeres automotrices de distintas regiones, inclusive, se creó la Red Nacional de Clústeres de la industria automotriz, con la finalidad de colaborar y resolver problemas del sector, proporcionando información de recursos humanos, proveeduría y mejores prácticas de la región. Con dicha Red, se espera encontrar soluciones innovadoras, incrementar la competitividad, lograr el bien común y sinergia de la industria automotriz mexicana (Montoya, 2019). En un inicio, el Gobierno de Nuevo León implementó distintas iniciativas, tales como la creación de centros de investigación como Centros Públicos del Consejo Nacional de Ciencia y Tecnología (CONACYT) en 1970, Centro de Investigación Matemática (CIMAT) en 1980 y el Centro de Ingeniería y Desarrollo Industrial (CIDESI) en 1984, que propician el desarrollo de habilidades tecnológicas y de innovación de estudiantes y trabajadores. La creación de estos centros beneficia a las empresas manufactureras al brindar un mejor servicio por medio de nuevas tecnologías y pruebas certificadas de laboratorio. El esfuerzo más reciente del Gobierno de Nuevo León, es la Iniciativa Nuevo León 4.0, la cual fue impulsada por medio de la Secretaría de Economía y Trabajo. Esta iniciativa consiste en la incorporación de proyectos, propuestas y problemáticas, junto con las universidades y centros de investigación apoyados por el gobierno con el objetivo de desarrollar un ecosistema 4.0 en el estado (Gobierno de Nuevo León, 2019). En el 2018, se inauguró el Centro de Innovación Industrial para el Desarrollo de Talento e Integración de Tecnologías Máquina a Máquina, Internet de las Cosas y Big Data, en la Universidad Regiomontana (U-Erre), que surge como el primer proyecto de la Iniciativa Nuevo León 4.0 (Gobierno de Nuevo León, 2018). Aunado a esto, el Clúster del Software de Nuevo León, universidades, empresas privadas y gobierno inauguraron en el Museo del Acero Horno 3 un espacio llamado Modelo Industrial, en el cual tratan temas como el Internet de las Cosas, Diseño y simulación por computadora, Manufacturas inteligentes y Ciencia en vivo, esto con el propósito de despertar el conocimiento y el interés, tanto en los jóvenes como en los trabajadores, sobre las nuevas tecnologías que actualmente están revolucionando el mundo (Mendoza, 2019). Otras de las propuestas que ha llevado a cabo el Gobierno de Nuevo León para impulsar a las empresas de autopartes surgió debido a la crisis financiera y económica que afectó a las principales armadoras de Estados Unidos en el 2008 y 2009. Por lo que Bancomext, junto con el apoyo de la Secretaría de Economía, creó un programa de financiamiento

llamado “ProAuto Integral” en el 2014, con el propósito de apoyar a las empresas que forman parte del sector automotriz al permitirles el acceso a programas de apoyo gubernamental, específicamente para beneficio de proveedores nacionales. El programa “ProAuto Integral” concluyó a principios del 2018, en el que más de 150 empresas apoyaron con un total de 500 millones de pesos invertidos en financiamiento, beneficiando a más de 300 empresas (Banco Nacional de Comercio Exterior, 2016). Así mismo, a través del acuerdo “Alianza para el financiamiento de la cadena productiva del sector automotriz”, en el que participaron Bancomext, AMIA, la Industria Nacional de Autopartes (INA), Clústeres Automotrices y el programa “ProAuto Integral” se pudieron observar resultados positivos para sus integrantes, las exportaciones aumentaron alrededor de un 20%, creando 50 mil fuentes de trabajo relacionadas con el sector automotriz dentro de 350 empresas (Secretaría de Economía, 2014). Actualmente, las empresas pueden continuar con su desarrollo en la Industria 4.0, con apoyo del Instituto Mexicano de Ejecutivos de Finanzas, Cámara de la Industria de la Transformación (CAINTRA), la Iniciativa 4.0 y el CLAUT, las cuales impulsan a las empresas de autopartes a automatizarse, mediante el apoyo de talleres, conferencias, capacitaciones y orientación.

Materiales y métodos La investigación es de tipo cualitativo que de acuerdo con Hernández, Fernández y Baptista (2014) los investigadores parten de hechos particulares o concretos para poder llegar a conclusiones y donde la recolección y análisis de los datos sirve para afinar las preguntas de investigación o revelar nuevas interrogantes en el proceso de interpretación. El enfoque es descriptivo ya que busca características de grupos y procesos para la recopilación de la información deseada y exploratorio, ya que se tiene como objetivo examinar un tema de reciente interés o poco estudiado. Como primer instrumento de recolección de datos mediante fuentes secundarias de información, se revisaron textos y artículos relacionados con la I4.0, Iot e industria automotriz a nivel internacional y local así como notas periodísticas. Se consultaron sitos web de compañías y asociaciones como el CLAUT en Nuevo León y datos institucionales de fuentes como el INEGI, Secretaría de Economía de Gobierno y fuentes extranjeras. Las fuentes secundarias son “aquellas que ofrecen información sobre el tema que se va a investigar, pero que no son la fuente original de los hechos o las situaciones, sino que sólo los referencian” (Bernal, 2010). El segundo instrumento de recolección, consistió en las fuentes primarias de información. En esta etapa, se tuvo acceso a información de primera mano en el campo de estudio “en ciertos estudios es necesaria la opinión de expertos en un tema. Estas muestras son frecuentes en estudios cualitativos y exploratorios para generar hipótesis más precisas o la materia del diseño de cuestionarios” (Hernández, Fernández y Baptista, 2014). En la investigación cualitativa se debe definir los informantes incluidos en la investigación, “no importa el número, lo que realmente importa es lo que los informantes tienen para decir” (Mendieta, 2015). Por lo anterior, se elaboró una guía de 18 preguntas semiestructuradas

Revista Científica

103


que fue el medio para realizar entrevistas a una muestra no probabilística de ocho informantes clave, seleccionados por conveniencia a partir de su experiencia “No importa el número, lo que realmente importa es lo que los informantes tienen para decir” (Mendieta, 2015). Se realizó una prueba piloto a un miembro del CLAUT, después de hacer los ajustes pertinentes que consistieron en delimitar preguntas de acuerdo al sector del informante, se realizaron las entrevistas desde tres perspectivas. En primer lugar, en el sector industria, Carlos Guerra, Coordinador de Estrategia y Ejecución de la I4.0, Gabriel Cerda, Gerente de Operaciones y Pablo Moreno, Líder del Desarrollo de Proyectos I4.0, representantes de Metalsa. A su vez, se entrevistó a Ángel Ruiz, Director de Innovación y Proyectos de EMSA. En el sector empresa, Ricardo Apáez, director del Comité de Innovación del CLAUT. En el sector gobierno, Abraham Tijerina, Director Estratégico de Nuevo León 4.0. Por último, en el sector académico, Profesores de la Universidad de Monterrey, Andrés Hernández y Eugenio Reyes, quien a su vez es director de World Trade Center en Monterrey. Para procesar la información se realizaron transcripciones de las entrevistas a través de tablas en word para posteriormente identificar los datos más representativos, codificar los resultados y obtener los consensos correspondientes. Finalmente se hizo una interpretación de los datos a través de un análisis de contenido con apoyo de la revisión de literatura.

Resultados Debido a la Cuarta Revolución Industrial, las empresas están experimentando un nuevo modelo tecnológico que combina el mundo digital con el mundo industrial para mejorar la eficiencia productiva y desarrollar una infinidad de nuevos productos y servicios. México debe estar preparado para integrar las innovaciones en distintas industrias, principalmente en aquellas con tendencia manufacturera, como se ha realizado en la región norte del país. De acuerdo con las implementaciones tecnológicas mencionadas anteriormente, existen distintos beneficios que fueron identificados dentro de los sectores académico, industria y gobierno. Estos coincidieron que al implementar esta herramienta, las empresas logran eliminar actividades que no generan valor a la compañía, haciendo procesos más eficientes y eficaces, permitiendo a los trabajadores emplear su tiempo en actividades que generen un mayor impacto dentro de la organización y que tengan la oportunidad para desempeñarse en un área más especializada para que logren desarrollar nuevas estrategias a beneficio de la empresa, como generar análisis íntegros y definir contramedidas, disminuyendo el impacto de procesos deficientes y aumentar la productividad. En las perspectivas analizadas existe un consenso donde se muestra que con la aplicación de esta tecnología en las organizaciones, el tiempo promedio para resolver un problema se reduce, ya que los datos se pueden visualizar en cuestión de segundos y la información de valor se puede segregar, permitiendo reaccionar de manera proactiva ante los posibles obstáculos. Un hallazgo interesante, es que se reduce el proceso de captura de datos, es decir, de tener un método manual se convierte a uno automatizado, donde los integrantes del equipo de trabajo pueden acceder a la información en cualquier lugar y en tiempo real, lo que

104

Revista Científica

facilita el proceso de toma de decisiones para el grupo. La implementación de la herramienta IoT homogeniza la producción y permite un mayor control de los procesos dentro de la cadena de suministro (Entrevista Hernández, 2019). A su vez, permite un mejor uso de las máquinas, lo que disminuye el periodo para retornar la inversión, y aumenta la utilización de los activos. Las máquinas realizan distintas actividades a la vez, logrando producir en mayor cantidad e incrementar el tiempo disponible. “Las máquinas desempeñan trabajos más exactos, para poder cumplir con los requisitos de las armadoras, lo cual un humano no hace” (Entrevista Ruiz, 2019). Un ejemplo que puntualiza esta postura es Metalsa, la cual desarrolló una estrategia de automatización por medio de fases para tener un mayor control de la implementación de esta. La empresa brinda capacitaciones a sus empleados, en donde se les enseña el manejo adecuado de las máquinas, y talleres para motivar al personal, esto con la ayuda de la Iniciativa Nuevo León 4.0 y expertos en la industria que apoyan y dan retroalimentación a la empresa. Para Metalsa, una estrategia que le ha funcionado hasta la fecha ha sido planear y ejecutar al mismo tiempo. Así mismo, Metalsa decidió fondear una Start Up, la cual ha impulsado su estrategia de automatización, pero se tiene planeado, en un futuro, ofrecer el apoyo a otras compañías. La inclusión de estas estrategias le ha permitido a Metalsa obtener el máximo provecho de sus actividades, dejando a un lado aquellas que no generan valor y, a su vez, han logrado agilizar la toma de decisiones debido al fácil acceso de información. Actualmente, el sector de autopartes se encuentra en una transición tecnológica, donde se ve un rezago entre las empresas T1 y T2 en comparación con las empresas armadoras, esto se debe a diferentes factores los cuales serán mencionados a continuación. Existe un consenso entre la Triple Hélice, definida como el conjunto de “relaciones existentes de cooperación entre la Universidad-Empresa-Gobierno” (Chang, 2010), en el que se menciona que el capital humano es el principal reto al que se enfrentan las empresas al adoptar un nuevo modelo tecnológico. “Si al final la gente del piso de producción no le gustó la tecnología, no se siente a gusto o se siente amenazada de que le puede llegar a quitar su trabajo, la terminan por no usar y los proyectos terminan fracasando” (Entrevista Apáez, 2019). Algunos empleados no cuentan con una cultura de compromiso, ya que tienen una deficiencia en el cumplimiento de actividades asignadas, esto puede deberse a una falta de pertenencia hacia la empresa y familiarización con los procesos tecnológicos que se implementan en las compañías. Así mismo, al querer ejecutar las herramientas tecnológicas en una organización, en ocasiones, la alta gerencia no prioriza la capacitación guiada y precisa de su personal, donde también falta seguimiento y motivación constante para que los empleados realicen las actividades de manera calificada. Aunado a esto, algunas compañías no cuentan con puestos de trabajo enfocados al capital humano especializado en materia de tecnología de primer nivel, lo cual causa una fuga de inteligencia y detiene el crecimiento interno del país. Como lo comentó Andrés Hernández (2019), el capital humano no tiene por qué desplazarse, sino que necesita especializarse en otra área. Otro de los retos a los que se enfrentan las empresas es la insuficiencia de infraestructura que tiene México para el desarrollo de productos inteligentes, debido a que los costos de las tecnologías son muy altos y las empresas no perciben el retorno de la inversión tan rápido como a ellos les gustaría y prefieren “enfocarse en la viabilidad de su negocio


a corto plazo, como las ventas, la rotación, los impuestos, los financiamientos, etc.” (Entrevista Apáez, 2019). La conglomeración de aplicaciones tecnológicas que ofrecen el Internet de las Cosas y la automatización en la I4.0 permite concebir fábricas inteligentes de alta interacción. Sin embargo, “el mercado dicta el nivel de automatización de una empresa” (Entrevista Ruiz, 2019), las empresas deben determinar sus necesidades de acuerdo con las exigencias de la industria, dependiendo del tipo de producto que se ofrezca. En el caso particular de EMSA, la empresa atiende a dos mercados, inicialmente, al de refacciones, enfocado a la fabricación de mofles, en el cual los estándares de calidad son mínimos. En una ocasión se intentó automatizar la línea de producción, pero no resultó debido a la falta de respuesta obtenida por su personal, por consecuencia, se decidió manejar la producción sin la intervención de máquinas automatizadas. La empresa también se enfoca en el mercado de la industria automotriz, suministrando la base de los asientos a las empresas armadoras, donde específicamente para este producto se requieren procesos que cumplan con las altas exigencias del mercado, por lo que se implementó un departamento de calidad y se adquirieron máquinas automatizadas para cumplir con las necesidades del comprador.

Conclusión El comienzo de este milenio fue una vertiente de lo que llamamos la era digital. La gran promesa de los avances tecnológicos se ve reflejada en una infinidad de beneficios, los cuales se resumen en la posibilidad de tener fábricas inteligentes con procesos flexibles, permitiéndole a las compañías adaptarse a necesidades particulares de cada proceso de producción y a la realización de tareas minuciosas por parte de los robots, que los humanos no logran hacer. Sin embargo, a pesar de estas ventajas y los esfuerzos que las empresas suman por transitar de un modelo a otro, la tecnología avanza más rápido que la capacidad de desarrollo que se tiene en México, por lo que son pocas las organizaciones que han logrado implementar el IoT exitosamente en comparación con otros países, por obstáculos que frenan la ejecución de esta herramienta, como la falta de conectividad y recursos, la poca capacidad que se tiene para almacenar, administrar, analizar y manejar grandes cantidades de información que se genera y el poco conocimiento que se tiene sobre esta tecnología, lo que conlleva a una implementación mal orientada, sin conocimiento de los beneficios que se obtendrán, tanto a corto como a largo plazo, por lo que deciden dejar de utilizar esta tecnología y continuar con el uso habitual de sus procesos. Por esta razón, la automatización debe surgir a partir de la cooperación entre quienes fabrican la tecnología y quienes la requieren para mejorar sus procesos. Es importante destacar que la implementación de esta tecnología en las empresas trae consigo un sentimiento de incertidumbre para los empleados, ya que estos temen ser desplazados debido a la utilización de robots y máquinas para los procesos productivos, esto debido a que los procesos de fabricación se manejan prácticamente por sí solos, con la menor intervención humana posible. Estudios recientes destacan la posibilidad de pérdida de empleo gracias a las tecnologías disruptivas, como el que desarrollaron Frey y Osborne, donde se examinó la probabilidad de que un trabajo sea reemplazado por la automatización, obte-

niendo como resultado que el 47% de los empleos en Estados Unidos están en riesgo de ser sustituidos por nuevas tecnologías (Frey, C y Osborne, M, 2017). Sin embargo, es poco probable que desaparezcan por completo los empleos; lo que sucederá es que la cantidad de tareas que se venían realizando en un puesto de trabajo serán reducidas, por lo que los humanos tendrán que colaborar con las máquinas diariamente, lo que permitirá que las personas trabajen en habilidades que las máquinas no son capaces de desarrollar. A su vez, los cambios tecnológicos estimulan a que se generen nuevas actividades de trabajo, especialmente aquellas que están enfocadas a los servicios y que otorgan el beneficio de la personalización a los clientes, esto debido a que una máquina se especializa en la manufactura de productos homogéneos. Un ejemplo de esta situación es la implementación de los cajeros automáticos en los años ochenta, donde se pronosticó que estos artefactos iban a terminar con los trabajadores bancarios. Sin embargo, lo que sucedió fue el aumento de asesores financieros, los cuales comenzaron a realizar labores más especializados, como la realización de préstamos, hipotecas y tareas donde se necesita una mayor interacción y atención personalizada hacia el cliente, lo que conllevo a que las sucursales ampliarán sus carteras de negocios y les dieran cabida a nuevos empleados. Los trabajos no se perderán por completo, si no que se demandará capital humano con mayores habilidades y será necesario que el humano esté en constante aprendizaje y adquisición de herramientas tecnológicas para no quedar fuera de la oferta del mercado laboral. Las personas poco preparadas y con capacidades que pueda realizar un robot no podrán sobrevivir a las exigencias de las empresas, por lo que deberán enfocarse en realizar actividades más complejas que permitan que se cree un mayor valor para los negocios. La implementación del IoT no funciona sin la intervención humana, entre más avanzada sea la tecnología, más importante será que la persona que la desarrolle tenga las habilidades necesarias para manejarla. Esto impacta directamente en la evolución que deben tener los sistemas educativos de todos los niveles de escolaridad, por lo que deberán de hacer énfasis en el desarrollo de destrezas humanas para poder preparar a las futuras generaciones con habilidades matemáticas, de ingeniería, creatividad, pensamiento crítico y solución de problemas, con el objetivo de que los alumnos cuenten con un alto desenvolvimiento en sus habilidades humanas, las cuales difícilmente puedan ser reemplazadas por un robot. Al emplear nuevas tecnologías como herramienta en una empresa no debe de descuidarse la planeación. Como se planteó en la investigación, existen distintos obstáculos por los cuales las empresas, en este caso los Tiers nacionales, no han podido migrar a un sistema integral del IoT, como las armadoras y las empresas multinacionales. Sin embargo, existe una combinación de alternativas, estrategias y modelos, para poder alcanzar el objetivo y sumarse a la Industria 4.0. Primeramente, para implementar el IoT como herramienta las empresas deben de considerar que el compromiso y la determinación son esenciales a la hora de querer alcanzar una meta. Como se mencionó anteriormente, uno de los retos es que empresas pequeñas tienen que lidiar con actividades básicas, como sus finanzas, impuestos, servicio al cliente, entre otras actividades que son primordiales para que las empre-

Revista Científica

105


sas sigan operando, por lo cual no alcanzan a darle el enfoque y tiempo necesario que un proyecto como este necesita. Es por esto, que las empresas requieren la creación de un consejo, departamento o equipo de trabajo, separado de las actividades diarias de la empresa, para que puedan desarrollar una estrategia y ejecutarla de manera efectiva para alcanzar sus objetivos. Aunado a esto, es imprescindible que las empresas tengan conocimiento, acceso y un acercamiento continuo a las iniciativas creadas por el gobierno, academia o empresa, que cuenten con experiencia en el campo y den acceso a herramientas, como capacitación y créditos, que permite que las compañías puedan adquirir beneficios al solicitar este tipo de apoyos. Aún así, no basta con capacitar nada más, se les tiene que acompañar en cada paso y guiarlas en la toma de decisiones, eso ha sido un impulso de toda empresa grande que ya logró dar ese salto cuántico de emigrar hacia la I4.0. Es decir, se necesita brindar, por parte de las compañías que fomentan el crecimiento y desarrollo económico o también llamadas empresas tractoras, un asesoramiento ininterrumpido a las que no han logrado alcanzar con éxito un nivel de competitividad tecnológica. Dentro de este rubro, un factor esencial es que los actores que asesoren a las empresas cuenten con una alta sensibilidad hacia las Tiers no desarrolladas, y a su vez, las apoyen con el conocimiento de lo que requieren, técnica y administrativamente, para que puedan dar ese salto y no quedarse simplemente en la etapa de la planeación. Por otro lado, el financiamiento ha sido una variable importante a la hora que las empresas quieren migrar a la tecnología. Sin embargo, lo más importante no es el dinero ni la tecnología, pues al tener un buen proyecto el financiamiento se obtiene y con eso se adquiere la tecnología. En este caso, una alternativa puede ser la planeación de un modelo de negocio sustentado por compañías con alta innovación tecnológica que puedan facilitar con recursos tecnológicos a las Tiers sin comprometer su liquidez. Esto mediante un plan sin inversión inicial, donde se proporcionan sistemas, maquinaría, servicios y cualquier medio necesario para la óptima instalación del IoT. Las Tiers liquidarán la inversión con las ganancias obtenidas de los beneficios que aportarán las nuevas tecnologías. De este modo, con una buena alianza y estrategia, ambas empresas podrán ser beneficiadas y, por ende, cumplir sus objetivos. La implementación del IoT en las empresas va a jugar un rol importante, donde los líderes de estas tendrán que trabajar en desarrollar nuevas estrategias que vayan alineadas a sus metas, las cuales tendrán que ser modificadas cuantas veces sea necesario con la finalidad de una correcta ejecución y aseguramiento de que todos los departamentos la utilicen adecuadamente. De esta manera, se podrán aprovechar los beneficios que trae consigo, transformar procesos y acceder a nuevos mercados, lo cual, permitirá que las empresas sean más competitivas a nivel global y generen mayores ingresos. Es de suma importancia que las empresas se incorporen a esta transformación para que no queden rezagadas y continúen generando valor y así, el Estado de Nuevo León siga siendo un atractivo de la inversión extranjera directa y que las empresas locales logren internacionalizarse.

106

Revista Científica

Bibliografía + Asociación Mexicana de la Industria Automotriz (2018). Diálogo con la industria automotriz. Recuperado http://www.amia.com.mx/boletin/dlg20182024.pdf + Banco Nacional de Comercio Exterior BANCOMEXT (2016). Beneficios del programa “PROAUTO Integral”. Recuperado https://www.gob.mx/bancomext/ documentos/beneficios-del-programa-proauto-integral + Bernal, C. (2010). Metodología de la investigación: Administración, economía, humanidades y ciencias sociales. Colombia: Pearson Educación. + Chang, H. (2010). El modelo de la triple hélice como un medio para la vinculación entre la universidad y empresa. Recuperado http://unpan1.un.org/intradoc/ groups/public/documents/icap/unpan044042.pdf + CLAUT (2016). Miembros. Recuperado https:// www.claut.com.mx/miembros + Clúster Industrial (2018). La cuarta revolución del talento humano. Clúster Industrial, 34, 29-35. + Daecher, A. y Schmid, R. (2016). Internet of things: From sensing to doing. Recuperado https://www2.deloitte.com/us/en/insights/focus/tech-trends/2016/internet-ofthings-iot-applications-sensing-to-doing.html + Evans, D. (2011). Internet de las cosas: Como la próxima evolución de Internet lo cambia todo. Recuperado https://www.cisco.com/c/dam/global/es_mx/solutions/ executive/assets/pdf/internet-of-things-iot-ibsg.pdf + Frey, C. y Osborne, M. (2017). The future of employment: How susceptible are jobs to computerisation? Technological Forecasting and Social Change, vol. 114, págs. 254-280. + Gobierno de Nuevo León (2017). Programa Sectorial de Economía y Competitividad. Recuperado http:// www.nl.gob.mx/sites/default/files/ps-eyc-vf23enero.pdf + (2018, S.F.). Inauguran en Nuevo León primer centro de innovación industrial 4.0 de México. Recuperado http://www.nl.gob.mx/noticias/inauguran-en-nuevo-leon-primer-centro-de-innovacion-industrial-40-de-mexico


+ (2019, S.F.). Nuevo León 4.0. Recuperado http://www.nuevoleon.gob.mx/nuevo-leon-40 + González, M. (2017, 5 de Junio). Opinión: La industria 4.0, la revolución que la manufactura mexicana necesita. Recuperado https://expansion.mx/opinion/2017/06/02/opinion-la-industria-40-la-revolucion-que-la-manufactura-mexicana-necesita + Hernández, Fernández y Baptista (2014). Metodología de la Investigación. México: McGraw Hill Education. + Hewlett Packard Enterprise (2016). El Internet de las Cosas: El presente y el futuro. Recuperado https://www.roastbrief. com.mx/wp-content/uploads/2017/03/HP_IoT_Research_Report_SPANISH.pdf + IBM (2018). La cadena de suministro más inteligente del futuro. Recuperado https://www.ibm.com/downloads/cas/GZJ387WE + INEGI DENUE (2019). Directorio Estadístico Nacional de Unidades Económicas. Recuperado https://www.inegi.org.mx/ app/mapa/denue/ + Internet Society (2015). La Internet de las Cosas: Una breve reseña. Recuperado https://www.internetsociety.org/wp-content/uploads/2017/09/report-InternetOfThings-20160817-es-1. pdf + Kagermann, H.; Wahlster, W. y Helbig, J. (2013). Recommendations for implementing the strategic initiative INDUSTRIE 4.0. Recuperado https://www.acatech.de/wp-content/ uploads/2018/03/Final_report__Industrie_4.0_accessible.pdf + Mendieta, G. (2015). Informantes y muestreo en investigación cualitativa. Investigaciones Andina, 17 (30), 1148-1150. Recuperado en: http://www.redalyc.org/pdf/2390/239035878001. pdf + Mendoza, G. (2019). Ponen en operación laboratorios 4.0. Recuperado https://www.milenio.com/cultura/museo-acero-pone-operacion-laboratorios-4-0 + Mitsubishi (2017). Industry 4.0 - The road to digitalisation in future manufacturing. Recuperado https://gb3a.mitsubishielectric.com/fa/en/news/content?id=298 + Montoya, M. (2018). Colaboración: El puente del bien común. Clúster Automotriz de Nuevo León. 2 https://indd.adobe. com/view/17d36f80-c6c8-4e82-abca-016cb067ce63

+ Nava Aguirre, K. M.; Colín, J.; Cañamar, C.; Falomir, R. y Garza, J. (2019). Renegociación del TLCAN y su efecto en la industria de autopartes en México. RAN Revista Academia & Negocios, 5(1), 85-98. + OEC (2017). México. Recuperado https://oec.world/es/ profile/country/mex/ + ProMéxico (2016). La Industria Automotriz Mexicana: Situación Actual, Retos y Oportunidades. Recuperado https:// www.promexico.mx/documentos/biblioteca/industria-automotriz-mexicana.pdf + (2017, S.F.). La inserción de México en la Industria Automotriz del futuro. Recuperado http://mim.promexico.gob. mx/work/models/mim/Resource/152/1/images/insercion-industria-automotriz.pdf + PwC (2016). Industry 4.0: Building the digital enterprise. Recuperado https://www.pwc.com/gx/en/industries/industrial-manufacturing/publications/assets/pwc-building-digital-enterprise.pdf + Ramírez, D. (2016). Tier 2, El gran reto del boom automotriz: CLAUT. Recuperado http://t21.com.mx/automotriz/2016/08/19/tier-2-gran-reto-boom-automotriz-claut + Rüßmann, M.; Lorenz, M.; Gerbert, P.; Waldner, M.; Justus, J.; Engel, P. y Harnisch, M. (2015). Industry 4.0: The Future of Productivity and Growth in Manufacturing Industries. Recuperado http://www.inovasyon.org/pdf/bcg.perspectives_Industry.4.0_2015.pdf + Secretaría de Economía SE (2014). Firman alianza para el Financiamiento de la cadena productiva del sector automotriz y presentan el programa ProAuto Integral. Recuperado https:// www.gob.mx/se/prensa/firman-alianza-para-el-financiamiento-de-la-cadena-productiva-del-sector-automotriz-y-presentan-el-programa-proauto-integral + (2018, S.F.). El desarrollo de la Industria 4.0 en México. Recuperado https://www.gob.mx/se/articulos/el-desarrollo-de-la-industria-4-0-en-mexico?idiom=esry/mex + Secretaría de Economía y Trabajo (2019). Coyuntura Económica I Trimestre 2019. Recuperado http://datos.nl.gob.mx/ portfolio_page/coyuntura-economica-i-trimestre-2019/

+ Mosconi, F. (2015). The new European industrial policy: Global competitiveness and the manufacturing renaissance. London,England: Routledge.

Revista Científica

107


Edzon Ariel Balam Aldecua1, Alba Rosaura Manzanero Gutiérrez2 y Alan Alberto Castellanos Osorio3

Tecnológico Nacional de México, Campus Instituto Tecnológico de Chetumal. Av. Insurgentes No. 330 Chetumal, Quintana Roo, México. C.P. 77013. 1,2,3

acastellanos_itch@yahoo.com.mx

Resumen: El presente artículo aborda la efectividad de la política fiscal implementada en el Estado de Quintana Roo, México, para combatir la evasión del Impuesto Sobre Nómina, analizando las principales modificaciones realizadas a la normatividad de dicha contribución en el periodo comprendido de 2014 a 2017, incluyendo la creación de una Ley específica y la ampliación de los sujetos obligados al pago. Así como las acciones implementadas por las empresas a fin de mitigar el incremento en su carga tributaria, considerando que en esta entidad predominan las micro y pequeñas empresas, que dadas sus características económicas son muy afectadas por cualquier tipo de variación a la alza que se imponga en materia fiscal, en un contexto donde compiten con diversas corporaciones multinacionales de tiendas que operan cadenas de grandes almacenes de descuento y clubes de almacenes; así como la de nacionales que establecen tiendas de conveniencia o gran número de sucursales.

+

Palabras clave: Impuesto sobre nómina, política fiscal, gasto público, evasión.

Recibido: Abril 15, 2020. Recibido en forma revisada: Junio 1, 2020. Aceptado: Junio 20, 2020.

108

Revista Científica


Abstract: This article deals with the effectiveness of the fiscal policy implemented in the State of Quintana Roo, Mexico, to combat the evasion of the Payroll Tax, analyzing the main modifications made to the regulations of said contribution in the period from 2014 to 2017, including the creation of a specific Law and the expansion of the subjects obliged to pay. As well as the actions implemented by companies in order to mitigate the increase in their tax burden, considering that micro and small companies predominate in this entity, which given their economic characteristics are highly affected by any type of upward variation that is imposed in tax matters, in a context where they compete with various multinational corporations of stores that operate chains of discount department stores and department store clubs; as well as that of nationals that establish convenience stores or a large number of branches.

+ Keywords: Payroll tax, fiscal policy, public spending, evasion

Introducción

da y Crédito Público, porque en nuestro país actualmente, la parte más importante de los ingresos proviene de la recaudación de tributos. Sin olvidar la importancia que revisten los recursos generados por el petróleo, empréstitos, emisión de moneda, entre otros; que en su conjunto proveen el financiamiento necesario para la realización de sus actividades, ante esto (Aid, C. y Somo, 2011), mencionan que es importante considerar que dentro de los objetivos de la política fiscal se encuentra el promover el desarrollo y no debe considerarse como un fin meramente recaudatorio; así como para financiar la infraestructura Estatal, brindando seguridad sobre la aplicación de los recursos a la población, a través de una mayor transparencia del destino de los recursos públicos de parte del gobierno y con ello limitando los males públicos, alentando la confianza y el cumplimiento de las obligaciones tributarias, así como enfrentar la pobreza y desigualdad. Se debe agregar que (Easterly y Rebelo, 1993), considera que el tener altos niveles en impuestos que gravan de forma directa a los contribuyentes, los disuade de su cumplimiento y ocasiona una disminución en la rentabilidad del pago de impuestos, sugiriendo incrementar los impuestos indirectos, como son los Impuestos al Valor Agregado (IVA) y el impuesto Especial sobre Producción y Servicios (EPS).

Quintana Roo se encuentra entre los estados que poseen un amplio padrón de contribuyentes a nivel nacional obligados al pago del Impuesto Sobre Nómina (ISN), mismo que constituye la mayor fuente de ingresos propios del Gobierno Estatal, como resultado de esto, el actual gobierno mantiene actualizadas las normas aplicables, siendo cada vez más estrictas a fin de asegurar la recaudación.

Además (Faya Viesca, 2005), menciona que toda política fiscal, no deberá centrarse en una percepción enfocada en el ámbito tributario, debido a que significaría tener una política de ingresos y de gastos públicos, enfocada únicamente a la recaudación y el equilibrio financiero del Estado, perdiéndose el objetivo principal que es el fomentar el desarrollo económico del país.

Por ello, se expide la Ley del Impuesto sobre Nómina (2015), mediante el decreto 372 de la XIV LEGISLATURA, que en su exposición de motivos, manifiesta el objetivo de aumentar la recaudación total y propone que la misma sea invertida en beneficio de la ciudadanía. Sin embargo, por otra parte es necesario conocer las afectaciones que causan estas modificaciones en la economía de las pequeñas empresas que se encuentran sujetas a este tributo.

Dentro de las decisiones de la política fiscal, (Álvarez Alcalá, 2016), dice que el Gobierno debe de generar una institución que recaude las contribuciones, vigile el cumplimiento, realice la administración de los recursos y los actos administrativos relacionados con el mismo.

Por ello se pretende responder las siguientes interrogantes: ¿Alcanzó sus metas de recaudación con las reformas tributarias el Estado de Quintana Roo, en materia del Impuesto sobre Nómina? ¿Qué estrategias implementaron los empresarios para reducir el impacto de las reformas fiscales implementadas por el Gobierno de Quintana Roo? y ¿Cuáles fueron los efectos ocasionados en las pequeñas empresas establecidas en el Estado?

Marco Teórico Contextual Política Fiscal Federal La administración pública federal en México depende de la política económica, que se divide en monetaria y fiscal, donde la primera es supervisada por el Banco de México, con el firme propósito de mantener la estabilidad de precios, controlar la oferta monetaria en el país y promover el funcionamiento del sistema financiero. En tanto la política fiscal, es regulada por la Secretaria de Hacien-

Así mismo, el contribuyente genera erogaciones compuestas por los gastos principales, entre estos el pago del impuesto y los adicionales que se generan para el debido cumplimiento, control y pago de los mismos. Estos últimos son estrictamente indispensables para la correcta observancia de las normas fiscales vigentes. Por otra parte (Latapi Ramírez, 2000), describe tres enfoques principales de la política de ingresos que pueden aplicar las autoridades hacendarias estatales: El primer enfoque, es el recaudatorio, donde su principal objetivo es capitalizar y fortalecer al estado, mediante la ampliación de la base de contribuyentes y de los objetos gravados, aumento en tasas, así como la creación de nuevos impuestos. Como resultado este enfoque puede propiciar una disminución de las actividades económicas, un aumento en la tasa de desempleo de la región, la reducción del poder adquisitivo, un aumento de la pobreza patrimonial y a su vez inconformidad generalizada por parte de los gobernados. El segundo enfoque es el social, que tiene el fin de elevar el poder adquisitivo de toda la población por medio de la reducción de las principales contribuciones que gravan de manera directa la economía de los gobernados, así como la aplicación de tácticas fiscales con el objetivo de imponer en mayor medida a las personas con los mayores ingresos.

Revista Científica

109


En consecuencia genera la disminución en los ingresos públicos y en la inversión; el crecimiento de la inflación y el desplome del poder adquisitivo. El tercer enfoque es el promotor de la actividad económica, con el propósito de conseguir un auge y estabilidad de las empresas. A través de la aplicación de estímulos como son desgravar a los contribuyentes a ciertos sectores de la actividad económica, promover la reinversión de las utilidades con el objetivo de controlar el retiro de los dividendos, entre otros. Provocando con estas acciones una mayor actividad financiera en la entidad, la creación de empleos, el aumento en el poder adquisitivo, superávit económico y solidez social. A su vez (Resico, 2010), hace la propuesta que el gobierno cuente con un sistema propio de control y recaudación fiscal, mismo que extienda la posibilidad de poder disponer de las riquezas, redistribuir los recursos, mediante la aplicación de los bienes o servicios públicos, transparentando el manejo de los mismos dando el impulso a un buen gobierno y por ende una disminución en la corrupción. Sin embargo, el proceso de recaudación puede genera una consecuencia como lo es la disminución en la producción de determinados bienes o servicios por las altas tasas impositivas dirigidas a su elaboración o prestación, generando el incremento del precio de los mismo y a su vez una menor demanda.

Ámbito Legal del Impuesto Sobre Nóminas en Quintana Roo El ISN, es una contribución de carácter estatal que tiene por finalidad gravar un gasto o erogación, no siendo su objetivo los ingresos, sino el gasto que realizan los patrones por pagar los salarios a los trabajadores. (Comisión Representativa ante Organismos de Seguridad Social, 2017). En el año de 2013, la XIII Legislatura del Estado de Quintana Roo, aprobó la reformar a la Ley de Hacienda, en la cual se aumentaba de 2% al 3% el ISN a las empresas con residencia en el estado, los cambios buscan regular las remuneraciones de los servidores públicos de los poderes del estado, municipios y órganos autónomos. (Ley de Hacienda del Estado de Quintana Roo, 2013). Derivando en la promulgación el 15 de diciembre de 2015, de la Ley del Impuesto Sobre Nómina por el gobierno en turno, misma que representa una política de ingresos recaudatoria, como se apreciar en su exposición de motivos, buscando la optimización de la captación del mencionado impuesto, dinamizar su aplicación con el fin de facilitar la fiscalización del mismo y con esto incrementar los recursos del erario público del estado. Sin embargo, con el paso de los ejercicios fiscales y la detección de ciertas actividades no reguladas en la norma original por parte de las autoridades competentes, estas procedieron a reformarla para incorporar los cambios tecnológicos a se han implementado a nivel internacional: “El 17 de Enero de 2017 se presentó la reforma de ley al artículo 4° II párrafo la denominación del Título IV “DE LAS OBLIGACIONES”, para ser “DE LA ÉPOCA DE PAGO” que comprende los artículos 7 al 11; la denominación del Título V “DE LAS EXENCIO-

110

Revista Científica

NES”, para ser “DE LAS OBLIGACIONES” y que comprende los artículos 12 y 13; y se adicionan el Título VI denominado “DE LAS RETENCIONES” adicionándose a este mismo Título el Capítulo I denominado “DE LAS RETENCIONES EN LO GENERAL” el cual comprende los artículos 14, 15 y 16 y el Capítulo ll denominado “DE LAS RETENCIONES POR PRESTACIÓN DE SERVICIOS” el cual contendrá los artículos 16 BIS, 16 TER, 16 QUÁTER, 16 QUINQUIES y 16 SEXIES, y el Título VII denominado “DE LAS EXENCIONES”. (Ley del Impuesto sobre Nómina, 2017). Ampliándose quienes son los sujetos obligados, así como los responsables solidarios para retener y enterar el ISN correspondiente por las actividades generadores del tributo, incluyendo la contratación de servicio de personal mediante un tercero, siendo necesaria la presentación de un aviso de intermediario laboral donde se especifica nombre, denominación, razón social, registro federal de contribuyentes, domicilio fiscal en el estado de Quintana Roo de su prestador, número de empleados, tiempo para el que fueron contratados, monto de la operación realizada, vigencia de contrato y otra información relevante. Implementándose una segunda reforma el 27 de diciembre de 2017, a través del decreto 136 de la XV Legislatura. “…por la cual se reforma del párrafo primero del artículo 2, los artículos 3 y 4, los párrafos primero y cuarto del artículo 7, los artículos 8 y 9; las fracciones I y III del artículo 10, el párrafo primero del artículo 1 1, las fracciones ll y IV del artículo 12, el párrafo primero del artículo 13, los párrafos primero y tercero del artículo 16, la fracción I del artículo 16-Bis y la fracción ll del 16 Quáter; Se derogan: el inciso b) y las fracciones ll y IV del artículo 10 y la fracción I del artículo 16 Quáter; y Se adicionan: el párrafo cuarto y las fracciones l, ll, III, IV,V, VI, VII, VIII y IX al artículo 1” (Ley del Impuesto sobre Nómina, 2017).

Base y Tasa del ISN La Ley del ISN estipula en su título II, artículo 2 en su segundo párrafo, que son objeto y sujeto de este impuesto los siguientes: “...las erogaciones en efectivo o en especie por concepto de remuneraciones al trabajo personal, independientemente de la designación que se le dé, prestado dentro del territorio del Estado, bajo la dirección y/o dependencia de un patrón, contratista, intermediario o terceros o cualquiera que sea su denominación; del mismo modo se señala como sujetos a las personas físicas, morales o unidades económicas que realicen las erogaciones a que se refiere el artículo 3 de la Ley del Impuesto Sobre Nómina, así como las dependencias, los organismos descentralizados, desconcentrados, autónomos y los fideicomisos de gobierno, aun cuando estos sujetos tengan su domicilio fuera del Estado” (Ley del Impuesto sobre Nómina, 2017). Así mismo hace mención en el título III del procedimiento para determinar la base y la tasa que se aplica: “… será base del impuesto, el total de las erogaciones efectuadas por el trabajo personal subordinado y delimita el cálculo del impuesto por ejercicios fiscales, salvo cuando se trate de erogaciones en forma ocasional o por única vez, caso en el que se pagará dentro


de los cinco días siguientes a su causación; todo lo anterior con una tasa aplicable del 3% sobre la base gravable, tal como se encuentra establecido actualmente.” (Ley del Impuesto sobre Nómina, 2017).

Recaudación del ISN De los ingresos propios en el Estado de Quintana Roo el más importante es el ISN, que en el periodo comprendido por los ejercicios de 2014 a 2017 en promedio represento el 49.71% de conformidad con la información proporcionada por la Secretaria de Finanzas y Planeación (SEFIPLAN) en el periodo antes citado. Figura 1.

López, 2014), de que la implementación del ISN como una contribución ocasiono una percepción negativa por parte de los contribuyentes, mismos que consideraban que el presente impuesto no se enfocaba a los ingresos de los empleadores, si no a un empobrecimiento, esto debido a que propiciaba a una disminución en las utilidades por el pago de sueldos de los contribuyentes que cumplen a cabalidad con sus obligaciones fiscales. Esta percepción, a la postre ocasionara un incremento en el mercado informal, situación que afecta al Estado de Quintana Roo, misma que (Carrillo, 2014) recalca la existencia de un índice de evasión del ISN de aproximadamente 25.3% en 2014, de acuerdo con cifras oficiales. Así mismo menciona que esta práctica se encuentra inversamente proporcional entre el grado de evasión y el tamaño de la empresa, esto ya que entre más grande sea la misma existen mayores riesgos de ser auditada. Bajo este contexto, (Zambrano, 2017), Sub-Recaudador de Hacienda del Municipio de Bacalar, considera que para SEFIPLAN es poco rentable el cobro de las cantidades relativamente bajas de esta contribución a los pequeños contribuyentes, con respecto a los gastos que se realizan para aplicar el procedimiento administrativo de ejecución para lograr el cobro de esos adeudos.

Figura 1: Recaudación real del ISN (2014-2017). Fuente: Elaboración propia con datos de SEFIPLAN, 2018.

La recaudación de ISN ha tenido una tendencia a la alza en el periodo de 2014 a 2017, siendo apreciable que el cambio de políticas, el aumento de la base y el endurecimiento de las políticas de fiscalización incidieron en el incremento de la recaudación, sin embargo se debería profundizar el estudio con el objetivo de conocer otras causas específicas que incidieron en la recaudación del impuesto. Por otro lado, dichas actuaciones generan desequilibrios en las operaciones de los contribuyentes, ya que esas diligencias legales en los domicilios fiscales interrumpen el funcionamiento normal de la empresa, generando costos que afectan la rentabilidad de los negocios. Ante esto, los sujetos pasivos buscaron alternativas legales y financieras que permitieran disminuir los efectos ocasionados por el ejercicio de dichas facultades por parte de la hacienda pública del Estado de Quintan Roo; reduciendo y/o evitando el incremento en sus costos fiscales indirectos derivados de las revisiones que repercutían directamente en sus utilidades, manteniendo sus precios acorde a los del mercado, o en última instancia procedieron a incrementarlos para recuperar dichos costos; otra opción fue el recorte de personal o la contratación de prestadoras de servicios también conocidos como intermediarios laborales o outsourcing, que antes de la reforma en comento se aprovechaban de las lagunas que existían en las normas legales del ISN; y en casos extremos realizaron acciones fuera del marco legal para disminuir su carga tributaria.

Convergiendo con ello, (Barcelata Chávez y Ruíz Ramírez, 2015), consideran que la probabilidad de ser auditado como empresa se encuentra estrictamente proporcional al tamaño de la misma, esto debido a que si es una empresa grande aumenta la posibilidad, debido a que se vuelve más rentable para la realización de una auditoria conforme los montos totales de beneficio que se pueda obtener, mismos que son mayores si la empresa es económicamente mayor, siendo más rentable la realización de todo el proceso para las autoridades.

Destino de los Ingresos del ISN en Quintana Roo En Quintana Roo, de conformidad con su Ley de Egresos de 2016, la recaudación total del ISN se destinaba en forma específica para fortalecer la educación a nivel medio superior y superior, en concreto: “ ..A los Servicios Educativos de Quintana Roo, el Colegio de Bachilleres, el Centro de Bachillerato Técnico “Eva Sámano de López Mateos”, el Colegio de Estudios Científicos y Tecnológicos, el Colegio de Educación Profesional Técnica, el Instituto Superior de Felipe Carrillo Puerto, la Universidad Tecnológica de Cancún, Universidad Intercultural Maya de Quintana Roo, Universidad Politécnica de Quintana Roo, Universidad Tecnológica de Chetumal y la Universidad Politécnica de Bacalar” Sin embargo a partir del ejercicio de 2017, se elimina el destino exclusivo para la educación de la totalidad de dichos recursos obtenidos del ISN, y se incorpora como una fuente de financiamiento denominada “Recursos de Libre Disposición Estatal”, generando con ello la imposibilidad legal, técnica y material de identificar el destino de los recursos generados por la contribución analizada.te

Por otra parte y considerando la percepción de los contribuyentes sobre este tributo, se fortalece la expresado por Chapoy, citado por (Platas

Revista Científica

111


Materiales y métodos Se debe especificar que para su realización se llevó a cabo una investigación con enfoque cualitativo donde los datos se obtuvieron a partir de la observación directa, a través de entrevistas, investigación y análisis. Posteriormente se aplicaron procedimientos interpretativos y analíticos para el abordaje del objeto de estudio del ISN. Debido a que se buscó determinar las causas de la evasión de este tributo por medio del cumplimiento de pasos determinados en un proceso sistemático, así como la implementación de la observación de ciertas condiciones presentadas en los sujetos a investigar con respecto a la información que los mismos nos proporcionen. En cuanto al ámbito aplicado, fue transversal, debido a que en el proceso de obtención de información se realizó una única vez para la población existente en el momento y que cumpliera con los criterios para la realización de la misma, en cuanto al periodo de tiempo utilizado de referencia, se abarcaron los años de1 2014 al 2017.

Resultados La implementación de políticas fiscales con enfoque puramente recaudatorio, como es el caso de la Ley del ISN, es una táctica muy arraigada y arriesgada en los gobiernos subnacionales, esto debido a que fomenta prácticas inadecuadas por parte de los contribuyentes, como lo es la evasión, con el único objetivo de disminuir el impacto que este tipo de tributos ocasionan, que aunado al poco o nulo interés que manifiestan las propias autoridades recaudadoras del cobro de cantidades monetaria justas, equitativas y proporcionales, constituyendo en si un aliciente que fortalece la evasión realizada por las empresas con los recursos suficientes y desalentando a los pequeños negocios a permanecer en la formalidad. Así mismo, estas empresas son las más afectadas con la carga tributaria de que son sujetas, ya que los requisitos para establecidos para que puedan iniciar operaciones y para el refrendo anual, constituyen un riesgo para su apertura, continuidad y desarrollo económico, o en su caso fomentan el cierre de las mismas.

Discusión y Conclusiones El pago de impuestos por parte de los contribuyentes, es considerado una carga económica para sus negocios y utilidades. Y no como una aportación que generara beneficios para todas las personas que viven en el país, al considerar las aportaciones como un impedimento para realizar de manera beneficiosa las actividades económicas cotidianas se ha convertido en una práctica cada vez más común la implementación de acciones inadecuadas como lo son el uso de las nóminas fiscales y no fiscales, la no formalización de las relaciones laborales, contratar únicamente por honorarios, entre otras acciones con la intención de disminuir el pago de contribuciones, pero del mismo modo afectando a los trabajadores al no recibir los derechos propios por trabajar. En conclusión, es constitucionalmente cierto que todos los contribuyentes tienen la obligación de contribuir al gasto público, tanto de la federación, estado y municipio en que residan, sin embargo, la política

112

Revista Científica

fiscal implementada por el gobierno subnacional del Estado de Quintana Roo, únicamente persigue un fin recaudatorio, que ciertamente logra incrementar la recaudación del Impuesto sobre Nómina, al reducir la evasión en forma significativa, sin embargo, las empresas con mayor capacidad económica logran implementar mecanismos, como el outsourcing y/o recortes de personal, para disminuir el pago de dicho tributo. Por el contrario las pequeñas empresas resintieron directamente la aplicación de las reformas fiscales implementadas, llegando a ocasionar su cierre como empresas formales y que se incorporaran a la informalidad. Por otra parte, estos contribuyentes manifestaron un alto grado de inconformidad con dicha carga tributaria al considerarla excesiva, más aun, ya que no perciben una retribución directa o indirecta en su beneficio como sociedad por parte de las autoridades estatales. Aspecto que resulta relevante investigar en el futuro.


Bibliografía + Artículos 1. Carrillo, J. (24 de 06 de 2014). sipse.com. Obtenido de https://sipse.com/novedades/pefieren-evadir-el-impuesto-de-nomina-98140.html 2. Platas López, A. (2014). unam.mx. Obtenido de www.premiounaminteraccionespwc.unam.mx 3. Easterly, W., y Rebelo, S. (1993). Fiscal policy and economic growth. Journal of monetary economics, 32(3), 417-458. Entrevista 1. Zambrano, J. (20 de Octubre de 2017). (E. A. Balam Aldecua, Entrevistador) Chetumal, Quintana Roo, México. Libros 1. Álvarez Alcalá, A. (2016). Lecciones de Derecho Fiscal. Cidudad de México, Distrito Federal, México: Oxford. 2. Comisión Representativa ante Organismos de Seguridad Social. (2017). Impuestos Estatales a la Nómina, su retención y su dictamen fiscal. Ciudad de México: Instituto Mexicano de Contadores Públicos. 3. Faya Viesca, J. (2005). Finanzas Públicas. Ciudad de México, Distrito Federal, México: Porrúa. 4. Latapi Ramírez, M. (2000). Introducción al Estudio de las Contribuciones. Ciudad de México, Distrito Federal, México: Mc Graw Hill.

1. Barcelata Chávez, H., y Ruíz Ramírez, J. (2015). Incumplimiento tributario en impuestos descentralizados. Horizontes de la Contadurìa, 2, 46-61. Leyes 1. Ley de Hacienda del Estado de Quintana Roo. (19 de Agosto de 2013). congresoqroo.gob.mx. Obtenido de documentos.congresoqroo.gob.mx/historial/13_legislatura/decretos/3anio/4PE/dec307/E1320130813307.pdf 2. Ley del Impuesto sobre Nómina. (15 de Diciembre de 2015). Congreso del Estado de Quintana Roo. Obtenido de http://documentos.congresoqroo.gob.mx/leyes/fiscal/ley153/ L1412015215372.pdf 3. Ley del Impuesto sobre Nómina. (17 de Enero de 2017). Congreso del Estado de Quintana Roo. Obtenido de http://documentos.congresoqroo.gob.mx/leyes/fiscal/ley153/ L1520170117040.pdf Ley del Impuesto sobre Nómina. (27 de Diciembre de 2017). Congreso del Estado de Quintana Roo. Obtenido de http://documentos.congresoqroo.gob.mx/leyes/L167-XV-27122017-613.pdf Sitio Web 1. Christian Aid y SOMO. (Enero de 2011). https://www. somo.nl. Obtenido de https://translate.googleusercontent.com/ translate_c?depth=1&hl=es&prev=search&rurl=translate.google.com&sl=nl&sp=nmt4&u=https://taxjusticetoolkit.org/&xid= 17259,15700021,15700186,15700191,15700256,15700259,1570 0262,15700265,15700271,15700280,15700283&usg=

5. Resico, M. F. (2010). Introducción a la Economía Social de Mercado. Buenos Aires, Argentina: Konrad-Adenauer-Stiftung. Revistas

Revista Científica

113


Luz María Hernández Cruz1, Diana Concepción Mex Alvarez2, Margarita Castillo Tellez3 y Oscar Ezequiel De la Cruz Ek4

Universidad Autónoma de Campeche Campus V, predio S/N por Avenida Ing. Humberto Lanz Cárdenas y Fracc. Ecológico Ambiental Siglo XXIII, Colonia Ex Hacienda Kalá San Francisco de Campeche, Campeche, México, C.P. 24085. 1,2,3,4

lmhernan@uacam.mx

Resumen: En la actualidad una preocupación que examinen las organizaciones es el implementar y aplicar estándares que permitan la administración eficiente y eficaz de proyectos, logrando el éxito de los mismos. Sin embargo, existen proyectos con un carácter de dinamismo elevado, particularmente los proyectos de desarrollo de software. Actualmente, la administración de proyectos está dando un giro importante, teniendo como una tendencia la administración ágil. El objetivo de la presente investigación es evaluar los factores críticos de éxito en la administración ágil de proyectos, bajo una metodología propuesta de dos fases: análisis sistemático de la literatura y evaluación de factores críticos de éxito, agregando valor al juicio de expertos exhibiendo una evaluación empírica del Proyecto “Plataforma Virtual de Gestión de Asesorías Académicas”. Esta investigación está enfocada a proyectos de desarrollo de software, pero la administración ágil no es exclusiva de este tipo de proyectos, ya que puede ser artificado diversos ámbitos, posibilidad de la aplicación e investigación para estudios futuros.

+

Palabras clave: Administración ágil de proyectos, Factores críticos, Plataforma Virtual.

Recibido: Abril 15, 2020. Recibido en forma revisada: Junio 1, 2020. Aceptado: Junio 20, 2020.

114

Revista Científica

Abstract: Today, many countries are concerned with implementing and applying standards that allow the efficient and effective adminis-


tration of projects, achieving their success. However, there are projects with a high dynamic nature, particularly we refer to software development projects. Currently, project management is taking an important turn, with agile management as a trend. The objective of this research is to evaluate the critical success factors in the agile administration of projects, under a proposed two-phase methodology: Systematic analysis of the literature and Evaluation of critical success factors. Adding value to the judgment of experts exhibiting an empirical evaluation of the Project “Virtual Platform for Academic Advisory Management”. This article is focused on software development projects, but agile management is not exclusive to this type of project, leaving a line of research for future studies.

+

Keywords: Agile project management, critical factors, virtual platform.

Introducción La gestión de proyectos consiste en responder preguntas como: ¿Qué problema se va a solucionar? ¿Cómo se va a resolver el problema? ¿Qué plan se tiene? ¿Cómo se sabe que el proyecto está terminado? ¿Cómo Salió el proyecto? (Toala, Romero, Ganchozo, Alvarez, Jaime, Pinargote y Bazurto, 2019). La administración de proyectos es la aplicación de conocimiento, habilidades, herramientas y técnicas a las actividades necesarias para alcanzar los objetivos del proyecto. La administración de proyectos eficiente ahorra recursos y facilita la entrega del producto final en tiempo y forma. La administración eficiente del proyecto implica la utilización de procesos de gestión para las etapas de inicio, planificación, ejecución, control y cierre del proyecto. Las herramientas de administración de proyectos sirven para proporcionar a los miembros del equipo de trabajo estructura, flexibilidad, control necesario para alcanzar resultados extraordinarios a tiempo y dentro del presupuesto. (Lledó y Rivarola, 2017)

Para la administración de un proyecto es importante considerar los siguientes puntos, como una guía para estar involucrados más íntimamente según Aceves (2018): • • • • • • • • • • • •

Nunca iniciar un proyecto sin tener un objetivo bien definido. Fragmentarlo en partes. Invertir tiempo en la planeación. Involucrar al equipo de trabajo tanto en la planeación como en el control. Hacer que el equipo de trabajo involucrado sea lo más tangible posible. Prevenir los problemas antes que ocurran. Establecer una línea base antes de iniciar su ejecución. Evitar perder de vista el objetivo principal. Establecer un proceso bien definido para monitorearlo y controlarlo. Enfocar y dedicar esfuerzos. Toma tiempo necesario para concluirlo. Utilizar una metodología estándar para administrarlo.

La gestión de proyectos ha demostrado ser una forma eficaz y eficiente de dirigir y gestionar muchos tipos de cambios en las organizaciones. Permite a las organizaciones cumplir con: • Uso más eficiente del recurso escaso. • Mejora de la rentabilidad y la mejor relación calidad / precio. • La identificación y gestión de las actividades del proyecto tanto en las fases iniciales de un proyecto como a lo largo de su ciclo de vida. • El desarrollo del personal que trabaja en proyectos, ayudando a mejorar la capacidad de los individuos y, por ende, la capacidad de la organización. (Lester, 2017)

La dirección de proyectos eficaz y eficiente debe considerarse una competencia estratégica en las organizaciones. Ésta permite a las organizaciones: ligar los resultados del proyecto a los objetivos del negocio, competir de manera más eficaz en sus mercados, sustentar la organización, y responder al impacto de los cambios en el entorno del negocio sobre los proyectos mediante el ajuste adecuado de los planes para la dirección del proyecto. (Project Management Institute, Inc., 2017) El desarrollo de software requiere prácticas especiales de gestión de proyecto, ya que su producción tiene una naturaleza diferente, este es el primer paso de un camino importante que definirá el éxito o el fracaso de un proyecto. El software no posee pasos intermediarios que puedan ser verificables como válidos durante su ciclo de vida (Laínez, 2015). La producción de software es diferente, la naturaleza compleja y enfoque innovador a los proyectos relacionados con la tecnología requiere de herramientas que proporcionen un desarrollo eficiente y de calidad en el área de gestión de proyectos. En el área de tecnología, la gestión de proyectos debe considerar que el desarrollo de software es un proceso esencialmente creativo que reúne profesionales con talento y conocimiento diferenciado con el objetivo de construir un producto valioso. (Sommerville, 2015). Laínez afirma que el software es un producto empírico, por lo que es un error adoptar procesos rígidos en proyectos de software, y las metodologías ágiles reconocen la naturaleza empírica del software y están preparadas para acoger los cambios frecuentes, ofrecen rapidez para realizar los cambios idóneos a partir del feedback de los usuarios y se presentan con metodologías leves, enfocadas al software funcional en vez del formalismo de la documentación extensa. Lo que es claro, la administración de proyectos ha cambiado, el enfoque clásico compite con la gestión ágil, y recientemente con enfoques híbridos. Sin embargo, el objetivo de todos es el mismo, alcanzar el éxito del proyecto cumpliendo los requisitos de calidad, tiempo y recursos asignados. La hipótesis planteada es “La gestión ágil de proyectos contribuye al éxito de un proyecto”. La variable dependiente de estudio (VD1) define el éxito de un proyecto de desarrollo de software con una administración ágil y las variables independientes (VIn) serán aquellos factores críticos de éxito que se analizan en esta investigación.

Revista Científica

115


Gestión Ágil de Proyectos La gestión ágil de proyectos es un estilo de gestión de proyectos que se centra en entrega temprana de valor comercial, mejora continua de productos y procesos del proyecto, flexibilidad de alcance, aportes del equipo y entrega de productos bien probados que reflejan las necesidades del cliente. Se denomina Gestión Ágil de Proyectos (Agile Project Management) a un conjunto de metodologías que permiten el desarrollo de proyectos que precisan de una especial rapidez y flexibilidad en su proceso y en especial, aquellos desarrollados en entornos dónde encontramos una incertidumbre muy alta. La gestión ágil de proyectos es un enfoque iterativo para planificar y guiar los procesos del proyecto. Un proyecto ágil se constituye de varias iteraciones. Cada iteración es revisada y criticada por el equipo del proyecto. Los conocimientos adquiridos a partir de la crítica de una iteración se utilizan para determinar cuál debe ser el siguiente paso en el proyecto. El principal beneficio de la gestión de proyectos ágiles es su capacidad para responder a los problemas que puedan surgir a lo largo del transcurso del proyecto. Hacer un cambio necesario para un proyecto en el momento adecuado puede ahorrar recursos y, en última instancia, ayudar a entregar un proyecto exitoso a tiempo y dentro del presupuesto.

La agilidad en la gestión de proyectos abarca tres áreas clave: • Asegurar que el equipo de desarrollo pueda ser productivo y sostenible, aumentar la productividad durante largos períodos de tiempo. • Asegurar que la información sobre el progreso del proyecto esté disponible para las partes interesadas, sin interrumpir el flujo de actividades de desarrollo preguntando al equipo de desarrollo por actualizaciones. • Manejar solicitudes de nuevas características a medida que ocurren e integrándolas en el ciclo de desarrollo del producto.

De los 12 principios propuestos en el Manifiesto Ágil, sobresalen para la Gestión Ágil de Proyectos, los siguientes: • Aceptar los requisitos cambiantes, incluso en etapas avanzadas de desarrollo. Aprovechar el cambio para la ventaja competitiva del cliente. • Los procesos ágiles promueven el desarrollo sostenible. Los patrocinadores, desarrolladores, y los usuarios deberían poder mantener un ritmo constante indefinidamente. • La simplicidad, el arte de maximizar la cantidad de trabajo no realizado, es esencial.

116

Revista Científica

A continuación, se presentan los beneficios primordiales que la Gestión Ágil de Proyectos provee a las organizaciones, equipos de proyectos y productos: • Los equipos de proyectos ágiles logran un tiempo de comercialización más rápido y, en consecuencia, producen ahorros. Comienzan el desarrollo antes que en los enfoques tradicionales. Los enfoques ágiles minimizan la planificación inicial exhaustiva y la documentación que convencionalmente es parte de las primeras etapas de un proyecto en cascada. • Los equipos de desarrollo ágiles son autoorganizados y autogestionados. El esfuerzo de gestión que normalmente se pone en decirles a los desarrolladores cómo hacer su trabajo puede ser aplicado para eliminar impedimentos y distracciones organizacionales. • Los equipos de desarrollo ágiles determinan cuánto trabajo pueden lograr en una iteración y comprometerse a lograr esos objetivos. La propiedad es fundamentalmente diferente porque el equipo de desarrollo está estableciendo el compromiso, no cumpliendo con un compromiso desarrollado externamente. • Un enfoque ágil pregunta: “¿Cuál es lo mínimo que se puede hacer para lograr el objetivo?” en lugar de centrarse en incluir todas las características y mejoras adicionales que posiblemente podría ser necesario. Un enfoque ágil generalmente significa agilizar: documentación apenas suficiente, eliminación de reuniones innecesarias, evitación de comunicación ineficiente (como el correo electrónico) y menos codificación (solo lo suficiente para hacerlo funcionar). • Al encapsular el desarrollo en etapas cortas que duran de una a cuatro semanas o menos, puede cumplir con los objetivos de la iteración actual mientras acomoda cambio en iteraciones posteriores. La longitud de cada sprint sigue siendo la misma en todo el proyecto para proporcionar un ritmo de desarrollo predecible para el equipo a largo plazo. • Planificación, elaboración de requisitos, desarrollo, prueba y demostración. La funcionalidad se produce dentro de una iteración, lo que reduce el riesgo de encabezado en dirección incorrecta por largos períodos de tiempo o desarrollar algo que el cliente no quiere. • Las prácticas ágiles fomentan un ritmo constante de desarrollo productivo y saludable. Prioridades, experiencia en el proyecto existente y, eventualmente, la velocidad en qué desarrollo ocurrirá. (Layton y Ostermiller, 2017)

Materiales y métodos La metodología llevada a cabo en este estudio se dividió en dos fases: La primera fase, denominada Revisión Sistemática de la Literatura (RSL), donde se buscó definir los indicadores o factores considerados críticos para una administración ágil en un proyecto, y que además conlleve al éxito. La segunda fase, Evaluación de la administración ágil de proyectos de desarrollo de software, donde se exhibió el caso de


estudio, que evalúa con un método empírico, si el proyecto abarca los factores para considerar que se utilizó una administración ágil. La Figura 1, muestra el esquema de metodología y métodos empleados en el presente estudio.

Discusión de resultados La Figura 2 muestra los resultados consolidados al evaluar los indicadores Cultura organizacional cooperativa y Comunicación oral (cara a cara), definidos para la VD1 Estrategia. El 92% de los interesados, afirmaron que la administración de proyectos ágiles deberá estar alineada a los objetivos, visión y estrategias de la organización en la que impacta el proyecto y que la comunicación cara a cara es crucial.

Figura 1. Metodología y Métodos aplicados en el estudio. Fuente: Elaboración propia.

Resultados

Como resultado del estudio realizado, se identificaron y definieron los 15 factores críticos de éxito para una administración ágil de proyectos, agrupados en 4 dimensiones o variables. La Tabla 1, muestra los factores críticos de éxito propuestos para una administración ágil de proyectos.

Figura 2. Resultados obtenidos de la VD1 Estrategia. Fuente: Elaboración propia.

La Figura 3, muestra los resultados consolidados al evaluar los indicadores de calidad (entrega del resultado del proyecto), alcance (cumple con todos los requisitos), tiempo (entrega a tiempo) y costo (entrega dentro del costo y esfuerzo estimado), definidos para la VD2 Éxito Real.

Tabla 1. Factores críticos de éxito para la administración ágil de proyectos. Fuente: Elaboración propia.

Una vez definidas las variables independientes a evaluar en el caso de estudio, se emplea la técnica Delphi con el equipo del proyecto e interesados que intervinieron durante todo el ciclo de vida del proyecto. Además, se emplea el juicio de expertos, para sustentar los resultados obtenidos al aplicar la técnica mencionada. También, se utiliza la observación para realizar un análisis del proceso de gestión del proyecto. Por último, se consolida la información recabada para extraer los resultados.

Figura 3. Resultados obtenidos de la VD2 Éxito Real. Fuente: Elaboración propia.

Revista Científica

117


La Figura 4, muestra los resultados consolidados al evaluar los indicadores: Enfoque (reuniones diarias), Seguir una gestión de requisitos orientada a los procesos ágiles, El alcance del proyecto bien definido y Los profesionales ágiles siguen un mecanismo de progreso ágil, definidos para la VD3 Planificación.

Conclusiones En la actualidad las empresas y organizaciones están preocupadas en elevar su eficiencia y productividad, además con el avance de la tecnología, es común e indispensable automatizar procesos mediante el uso de software. La industria de software se ha incrementado considerablemente y con ello, surgen nuevos enfoques, paradigmas y metodologías para la producción de software. Aunado a esto, está implícita la búsqueda del éxito de proyectos de desarrollo de software. La administración ágil de proyectos es un enfoque que permite dar seguimiento a proyectos cuyos requerimientos cambian frecuentemente. Este enfoque envuelve un conjunto de factores críticos que permiten que los proyectos alcancen el éxito. La administración ágil surge en el ámbito del desarrollo de software, sin embargo, puede ser aplicada en diferentes áreas. A partir del análisis de fuentes científicas se identificaron los factores críticos de éxito para la dirección ágil de proyectos de forma eficiente y eficaz, esto aporta con claridad una guía para fortalecer las actividades y tareas a llevar a cabo en esta gestión.

Figura 4. Resultados obtenidos de la VD3 Planificación. Fuente: Elaboraión propia.

La Figura 5, muestra los resultados consolidados al evaluar los indicadores: buena relación con el cliente, trabajo en equipo autoorganizado, equipo motivado, miembros del equipo con alta competencia y experiencia y apropiación y capitalización de las lecciones aprendidas en proyectos pasados para ser aplicadas en futuros proyectos, definidos para la VD4 Equipo (Personas).

Conjuntamente, mediante el caso de estudio, se pudo recoger con un instrumento ád hoc con la información relevante respecto a las cuatro variables identificadas que abarcan a todos los factores críticos de éxito descritos. El análisis y resultado de estos datos se resumen a continuación, la variable Estrategia es ampliamente reconocida dentro de la gestión ágil como crítica, ya que el 92% de los encuestados la consideran de esta manera. La variable planificación también es significante al obtener un 76% de la ponderación, haciendo referencia a su impacto e importancia en el proceso de la gestión de proyectos. Una variable menos valorada, con sólo el 56%, fue la variable de equipo (personas) que impacta en la gestión ágil según la información procesada en el caso de estudio. Finalmente, el 28% consideran éxito real a ser medible con ciertos factores críticos de éxito, en su mayoría, los encuestados resaltan que esta variable es difícil de evaluar y muy particular al contexto de desarrollo de cada proyecto. Al analizar el caso de estudio se puede discernir claramente, que las variables definidas están directamente relacionadas con la administración ágil y que éstas son sobresalientes en el logro de los objetivos y éxito del proyecto.

Figura 5. Resultados obtenidos de la VD4 Equipo (personas). Fuente: Elaboración propia.

De lo anterior, se puede resumir que las cuatro variables identificadas como factores críticos de éxito en la administración ágil de proyectos, poseen una estrecha relación (Totalmente de acuerdo y De acuerdo) con el éxito del proyecto, en apego al estudio experimental, juicio de expertos y la aserción del equipo involucrado durante todo el ciclo del mismo.

Conclusión

118

Revista Científica

Por último, esta investigación deja un precedente para el análisis de nuevos enfoques para la administración ágil de proyectos, e inclusive para la aplicación de estándares y metodologías híbridas. Asimismo, el proceso de desarrollo de software sigue siendo un reto debido a la flexibilidad y adaptabilidad de requerimientos, satisfacción del cliente, aplicación de tecnologías y un gran número de factores, que, sin lugar a dudas, requieren de análisis y estudio por parte de la comunidad científica.


Bibliografía

9781628254181.

+ Aceves, P. (2018). Administración de proyectos. Enfoque por competencias. México: Grupo Editorial Patria, S.A. de C.V. ISBN # 9786077448952.

+ Project Management Institute, Inc. (2017). Guía de los Fundamentos para la Dirección de Proyectos: Guía del PMBOK (6° ed.). Pennsylvania, Estados Unidos de América: Project Management Institute, Inc. ISBN # 9781628251944.

+ Biafore, B., y Stover, T. S. (2018). Gestión de proyectos en el mundo real. Madrid: Anaya Multimedia. ISBN # 9788441532250.

+ Project Management Institute, Inc. (2019). PMI. Project Management Institute. Obtenido de https://americalatina.pmi. org/latam/AboutUS/WhatisPMI.aspx

+ Chiyangwa, T. B., y Mnkandla, E. (2017). Modelling the critical success factors of agile software development projects in South Africa. South African Journal of Information Management, 19(1), a838. doi:https://doi.org/10.4102/sajim.v19i1.838. ISSN # 2078-1865.

+ Ramos, D. (2016). Desarrollo de Software. Requisitos, Estimaciones y Análisis. (2° ed.). IT Campus Academy. ISBN # 9781503259485.

+ Fernandes, E., Meirelles, G., y Picinini, M. (2017). Evaluation of PMBOK and SCRUM practices for software development in the vision of specialists. Independent Journal of Management & Production; Special Edition IFLOG 2016., 8(5), 569-582. doi:10.14807/ijmp.v8i5.598. e- ISSN # 2236-269X. + Laínez, J. R. (2015). Desarrollo de Software Ágil: Extremme Programming y Scrum. (2° ed.). IT Campus Academy. ISBN # 9781519620149. + Layton, M. C., y Ostermiller, S. J. (2017). Agile Project Management for Dummies (2° ed.). New Jersey: John Wiley & Sons, Inc. ISBN # 9781119405696.

+ Ramos, D., Noriega, R., Laínez, J. R., y Durango, A. (2017). Curso de Ingeniería de Software (2° ed.). IT Campus Academy. ISBN # 9781544132532. + Sommerville, I. (2015). Software Engineering (10° ed.). Pearson Education. ISBN # 9780133943030. + Toala, M. A., Romero, R. M., Ganchozo, M. T., Alvarez, C. A., Jaime, M. A., Pinargote, J. d., . . . Bazurto, J. A. (2019). Introducción a la Gestión de Proyectos. Manabí: Editorial Área de Innovación y Desarrollo, S.L. doi:http://dx.doi.org/10.17993/ IngyTec.2018.49. ISBN # 9788494953552.

+ Lester, A. (2017). Project Management, Planning and Control: Managing Engineering, Construction and Manufacturing Projects to PMI, APM and BSI Standards (7th ed.). Cambridge: ELSEVIER. ISBN # 9780081020203. + Lledó, P. (2012). Gestion Agil de Proyectos: Lean Project Management. Pablo LLedó. ISBN # 9781466921191. + Lledó, P., y Rivarola, G. (2007). Gestión de proyectos. Buenos Aires: Prentice Hall - Pearson Education. ISBN # 9789871147984. + Moreno, N., Salazar, F., y Delgado, S. (2019). Comparative Analysis of Methodological Trends in the Management of Software Projects: Identification of the Main Variables. Tehnički vjesnik, 26(1), 80-86. doi:https://doi.org/10.17559/TV20170824233730. ISSN # 1330-3651. + Ollé, C., y Cerezuela, B. (2018). Gestión de proyectos paso a paso. Barcelona: UOC. ISBN # 9788491169116. + Project Management Institute, Inc. (2017). Agile Practice Guide. Pennsylvania: Project Management Institute, Inc. ISBN #

Revista Científica

119


José Emmanuel Rodríguez Hernández 1, Mario César Osorio Abraham 2, José Guadalupe Navarro Coronado 3 y Rene Sanjuan Galindo 4

Centro de Investigación e Innovación Tecnológica. Tecnológico Nacional de México, Instituto Tecnológico de Nuevo León, Av. de la Alianza No. 507, interior del Parque de Investigación e Innovación Tecnológica (PIIT). Km. 10 de la Autopista al Aeropuerto Internacional Mariano Escobedo. Apodaca, N.L. C.P. 66629.

renesg1@yahoo.com.mx

Recibido: Abril 15, 2020. Recibido en forma revisada: Junio 1, 2020. Aceptado: Junio 20, 2020.

120

Revista Científica

Resumen: El presente trabajo describe la propuesta de mejora desarrollada en un proceso de tratamientos térmicos en la manufactura de piezas metálicas para tracto camiones de una empresa del sector privado con un mercado internacional, localizada en el estado de Nuevo León, México. Se identificó un cuello de botella debido a que se procesan dos productos diferentes de diversos modelos lo que es causal de una acumulación de tiempos de espera. Se utilizó el software de simulación FlexSim y se implementó la metodología Taguchi, basada en arreglos ortogonales mediante los cuales se busca obtener la máxima productividad evaluando factores controlables y factores no controlables (Roy, 2010). Los resultados del análisis y simulación sugieren mejoras significativas de la producción en la línea de manufactura estudiada.

+

Palabras clave: Manufactura de engranes, Procesos térmicos, Modelación por computadora, FlexSim, Método Taguchi.

Abstract: The present work describes an improvement proposal for the truck pieces manufacturing in a thermal-treatment process of a private capital enterprise which has a global market, placed in the Nuevo León, state in Mexico. A bottleneck was detected caused by the two kinds of products processed and a variety of models, which produces waiting times accumulation. The FlexSim software was used, as well


as the Taguchi methodology, based on orthogonal arrangements, were applied to obtain the maximum productivity and controllable factors and non-controllable factors were tested (Roy, 2010). Results from the analysis and simulation suggest important improvements for the manufacture process-line that was studied.

+ Keywords: Gear manufacturing, thermal processes, computational modeling, FlexSim, Taguchi method.

Introducción Optimización y simulación de sistemas Con el fin de ganar competitividad, la industria de manufactura emprende acciones para incrementar el rendimiento y la productividad, también para mantener la cartera de clientes y posicionarse en los más altos estándares del mercado. En este escenario, la simulación computacional es una herramienta complementaria a técnicas Lean como: Value Stream Mapping, Kanban y Heijunka (producción nivelada y mezclada) o el concepto de células de fabricación. El modelado permite diseñar y operar sistemas virtuales, basados en procesos reales de producción que conduzcan a optimizar los recursos e impacten en la reducción de tiempos, el manejo de inventarios, la operación de almacenes, el mejoramiento de costos, y la maximización de la utilidad del equipo o la administración de operarios en toda la cadena de valor del proceso (Simio, s/a, Tokgöz, 2017). Mientras que las técnicas de prueba y error son menos utilizadas cada vez, debido a altos costos y excesivo tiempo requerido, el diseño y simulación por computadora genera ahorros, evita costos de fabricación y previene cambios no convenientes en la producción (Villaseñor y Galindo, 2011). Entre sus ventajas se sitúa el menor gasto realizado mediante simulación respecto a la experimentación mediante pruebas reales, la posibilidad de ensayar con experimentación en diferentes escenarios y métodos se diversifica y amplía (García, García y Cárdenas, 2013). En algunos casos la experimentación mediante métodos analíticos clásicos podría resultar imposible o laborioso de resolver. Mediante simulación computacional se puede evaluar la capacidad del sistema de producción a diferentes escenarios, además que los modelos computacionales facilitan la toma de decisiones, particularmente en casos difíciles donde la operatividad de la empresa depende del óptimo manejo de grandes cantidades de datos. Sin embargo, los resultados de un modelo computacional tendrán mayor beneficio si en el modelo aumenta el nivel de consideración de la variabilidad, equiparable a la situación real. En la literatura se reporta la aplicación de modelos orientados a atender y prevenir cuellos de botella, etapas de preparación de la materia prima, manejo de los insumos requeridos en procesos secundarios, en el transporte de bienes intermedios y su transformación, o bien en el uso y rendimiento de la maquinaria y equipo, el entrenamiento del operario y el cumplimiento de pedidos. Los tiempos de espera y los fallos en la línea de producción son problemas frecuentes que pueden estudiarse a través de algoritmos de cómputo que traerán como beneficio que las empresas cuenten con nuevas estrategias de mejora, aumenten producción, y optimicen el desempeño en sus líneas de trabajo (Koch, 2015). Bastian solutions, una compañía dedicada a la distribución automatizada de bienes, implementó un modelo computacional para innovar sus pro-

cesos y entrega de pedidos, mejorar el balanceo de la carga de trabajo, el sistema de control de almacén y la productividad del operador (Sitio oficial de FlexSim, 2020). Kikolski (2016) reportó el caso en el que se analizaron opciones de mejora en una línea de producción integrada para reducir los tiempos de espera entre cada etapa y mejorar la productividad. Dicho trabajo inició descartando opciones poco viables de llevarse a cabo en la práctica, entre estas encontraron aumentar turnos de trabajo, horarios extra en las jornadas de trabajo, reforzamiento del control de calidad en las etapas de la línea de producción que redujeran la tasa de rechazo en etapas intermediarias, entre otros. Se investigó el comportamiento de la producción considerando la expansión de la maquinaria integrada a la línea del proceso y los resultados mostraron la reducción considerable de los tiempos de espera y el aumento el tiempo de producción individual en cada equipo, principalmente. Por su parte, Velumani y Tang (2017), reportaron el análisis de una etapa del proceso de manufactura de neumáticos utilizando un modelo simulación de eventos discretos. Entre las variables alimentadas al modelo estuvieron la eficiencia de la máquinaria, la confiabilidad, la calidad y el tiempo de configuración. Los resultados del modelado estimaron la reducción de tiempos de espera innecesario, se propuso mejorar la eficiencia de la producción a partir de la reprogramación de operaciones, se compararon opciones de mantenimiento y las rutas alternativas del flujo de producción en caso de no estar disponible la máquina, y también la viabilidad de instalar maquinaria adicional. Para un proceso de explotación de minas se optimizó y simuló numéricamente la extracción de minerales (Fiorini, Franzese, Bianchi, Ezawa, Pinto y Miranda, 2008). En sus resultados, los autores exhibieron la variabilidad y dependencia de la cantidad de mineral contenido en el material de carga en las unidades de transporte y se mejoró la planeación de la operatividad periódica del proceso.

Evaluación constante de la producción La transferencia de tecnología desde el entorno académico hacia la industria es uno de los principales promotores de absorción y difusión de tecnologías, equipos, recursos, productos y conocimiento (Gilsing, Bekkers, Bodas y Steen, 2011). Asimismo, la empresa debe implementar sistemas de evaluación frecuente de los diferentes factores que pueden aumentar la productividad en un proceso de manufactura. Métodos como la simulación por computadora, herramientas estadísticas y la implementación de la filosofía Lean manufacturing determinan en combinación la mejora de recursos. Los procesos de manufactura incluyen una combinación de sus recursos como materiales, mano de obra, maquinaria y equipo. La aplicación del diseño de experimentos permite reconocer los factores importantes que están afectando al sistema y con ello se logra reducir tiempos en el análisis. Mediante el diseño de experimentos y simulación computacional, las compañías pueden enfrenar los cambios en las variables de entrada dando flexibilidad en sus procesos de manufactura (Zahraee, Hatami, Bavafa, Ghafourian y Rohani 2014).

Revista Científica

121


La metodología Taguchi en el estudio de mejora de procesos El diseño experimental clásico (Ec. 1) supone un modelo en el que la respuesta del sistema (y) se determina a partir de la adición de factores controlables (xi ) afectados por coeficientes de regresión ( ) de acuerdo a los factores principales (i) y sus interacciones (ij). (1)

un efecto diferenciado entre los factores controlables? y ¿en qué condiciones de producción se deben desarrollar el modelado?.

Metodología Sistema de estudio

Por su parte, la metodología Taguchi, desarrollada en Japón por Genichi Taguchi, tiene la flexibilidad de determinar el nivel óptimo de los factores controlables y de disminuir los efectos causados por los factores de ruido SNR (signal to noise ratio) (Taguchi, 1986, Zahraee, Chegeni y Rohani, 2014). Como factor de ruido se considera aquello que no puede ser controlado y que tiene gran impacto en el proceso. El método (Ec. 2) resulta atractivo y útil porque considera únicamente los efectos principales y descarta la interacción de los factores (Cruz, Restrepo y Medina, 2008).

(2)

Los diseños más utilizados son L8, L16 y L18, donde L se refiere al nivel (level en idioma inglés) y determina el número de renglones o niveles (Taguchi, 1986, Roy, 2010). En la literatura se reporta la aplicación de la filosofía Taguchi en el mejoramiento de procesos de manufactura de numerosos sectores del ramo industrial con propósitos de garantizar la calidad del proceso o del producto, optimizar el desarrollo de las etapas de un proceso, aprovechar la utilidad de la materia prima o de los servicios en el área de generación de energía, agroindustria, automotriz, cerámicos, construcción, muebles, recubrimiento de superficies, diseño mecánico, maquinado o sistemas de control mediante dispositivos electrónicos, entre otros (Bautista, 2001, Cruz, et al., 2008, Bademlioglu, Canbolat y Kaynakli, 2020).

Planteamiento del problema Se identificó como cuello de botella el área de prensas en la que las piezas son trasladadas mediante una grúa en el área de tratamientos térmicos de una línea de manufactura que procesa engranes de acero de una empresa localizada en el estado de Nuevo León. La maquinaria de secuencia en conveyor deja de operar de manera exponencial debido a la falta de prensas disponibles y a la velocidad no controlada en la que se opera la grúa, impactando a lo largo de la jornada en horas no eficientes. Se tiene el interés de reducir esta pérdida y aumentar la producción de piezas en el área de tratamientos térmicos.

Objetivo del trabajo La propuesta tiene el objetivo de desarrollar un modelo computacional enfocado al incremento de la producción de piezas de un proceso de tratamientos térmicos en la manufactura de engranes, apoyado en un arreglo ortogonal Taguchi que evalúe el efecto de dos niveles de operación de tres factores. Se plantean las preguntas siguientes para desarrollar el estudio y cumplir el objetivo: ¿Cuáles son los factores controlables y los no controlables de los que depende el proceso?, ¿Existe

122

Revista Científica

Figura 1. Modelo de simulación desarrollado a través de FlexSim, para el proceso de estudio.

El proceso estudiado opera 24 h al día en 3 turnos, el 99% de las operaciones está automatizado. La cantidad de prensas son 6, la velocidad de la grúa está en el rango de 0.05 a 0.07 m/s y la cantidad de engranes máximos son 8. Se utilizó el método Taguchi basado en un análisis ortogonal evaluando factores controlables y no controlables según Zahraee et al. (2014a) para maximizar la conveniencia de productividad. El modelo de simulación cubrió los dos productos diferentes que se procesan de manera habitual en el área de tratamientos térmicos. En la Figura 1, se visualiza un conveyor en línea recta y otro con diferente secuencia, teniendo de lado izquierdo la fase final del horno para posteriormente alistar su salida al área de prensas. La construcción del modelo de simulación incluye el traslado de los engranes mediante una grúa aérea, transportándolos del conveyor de salida del tratamiento térmico a la prensa que esté disponible, posteriormente las piezas son prensadas y retornan a la cinta transportadora de tratamientos térmicos para continuar a la fase final del proceso. Mediante el uso del software FlexSim, se construyó el mecanismo de envío de engranes entre dos procesos (hornos – prensas). En la cadena de valor de estudio, se identificaron como factores controlables la velocidad de la grúa (m/s), la cantidad de engranes y la cantidad de prensas. Se utilizó el software Minitab para evaluar las matrices ortogonales.

Elección de factores de control y de ruido Se utilizan factores de control como el tiempo de inspección, el número de máquinas, el número de trabajadores, etc. Siendo los factores de ruido detectados: los reprocesos, los tiempos de reparación, etc. Tanto a los factores de control como los de ruido se les asignan letras mayúsculas para diferenciarlos. Posteriormente, en el diseño de la matriz se asigna el rango o los niveles (L) de factores principales y de ruido, asignándoles un nivel bajo (1) y un nivel alto (2) (Tabla 1).


Tabla 1. Rangos o niveles de factores principales y de ruido, con nivel bajo (1) y nivel alto (2):

(3)

Resultados

Se tienen tres factores principales controlables (velocidad de la grúa, cantidad de engranes y cantidad de prensas) con dos niveles cada uno por lo que se produce la matriz ortogonal L8 mostrada en la Tabla 2, que asignará siete factores en dos niveles. Se tiene un total de 8 experimentos.

El resultado de la aplicación del método Taguchi se presenta en la Figura 3. La significancia del efecto de cada factor está determinada por la pendiente de cada recta (Roy, 2010, Antony y Antony, 2015). Comparando los tres factores, el número de prensas es el de menor efecto. Los datos mostrados sugieren que la máxima productividad se logra cuando la cantidad de engranes procesados es de 6 piezas, la velocidad de grúa es de 0.05 m/s y el número de prensas es de 4. Las condiciones referidas conforman la mejor combinación de factores controlables.

Tabla 2. Arreglo Ortogonal de 8 experimentos mediante el uso de la herramienta Taguchi:

Para el análisis de producción se supuso un modelo de piezas manufacturadas con distribución de frecuencias como el que se describe en la Figura 2. El periodo de producción analizado es de ocho semanas. La producción diaria oscila entre 1375 y 1475 engranes procesados por día.

Figura 3. Comparación del efecto en los tres factores controlables: Cantidad de engranes, Velocidad de grúa y Cantidad de prensas.

La Tabla 3, muestra el orden de los factores de salida de acuerdo con su importancia en base al análisis de la media y la relación de ruido SNR para la velocidad de grúa, la cantidad de engranes y la cantidad de prensas. El análisis incluyó los valores de los factores controlables, como de ruido en ambos niveles (alto y bajo).

Tabla 3. Tabla de respuesta de la media, cantidad de engranes, velocidad de grúa y número de prensas.

Figura 2. Curva de Función de Densidad de Probabilidad (PDF) del modelo de producción usado para el análisis.

A través de la Ecuación 3 se calculó del factor de ruido SNR (signal to noise ratio) basado en la situación “Cuanto más grande, mejor” que es utilizada por el método Taguchi (Antony y Antony, 2001). En la Ecuación 3, n es el número de valores de cada condición experimental y el valor observado se representa con yi.

De la misma manera, se comparó el efecto de los factores de ruido SNR no controlables. Los resultados se muestran en la Figura 4. En este caso, el efecto SNR en la velocidad de la grúa es mayor y el número de prensas tiene un efecto de ruido SNR menor.

Revista Científica

123


Conclusión

Figura 4. Comparación del efecto de los factores no controlables SNR para la cantidad de engranes, velocidad de la grúa y el número de prensas.

La Tabla 4, muestra el orden de los factores de ruido SNR que afectan la respuesta de salida en base a la relación con la velocidad de grúa, la cantidad de engranes y la cantidad de prensas. Por lo tanto, el factor que menos afecta en el proceso es la cantidad de prensas. Se compararon los valores tanto controlables como de ruido en ambos niveles (alto y bajo) de cada factor.

Tabla 4. Tabla de respuesta de los factores no controlables o de ruido, cantidad de engranes, velocidad de grúa y número de prensas.

Mediante la identificación de factores controlables y no controlables se aplicó la metodología Taguchi y a través de simulación computacional se analizó un segmento de la cadena de valor en el área de tratamientos térmicos en la producción de engranes, identificado como cuello de botella por los tiempos de espera de las piezas en los cambios de proceso en el horneado, traslado por grúa en el aérea y prensado. La propuesta deduce que la mejor productividad se obtiene al combinación los factores de la manera siguiente: cantidad de engranes igual a 6 piezas, velocidad de grúa igual a 0.05 m/s y número de prensas igual a 4. Al aplicar estos cambios también se estima evitar el cuello de botella que se tiene y un aumento en la capacidad de producción. De acuerdo a las variantes de los mecanismos de transferencia tecnológica descritas por Gilsing et al. (2011), el presente trabajo se integra al estado de la técnica y es un medio de transferencia de tecnología que puede reconocerse por su nivel de interacción en un sistema recíproco de comunicación. Sin embargo, al ser función del entorno de producción, el modelo es una solución única del proceso, siempre que opere en condiciones equivalentes a los factores controlables o factores de ruidos citados y en los niveles alto y bajo mencionados. Su implementación es parte de la toma de decisiones gerenciales y abre la posibilidad de madurar el desarrollo a través de la incorporación en el modelo de otras áreas del proceso. El servicio que se brindó es un eslabón entre un centro académico y uno de producción al compartir capital intelectual, procesamiento de datos e información del proceso, su ejecución representa ganancias en la eficiencia de la línea de producción.

Símbolos

La implementación del modelo propuesto de máxima productividad, basado en la combinación del número de prensas, la cantidad de engranes procesados y la velocidad de grúa, sugiere el incremento en el 2.8% de piezas producidas, cantidad lograda sin realizar cambios estructurales, de logística mayor o de inversión. Este incremento que se logró representa más de cien unidades producidas por semana con destino al mercado internacional, lo que representa un valor en divisas significativo. También debe considerarse el beneficio derivado por el cumplimiento puntual de órdenes de trabajo y por la prevención de penalizaciones por entregas tardías. De manera indirecta, la operación sincronizada, la regulación del número de prensas y la velocidad controlada de la grúa producen ahorros por consumo de energía de los equipos, motores y auxiliares, sin embargo, el balance de energía y de otros servicios no fueron considerados como parte del presente estudio pero podrían ser incorporados en un estudio futuro. La implementación del modelo en la planta depende de la toma de decisiones de la alta gerencia y de su observancia en la planta. El seguimiento de resultados y retroalimentación permitirá robustecer el modelo en un trabajo futuro en el que se recomienda realizar un estudio integral, incorporando más etapas del proceso, a fin de tener impactos de manera global.

124

Revista Científica

y respuesta del sistema (-) xi representación del factor i (-) coeficiente de regresión (-) i representación de factor principal (-) ij representación de la interacción entre los factores i y j (-) L nivel de estudio del factor (-)

Agradecimientos Se aprecia el apoyo de CONACYT otorgado a J. E. R. H. a través de la Convocatoria Nacional de Becas de Inversión en el Conocimiento 2017.


Bibliografía + Antony, J., Antony, F. J., (2001). Teaching the Taguchi method to industrial engineers. Work Study, 50, 141-149. ISSN: # 0043-8022. + Bademlioglu, A. H., Canbolat, A. S., Kaynakli O. (2020) Multi-objective optimization of parameters affecting Organic Rankine Cycle performance characteristics with Taguchi-Grey Relational Analysis. Renewable and Sustainable Energy Reviews 117: 109483. ISSN: # 1364-0321. + Bautista, H. J. L. (2001) Optimización y reducción de variación en calidad en la empresa, aplicando los métodos Taguchi. (Tesis de maestría). Universidad Nacional Autónoma de México. México. + Cruz, R. E. A., Restrepo, C. J. E., Medina, V. P. D. (2008). Comparación de las metodologías clásica y taguchi del diseño experimental en un ingenio azucarero del Valle del Cauca. Tecnura, 12, 46-59. ISSN: # 0123-921X. + Fioroni, M. M., Franzese, L. A. G., Bianchi, T. J., Ezawa, L., Pinto, L. R., Miranda, G. (2008). Concurrent simulation and optimization models for mining planning. En: S. J. Mason, R. R. Hill, L. Mönch, O. Rose, T. Jefferson, J. W. Fowler (Eds.), WSC ’08: Proceedings of the 40th Conference on Winter Simulation, 759–767. ISBN: # 978-14244-2708-6. + FlexSim. Making Critical Warehouse Decisions. Recuperado de www.flexsim.com/es/casos-de-estudios-/critical-warehouse-decisions/ (última visita: mayo, 2020). + García, D. E., García, H. R., Cárdenas, B. L. E. (2013). Simulación y análisis de sistemas con Promodel. México: Segunda Edición, Pearson. ISBN # 9702607736.

8449331161. + Roy R. K. (2010). A primer on the Taguchi Method. USA: Society of Manufacturing Engineers. ISBN: # 9780872638648. + Simio. http://www.simio-simulacion.es/ (última visita: mayo, 2019) + Taguchi, G., Asian Productivity Organization. (1986). Introduction to quality engineering. USA: The Organization. ISBN: # 9283310845. + Tokgöz. (2017). Industrial engineering and simulation experience using Flexsim Software. Computers in Education Journal, 8(4): 1-6. ISSN: # 1069-3769. + Velumani, S. Tang, H. (2017) Operations status and bottleneck analysis and improvement of a batch process manufacturing line using discrete event simulation. En: L. Wang, L. Fratini, A. J. Shih (Eds.) Procedia Manufacturing, 10: 100 – 111. ISSN: # 2351-9789. + Villaseñor, C. A., Galindo, C. E. (2011). Manual de Lean Manufacturing guía básica. México: Limusa. ISBN: # 9789681869755. + Zahraee, S. M., Chegeni, A., Rohani, J. M. (2014a). Characterization of manufacturing system computer simulation using Taguchi Method. Jurnal Teknologi, 72, 21803722. ISSN: # 2180-3722. + Zahraee, S. M., Hatami, M., Bavafa, A. A., Ghafourian, K., Rohani, J. M. (2014b). Application of statistical Taguchi Method to optimize main elements in the residential buildings in Malaysia based energy consumption. Applied Mechanics and Materials, 606, 265–269. ISSN: # 16627482.

+ Gilsing, V., Bekkers, R., Bodas, F. I. M., Steen, M. (2011). Differences in technology transfer between science-based and development-based industries: Transfer mechanisms and barriers. Technovation 31, 638–647. ISSN: # 0166-4972. + Kikolski, M. (2016) Identification of production bottlenecks with the use of Plant Simulation software. Engineering Management in Production and Services, 8(4): 103-112. ISSN: # 2543-912X. + Koch, R. (2015). El principio 80/20: El secreto de lograr más con menos. España: Grupo Planeta. ISBN: #

Revista Científica

125


Ángel Gabriel Díaz Sánchez 1, Naún Lobo Galo 2, Manuel Terrazas López 3, Luis Guadalupe Aguirre Reyes 4 y Alejandro Martínez Martínez 5

Universidad Autónoma de Ciudad Juárez Instituto de Ciencias Biomédicas, Anillo Envolvente del PRONAF y Estocolmo S/N. Ciudad Juárez , Chihuahua, México, C.P. 32310. 1,2,3,4,5

angel.diaz@uacj.mx

Recibido: Abril 15, 2019. Recibido en forma revisada: Junio 1, 2020. Aceptado: Junio 20, 2020.

126

Revista Científica

Resumen: La multiresistencia a antibióticos de bacterias patógenas emergentes y persistentes es un problema de salud publica, cuya solución requiere de una intervención multidisciplinaria. Una estrategia reconocida para el combate, de estos agentes microbianos, es el desarrollo de inhibidores específicos de enzimas bacterianas esenciales. Los puntos críticos o limitantes en el éxito de esta tarea son: (1) la identificación de nuevos blancos enzimáticos, cuya inhibición produzca efectos bactericidas o bacteriostáticos y que estos inhibidores no afecten a la enzima del hospedador; (2) contar con una fuente continua de la enzima y un método de purificación eficiente, junto con (3) un método analítico que permita evaluar su función biológica frente a bioactivos, además de (4) la identificación y selección de los inhibidores y finalmente (5) que el inhibidor potencial ejerza un efecto antimicrobiano especifico. En el presente se describen estrategias generales para abordar este problema usando como ejemplo la enzima N-succinil-diaminopimelato desuccinilasa (DapE), una enzima reconocida como critica para el crecimiento bacteriano y por lo tanto un blanco para el control farmacológico del crecimiento de estos microorganismos.

+ Palabras clave: Enzimas, inhibición, antimicrobianos, bioquímica.


Abstract: The multi-resistance to antibiotics of emerging and persistent pathogenic bacteria is a public health problem that requires a multidisciplinary intervention. A recognized strategy to combat these microbial agents, is the development of specific inhibitors of essential bacterial enzymes. The critical or limiting points in the success of this task are: (1) the identification of new enzymatic targets, whose inhibition produces bactericidal or bacteriostatic effects and that these inhibitors do not affect the enzyme of the host; (2) a continuous source of the enzyme and an efficient purification method, together with (3) an analytical method that allows to evaluate its biological function against bioactive agents, in addition to (4) the identification and selection of inhibitors; and finally (5) that the potential inhibitor exert a specific antimicrobial effect. General strategies to address this problem are described herein using as an example the enzyme N-succinyl diaminopimelate desuccinylase (DapE), an enzyme recognized as critical for bacterial growth and therefore a target for the pharmacological control of the growth of these microorganisms.

+ Keywords: Enzymes, inhibition, antimicrobials, biochemistry.

Introducción La multiresistencia a fármacos y la persistencia de infecciones bacterianas son un problema de salud publica que requiere la intervención multidisciplinaria, tanto de las ciencias químicas, biológicas y medicas, así como de la biotecnología (Morar y Wright, 2010; Rice, 2008). Una estrategia reconocida para lograr contender los agentes microbianos patógenos es el desarrollo de inhibidores específicos dirigidos contra enzimas bacterianas esenciales para el crecimiento (Paphitou, 2013). La identificación de estos blancos es un paso esencial para lograr el éxito de esta estrategia y no es una tarea trivial (Bull y Doig, 2015). Es ideal seleccionar enzimas que su inhibición sea acompañada de un problema en el flujo metabólico de la célula diana y que resulte en un efecto bacteriostático o bactericida. Otro punto crítico es contar con un protocolo de obtención de la enzima en suficiente cantidad, junto con un método analítico que permita evaluar su función biológica y/o su interacción con compuestos bioactivos. La selección de estos compuestos tampoco es trivial ya que actualmente existen unos 156 millones de agentes químicos distintos, distribuidos en una gran variedad de familias químicas (https://www.cas.org/about/cas-content). Para esta elección, son deseables compuestos que ejerzan sus efectos, en este caso inhibitorios, a bajas concentraciones, sean altamente específicos contra el blanco molecular y que produzcan reducidos o ningún efecto secundario en el hospedador. Finalmente se debe probar que el compuesto seleccionado ejerza un efecto biológico frente al organismo del cual proviene la enzima blanco, en este caso si funciona como un agente antibacteriano efectivo y no genera mecanismos de multiresistencia. En el presente se describen estrategias generales para superar estos pasos críticos usando como ejemplo el caso de la enzima N-succinil-diaminopimelato desuccinilasa (DapE, EC 3.5.1.18), enzima que participa en la síntesis de componentes esenciales de la pared celular de la mayoría de las especies bacterianas, entre ellas aquellas de importancia medica, como las denominadas bacterias ESKAPE: Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa y especies del género Enterobacter (Rice, 2008).

Identificación de blancos enzimáticos potenciales y generalidades de la enzima DapE El trabajo biológico de los organismos es sin duda ejecutado e instrumentado por la diversidad de enzimas que posee. Con este principio en mente, es aceptado que el conocimiento del mecanismo de las enzimas permite el entendimiento del funcionamiento celular. Por tanto, no es de extrañar que los objetivos de los estudios biológicos: estructura, función, dinámica y evolución de los organismos, sean los mismos de la enzimología moderna, para el estudio de estas macromoléculas con propiedades catalíticas. En otras palabras, estos aspectos biológicos encontrados en las enzimas hacen un gran eco en el funcionamiento, respuesta y adaptación de las células. Por ello, las enzimas son seleccionadas como blancos farmacológicos para el tratamiento de una gran variedad de afecciones de la salud . El problema es que, en una célula típica, por ejemplo, de Escherichia coli, existen en un determinado momento o condición unas 1000 enzimas diferentes. Por tanto, la selección de una enzima blanco no es una tarea sencilla. Uno de los mecanismos para hacer un filtrado de macromoléculas, es tomar como criterio su papel fisiológico y seleccionar sólo aquellas que sean importantes en la regulación de la ruta en la que participa. Una forma casi inequívoca de predecir si una enzima es un buen blanco farmacológico, es mediante estudios de bloqueo genético: si el bloqueo o interrupción de un gen (knockout, como se conoce en inglés) de una enzima produce efectos deletéreos, el bloqueo farmacológico de tal enzima será también deletéreo (Zambrowicz y Sands, 2003). Son ideales enzimas que presentan (1) un control del flujo metabólico alto, (2) un control alostérico, (3) son susceptibles a modulación por modificación química reversible, (4) sus reacciones catalizadas se encuentran alejadas del equilibrio o (5) su bloqueo genético produce efectos deletéreos. La inhibición de este tipo de enzimas normalmente producirá efectos grandes en el crecimiento o capacidad de respuesta de bacterias. En el caso de DapE (Figura 1), es una enzima dimérica estricta que requiere de dos centros de Zn2+ para lograr tener su máxima actividad (Bienvenue, Gilner, Davis, Bennett, y Holz, 2003). La reacción que cataliza es irreversible y por tanto no alcanza el equilibrio químico. Aunque no se conocen detalles del control del flujo metabólico que ejerce sobre la ruta biosintética mDAP/Lys, ni de su control por modificación química o si presenta control alostérico, es reconocida como un posible punto para el control farmacológico del crecimiento microbiano (Gillner, Becker, y Holz, 2013). La interrupción del gen dapE en Mycobacterium smegmatis y Haemophilus influenzae produce bacterias mutantes no viables, aun cuando se suplementa en el medio de cultivo meso-diaminopimelato (mDAP) y L-lisina, los productos finales de la ruta en la que participa (Karita, Etterbeek, Forsyth, Tummuru y Blaser, 1997). Esto reitera la importancia fisiológica de esta enzima y por tanto su selección como un blanco farmacológico (Uda et al., 2014) (Figura 2a). Un aspecto relevante de DapE a considerar en el diseño de inhibidores es el ajuste inducido que sufre tras la unión de ligandos y que puede presentar una heterogeneidad en sus centros metálicos, pudiendo tener Zn/Zn o Zn/Mn en condiciones fisiológicas (Broder y Miller, 2003). Al respecto, se demostró que esto puede afectar la especificidad por los inhibidores (Uda et al., 2014). Por ejemplo, el L-captopril, un compuesto que sólo inhibe la actividad de la enzima Zn/Zn, pero es incapaz de bloquear la forma Zn/Mn (Uda et al., 2014). Otro punto importante al respecto de la actividad de esta enzima es que en una minoría de bacterias se produce mDAP a partir de la ruta de la DAP deshidrogenasa, la

Revista Científica

127


cual incorpora un grupo amonio a partir de un intermediario y una tercer variante de organismos en donde se implican intermediarios acetilados y no succinilados (Wehrmann, 1998).

Figura 1. Estructura tridimensional de la enzima N-succinil-L,L-diaminopimelato desuccinilasa. La estructura corresponde a la enzima de Haemophilus influenzae, coordenadas tomadas del banco de datos de las proteínas (PDB:5vro). En (A) se aprecia el dímero, que es la forma funcional y en (B) se ilustra sólo una de las cadenas, para resaltar los dominios funcionales: el dominio de oligomerización y el dominio catalítico. Los sitios activos son marcados para mayor calidad. Una de las subunidades del dímero se muestra en superficie y el otro en listones. Fuente: UCSF-Chimera.

Obtención de una preparación de la enzima Contar con una fuente continua y suficiente de la enzima pura es vital para realizar los estudios mencionados. Este paso depende en gran medida de la abundancia de la enzima en la fuente natural, así como de sus propiedades fisicoquímicas, tales como su estabilidad y solubilidad, así como del método que se seleccioné para aislarla. Cuando no es posible obtener cantidades suficientes de la enzima a partir de su fuente natural, el uso de metodologías para obtener preparaciones de proteína recombinante es ideal. Los protocolos para lograr esta tarea son vastos y existen sistemas diseñados para lograr obtener prácticamente cualquier proteína, indistintamente de los requerimientos y pasos de maduración (Rosano y Ceccarelli, 2014; Sørensen y Mortensen, 2005). Habrá que seleccionar un método de clonación, transformación, expresión, solubilización y purificación estándar. La selección del plásmido y el organismo de expresión heteróloga depende del mecanismo de maduración de la proteína de interés; el más utilizado son distintas cepas de E. coli o de P. aeruginosa. También se emplean sistemas eucarióticos como Saccharomyces cerevisae, sistemas de baculovirus, células de insecto o a partir de cultivos celulares. Si la proteína presenta numerosos puentes disulfuros se puede emplear un péptido señal para dirigirla al periplasma de E. coli, por ejemplo con la cepa Origami-DE3, o bien una cepa con el gen de la catalasa eliminado; si requiere glicosilaciones, se emplea una cepa especial que facilita las N- y O-glicosilaciones; si el gen en cuestión presenta codones raros para el sistema heterólogo, se pueden emplear cepas RIL, Rosetta-DE3 y Rosetta 2-DE3, que expresan los tRNAs para estos codones. Si la proteína es toxica y esto afecta su expresión en la bacteria, se pueden emplear cepas BL21-DE3-pLysE, BL21-SI, BL21-AI, C41-DE3 y C43-DE3, resistentes a la toxicidad de proteínas;

128

Revista Científica

si la proteína es de membrana, se puede emplear una cepa CD41-DE3, CD43-DE3 y LEMO que lo envía a la membrana. En caso de un bajo rendimiento en la expresión de la proteína una cepa BL21-DE3-pLysS o se puede inducir a bajas temperaturas; en co-expresión con diversos sistemas de chaperonas ArticExpress-DE3 o groES/groEL, el empleo de vectores policistrónicos o bien se puede fusionar el gen de interés a una proteína de fácil plegamiento, como a la tiorredoxina (Rosano, 2014) empleando vectores prediseñados para ello, como el pET32a. Finalmente, para facilitar la purificación, se suelen emplear etiquetas moleculares, que facilitan su enriquecimiento por cromatografía de afinidad y que luego pueden ser removidas por proteólisis parcial, tales como los sistemas de unión a ligandos incorporados a resinas de cromatografía: de histidinas, que unen Ni2+; de GST, unión a glutatión; de MBP (proteína de unión a maltosa), que puede unirse a quitina. Los estudios referentes a la enzima DapE suelen usar sistemas de expresión de E. coli de la cepa BL21, clonada en sistemas pET®, llevándose a cabo la inducción de la enzima a bajas temperaturas (16 y 25°C). Normalmente la enzima se purifica por uno o dos pasos cromatográficos, en una columna con trampa de colas de histidina y una cromatografía de intercambio iónico o una de exclusión molecular. La enzima es inestable en ausencia de agentes tensoactivos o solutos compatibles, pero una vez que se le suplementan algunos de estos, la enzima se puede almacenar a -80 °C por largos periodos de tiempo. Actualmente se han obtenido las enzimas recombinantes de las DapE de las bacterias ESKAPE (Terrazas-López & Díaz-Sánchez, resultados no publicados aún), en donde se clonaron en el plásmido pET28b y se purifica por medio de cromatografía de afinidad con una columna de Ni obteniendo preparaciones homogéneas y de alto rendimiento (Figura 2b).

Métodos analíticos para monitorear la actividad de las enzimas Contar con un método analítico para evaluar la actividad catalítica de la enzima de interés y/o su capacidad de interacción con ligandos es fundamental. El contar con una preparación de la enzima a alta pureza e incluso contar con la estructura tridimensional de la enzima, pero sin poder evaluar su actividad biológica no representa un impacto científico alto. Los métodos espectroscópicos son los ideales para la valoración biológica. Estos usualmente no son destructivos, no interfieren en los procesos fisicoquímicos relacionados a las actividades biológicas, y se pueden monitorear los sistemas de forma continua, tomando los datos en una computadora, que normalmente sirven para visualizar las señales y analizarlos. También se pueden emplear reacciones acopladas que generan un cromóforo, que sirve de reportero de la actividad o bien se pueden aislar las especies de la reacción y subsecuente cuantificación, por ejemplo, mediante técnicas de cromatografía de HPLC, de gases; centrifugación o electroforesis capilar. Pero estos últimos son menos empleados debido a que requieren de pasos complicados y relativamente costosos. Los experimentos se deben realizar en ausencia y en presencia de los compuestos bioactivos, evaluando el efecto de estos en los parámetros de la actividad biológica por un método matemático adecuado. Se pueden evaluar, la cinética y equilibrio de reacciones, la unión al equilibrio de ligandos, los cambios conformacionales que se producen tras un fenómeno de interacción, los parámetros termodinámicos de unión, en un experimento de calorimetría isotérmica de titulación,


se puede realizar experimentos de modificación química o de mutagénesis y después re-evaluar la interacción de ligandos, esto con el fin de identificar rasgos estructurales, funcionales y mecanísticos críticos en la interacción y efecto de los compuestos en la enzima. En la enzima DapE se han realizado estudios cinéticos de la reacción catalizada, monitoreando la señal que corresponde a la banda de la amida del sustrato, el N-succinil-diaminopimelato; usando espectroscopia de luz ultravioleta (Heath et al., 2018). También se han usado reacciones acopladas, con el producto diaminopimelato con ninhidrina, o monitoreando la reacción mediante el uso de radioactividad. El seguimiento de la reacción de DapE, constituye un reto analítico, ya que los métodos anteriormente mencionados en la practica para esta reacción son ruidosos y difíciles de interpretar, ya que monitorear una banda a baja longitud de onda, donde la propia enzima y los ligandos a evaluar apantallan la señal. También estamos investigando el usó de análogos del sustrato que permitan monitorear la reacción siguiendo una señal cromogénica o bien medimos la unión al equilibrio de ligandos (Figura 2c), monitoreando los cambios en la fluorescencia intrínseca de DapE (Terrazas-Lopez y Díaz-Sánchez, no publicado aún).

Identificación de compuestos bioactivos específicos contra las enzimas blanco Actualmente existen unos 156 millones de compuestos distintos. Estos compuestos se encuentran anotados en las bases de datos químicas públicas, como en PubChem (https://pubchem.ncbi.nlm.nih.gov/), Chemspider (http://www.chemspider.com/) o Zinc Data Base (https:// zinc.docking.org/). Algunos de estos compuestos ya tienen actividad antimicrobiana conocida. La identificación de inhibidores de una enzima a partir de esta lista exorbitante de compuestos es una tarea difícil. Para la búsqueda particular de ligandos relevantes, hay bases comercialmente disponibles de muchos de estos compuestos o bien de productos de síntesis incompletas, que se pueden probar de forma masiva en experimentos de cribado. También se pueden realizar cribados virtuales empleando la estrategia de acoplamiento molecular (Docking molecular). En ambos casos, el cribado arroja una lista con el potencial inhibitorio y para validarlos se realiza un estudio de inhibición, para conocer no sólo los parámetros de inhibición y el mecanismo por el cual sus parámetros cinéticos se ven afectados, sino también los parámetros de termoestabilidad con los cuales funge su función la enzima. Los inhibidores conocidos de DapE son compuestos que poseen grupos con carácter de base de Lewis suaves, estructuras que poseen átomos electronegativos como B, N, O, S, P o anillos que puedan realizar interacciones con los centros metálicos, tal es el caso de los aromáticos o derivados de azucares. Algunos de los inhibidores lideres utilizados anti-DapE que ya han sido publicados en diferentes investigaciones son aquellos que contienen grupos tioles dentro de su estructura química. Ejemplo claro de estos fármacos propuestos es el captopril, fármaco utilizado como inhibidor de la Enzima Convertidora de Angiotensina ACE), útil para la hipertensión arterial (Kumar, 2016), mostrando IC50 de 3 µM y una Ki de 2 µM. Otro fármaco modelo previamente descrito como anti-DapE es la penicilamina agente químico utilizado en diversos medicamentos que tratan las intoxicaciones por metales pesados (Yoshii, 2014) y que ha mostrado IC50 de 14 µM y una Ki de

5 µM. Otros inhibidores importantes reportados por diversos autores son el ácido 4-mercaptobutírico, ácido 2-mercaptobenzoico (Gillner & Holz, 2013), ácido fenilborónico, ácido 2-tiofeneborónico y el ácido 3-mercaptobenzoico (Heath, 2018). En nuestro grupo de investigación hemos identificado algunos inhibidores con alto potencial de usarse como agentes antimicrobianos y otros con el potencial de emplearse como base del diseño de nuevos fármacos (Figura 2d) (Terrazas-López & Díaz-Sánchez no publicado aún).

Evaluación de la actividad antimicrobiana Que los inhibidores identificados ejerzan un potencial efecto antimicrobiano es de suma importancia para la aplicación y perfeccionamiento de los mismos. Mediante distintas técnicas que engloban la exposición de los fármacos propuestos como inhibidores ante los diferentes microrganismos patógenos, suelen presentarse resultados de efectos bacteriostáticos o bactericidas. Dichos resultados pueden ser cuantificados a través del decremento o detenimiento de la densidad óptica que mantienen los cultivos al interaccionar con dichos fármacos. Otra forma de medir la reducción del crecimiento bacteriano es la exposición de diferentes placas de cultivo en donde, estas son ricas en sustrato disponible para la transformación bacteriana, en estas, se les expone a discos que contienen variantes de concentración de los inhibidores (Rao, 2011). En nuestro grupo de investigación usamos un protocolo estándar para monitorear la cinética de crecimiento de E. coli en ausencia y presencia de inhibidores de DapE potenciales (Terrazas-López, Castañeda-Breseida, Cuen-Andrade y Díaz-Sánchez, resultados no publicados aún).

Figura 2. Estrategia para el estudio de inhibición de las enzimas para su control farmacológico. Se usa de ejemplo el caso de la enzima DapE. En (A) se muestra la estructura general de la enzima DapE como ejemplo de un nuevo blanco para el control antimicrobiano; en (B) se muestra un gel de electroforesis de poliacrilamida/bisacrilamida al 15 %, desnaturalizante y en condiciones reductoras de las preparaciones puras de las enzimas recombinantes de DapE que investigamos en nuestro grupo de trabajo (líneas 1-5); en (C) se muestra la unión al equilibrio de un ligando de la enzima DapE, donde se despliegan los datos que permiten el cálculo de su afinidad por el ligando, parámetro que nos permite evaluar la actividad biológica de las proteínas; en (D) se muestra una parte de los resultados obtenidos en un cribado in silico para la identificación de potenciales inhibidores de DapE (500 compuestos empalmados) y en (E) se muestra el efecto de uno de los compuestos seleccionados en el crecimiento de un cultivo de E. coli (Castañeda-Breseida, 2017). Fuente: Elaboración propia.

Revista Científica

129


Conclusión La identificación de nuevas moléculas pequeñas con actividad inhibitoria puede sentar las bases para el desarrollo o proposición de nuevos antibióticos. A la par se debe de contar con un sistema de expresión heterólogo y condiciones de producción de la enzima a estudiar. La infraestructura y metodologías analíticas adecuadas aunado a los fármacos identificados y enzimas puras, dentro de la investigación son pieza fundamental. Esto podrá generar los datos suficientes para expandir el conocimiento y entendimiento del mecanismo molecular que llevan a cabo estas biomacromoleculas. Un punto importante es el uso de fármacos previamente descritos para diferentes padecimientos, ya que, al proponer una segunda función, evita el tener que realizar los diferentes ensayos de toxicidad, los test biológicos, así como la investigación clínica en donde se ven involucrados grupos de individuos voluntarios y tiempos prolongados. Finalmente se debe de tomar en cuenta que existe una gran diversidad de proteínas con funciones distintas en donde, se deberá de profundizar en cada caso particular y hacer énfasis en aquellos cuellos de botella que impidan el desarrollo de la resolución de preguntas clave para la investigación.

Agradecimientos Agradecemos los siguientes apoyos: al CONACYT por el financiamiento a través del proyecto de Desarrollo Científico para Atender Problemas Nacionales: CONACYT-PN-587, otorgado al titular responsable Ángel Gabriel Díaz-Sánchez y del Programa de Becas Nacionales-CONACYT a Manuel Terrazas-López, estudiante del Programa de Doctorado en Ciencias Químico-Biológicas, a la Universidad Autónoma de Ciudad Juárez por la gestión, operación y financiamiento complementario del proyecto.

Símbolos

130

Zn

Zinc

Zn2+

Zinc divalente

Mn

Manganeso

Mn2+

Manganeso divalente

°C

Grados Celsius

IC50

Concentración inhibitoria al 50 %

µM

Ki

Constante de inhibición que es una constante de disociación

µM

Revista Científica


Bibliografía + Bienvenue, D. L., Gilner, D. M., Davis, R. S., Bennett, B., y Holz, R. C. (2003). Substrate Specificity, Metal Binding Properties, and Spectroscopic Characterization of the DapE-Encoded N -Succinyl- l , l -Diaminopimelic Acid Desuccinylase from Haemophilus influenzae †. Biochemistry, 42(36), 10756–10763. https://doi.org/10.1021/bi034845+ + Broder, D. H., y Miller, C. G. (2003). DapE can function as an aspartyl peptidase in the presence of Mn2+. Journal of Bacteriology, 185(16), 4748–4754. https://doi.org/10.1128/ JB.185.16.4748-4754.2003 + Bull, S. C., y Doig, A. J. (2015). Properties of Protein Drug Target Classes. PLOS ONE, 10(3), e0117955. https://doi. org/10.1371/journal.pone.0117955 + Castañeda-Breseida, Ivette, L. (2017). Aspectos estructurales y funcionales de la inhibición de la enzima desuccinilasa DapE del ácido diaminopimélico de Escherichia coli patógena. Universidad Autónoma de Ciudad Juárez, Tesis de Maestría del Programa Maestría en Ciencias Orientación Genómicas. + Gillner, D. M., Becker, D. P., y Holz, R. C. (2013). Lysine biosynthesis in bacteria: a metallodesuccinylase as a potential antimicrobial target. JBIC Journal of Biological Inorganic Chemistry, 18(2), 155–163. https://doi.org/10.1007/s00775-0120965-1 + Heath, T. K., Lutz, M. R., Reidl, C. T., Guzman, E. R., Herbert, C. A., Nocek, B. P., … Becker, D. P. (2018). Practical spectrophotometric assay for the dapE-encoded N-succinyl-L,L-diaminopimelic acid desuccinylase, a potential antibiotic target. PLOS ONE, 13(4), e0196010. https://doi.org/10.1371/journal. pone.0196010

+ Morar, M., y Wright, G. D. (2010). The genomic enzymology of antibiotic resistance. Annual Review of Genetics, 44, 25–51. https://doi.org/10.1146/annurev-genet-102209-163517 + Paphitou, N. I. (2013). Antimicrobial resistance: action to combat the rising microbial challenges. International Journal of Antimicrobial Agents, 42(SUPPL.1), S25–S28. https://doi. org/10.1016/j.ijantimicag.2013.04.007 + Rice, L. B. (2008). Federal Funding for the Study of Antimicrobial Resistance in Nosocomial Pathogens: No ESKAPE. The Journal of Infectious Diseases, 197(8), 1079–1081. https:// doi.org/10.1086/533452 + Rosano, G. L., y Ceccarelli, E. A. (2014). Recombinant protein expression in Escherichia coli: advances and challenges. Frontiers in Microbiology, 5, 172. https://doi.org/10.3389/fmicb.2014.00172 + Sørensen, H. P., y Mortensen, K. K. (2005). Advanced genetic strategies for recombinant protein expression in Escherichia coli. Journal of Biotechnology, 115(2), 113–128. https://doi. org/10.1016/J.JBIOTEC.2004.08.004 + Uda, N. R., Upert, G., Angelici, G., Nicolet, S., Schmidt, T., Schwede, T., y Creus, M. (2014). Zinc-selective inhibition of the promiscuous bacterial amide-hydrolase DapE: implications of metal heterogeneity for evolution and antibioticdrug design. Metallomics, 6(1), 88–95. https://doi.org/10.1039/C3MT00125C + Zambrowicz, B. P., y Sands, A. T. (2003). Knockouts model the 100 best-selling drugs—will they model the next 100? Nature Reviews Drug Discovery, 2(1), 38–51. https://doi.org/10.1038/ nrd987

+ Karita, M., Etterbeek, M. L., Forsyth, M. H., Tummuru, M. K. R., y Blaser, M. J. (1997). Characterization of Helicobacter pylori dapE and construction of a conditionally lethal dapE mutant. Infection and Immunity. Retrieved from https://iai.asm.org/ content/65/10/4158.long

Revista Científica

131


Elsy Denise Martínez Torres 1, Olinda Ornelas Benítez 2, Jorge Luis Estrada Perea 3 y Herik Germán Valles Baca 4

Centro Universitario Parral de la Universidad Autónoma de Chihuahua General Jesús Lozoya Solís s/n Km. 1, Col. Almanceña, C.P. 33825. Hgo. del Parral, Chih. MEX. 1,2,3,4,

1

edmartinez@uach.mx 2 oornelas@uach.mx 3 jlestrada@uach.mx 4 hvalles@uach.mx

Recibido: Abril 15, 2019. Recibido en forma revisada: Junio 1, 2020. Aceptado: Junio 20, 2020.

132

Revista Científica

Resumen: La solución al problema de la carga mineral, tiene su base y fundamento en la operación de carga, controlando el peso del mineral en cada canastilla y el tiempo de cargado. Al distribuir y controlar el peso a lo largo del cable, se minimiza la vibración mecánica del mismo, disminuyendo la posibilidad de que el gancho se libere por ese motivo; por lo que fué necesario diseñar un sistema que solucionó el problema, mediante un control automático para abrir y cerrar una compuerta para descargar sobre una canastilla, una tonelada de mineral, controlada por una báscula intermitente. El costo-beneficio pronosticado, considerando un ciclo actual de la operación de carga de mineral en la canastilla de 18.0 seg. contra un ciclo proyectado de 5.0 seg. de carga + 5.0 seg. de tiempo muerto para posicionar otra canastilla obtiene una ganancia del 72.2% al disminuir el tiempo de cargado de 18.0 seg, a 5.0 seg., además la efectividad de la operación de procesamiento de mineral, se incrementa en un 28%. La productividad se incrementa si actualmente se procesan 2000 toneladas/ día de mineral, automatizando la operación se calcula que se procesan 3444 toneladas /día. Resultado de este problema mediante la simulación de un sistema contínuo para describir y analizar, en el transcurso del tiempo, el comportamiento del sistema propuesto. La simulación se realizó con el programa Matlab versión 2017, se optó por usar este lenguaje de simulación para sistemas continuos por su versatilidad para


realizar una simulación. ¨El modelo matemático encontrado está apoyado en el uso de la transformada y antitransformada de Laplace¨. (Ogata, 2000).

+ Palabras clave: Automatización, estabilidad, función escalón, función rampa, función de transferencia.

Abstract: The solution to the problem has its basis and foundation in the loading operation, controlling the weight of the mineral in each basket and the loading time. By distributing and controlling the weight along the cable, the mechanical vibration of the cable is minimized, reducing the possibility of the hook being released for this reason; reason why it was necessary to design a system that solved the problem, by means of an automatic control to open and close a gate to unload on a basket, a ton of mineral, controlled by an intermittent scale.

Fifura 1. Trayectoría de transporte aéreo en San Francisco del Oro, chih.

The predicted cost-benefit is considering a current cycle of the ore loading operation in the basket of 18.0 sec. against a projected cycle of 5.0 sec. load + 5.0 sec. of dead time to position another basket, a gain of 72.2% is obtained by decreasing the loading time from 18.0 sec to 5.0 sec. in addition, the effectiveness of the mineral processing operation increases by 28%. Productivity increases if 2000 tons / day of ore are currently being processed, by automating the operation it is calculated that 3,444 tons / day are being processed. Result of this problem by simulating a continuous system to describe and analyze, over time, the behavior of the proposed system. The simulation was carried out with the Matlab program version 2017, it was chosen to use this simulation language for continuous systems due to its versatility to perform a simulation. The mathematical model found is supported by the use of the Laplace transform and anti-transform.

+ Keywords: Automation, stability, step function, ramp function, transfer function. Figura 2. Gancho opresor “perro”.

Introducción El transporte de los materiales de una fábrica a otra con instalaciones elevadas se usa cuando existe una superficie accidentada o un terreno a desnivel. Este tipo de transporte de carga es muy económico y es denominado teleférico, scrapper o tranvía aéreo. Consta esencialmente de una vagoneta, plataforma, ganchos y jaulas, que se mueven colgadas de cables, los que a su vez se apoyan y deslizan por medio de poleas sobre castilletes o pilares situados a intervalos regulares. Un ejemplo de este tipo de transportación de materiales metálicos se presenta en la empresa minera San Francisco del Oro, en el estado de Chihuahua, a 23 kilómetros de la ciudad de Hidalgo del Parral, Chihuahua. La operación de transporte de mineral se desglosa en varias fases: cargado de mineral, transporte aéreo en canastillas y vaciado de mineral en la planta de beneficio.

Figura 3. Mecanismo sujetador “perro”.

Revista Científica

133


Desde un lugar del complejo industrial conocido como ¨La Tinta¨, donde se cargan y se encarrilan dichas canastillas en el tren de transporte o tranvía aéreo este es un sistema mecánico para llevar el mineral extraído de la mina hasta las instalaciones de la planta de beneficio ubicado casi al centro del núcleo poblacional, este recorrido se caracteriza por partir de un punto alto que es donde se ubica la mina San Francisco del Oro, pasando por la mayor parte de la población mediante el sistema aéreo de cables hasta un punto más bajo, que es donde se ubica la planta de beneficio; es importante señalar que esta diferencia de niveles permitió diseñar un sistema físico, donde la caída libre es el factor principal para que las canastillas cargadas de mineral, suban a las canastillas vacías hacia el punto denominado ¨La Tinta¨; conformando un sistema mecánico de poleas interconectadas para aprovechar la caída libre, formando un mecanismo que no requiere energía eléctrica para moverse, lo que lo hace muy económico y rentable. Desde hace algunos años se presentan frecuentemente descarrilamientos y colisiones entre las canastillas que trasladan el mineral una distancia aproximada de 3 km. (Figura 1.). El problema con las grandes cantidades de descarrilamientos o colisiones entre las canastillas se debe a que el gancho sujetador (Figura 2.) llamado ¨perro¨ dentro del gremio o tranvía aéreo, se desprende del cable de movimiento continuo que es el que le proporciona el movimiento a la canastilla, mientras que el cable fijo es el punto de apoyo y de deslizamiento de dicha canastilla, al quedar libre la canastilla se desliza sobre el cable fijo buscando el punto mínimo de la cicloide que describe el cable fijo que pasa por los diferentes castillos, y al colisionar las diferentes canastillas derraman sobre el suelo el mineral transportado. Este mineral derramado sobre el suelo durante el trayecto de caída; detiene el suministro de mineral a la planta de beneficio y por ende se detiene la producción de concentrados, hasta por tres turnos la operación de transporte de mineral y en consecuencia la molienda de concentrados, incumpliendo los contratos de venta de este mineral. En este problema interviene el mecanismo sujetador perro (Figura 3.), descartándose la posibilidad de que se haya posicionado en forma incorrecta este gancho ya que es un mecanismo el que posiciona este gancho, y donde el índice de fallas prácticamente es nulo dentro del proceso.

Hipótesis Se considera que el factor que contribuye a los descarrilamientos es el método de cargado de mineral, ya que consiste en una operación semiautomática; En esta operación, un obrero mediante un interruptor, acciona un motor eléctrico que pone en movimiento un sistema electromecánico, este sistema abre o cierra mecánicamente la compuerta de una tolva que permite se descargue mineral sobre la canastilla que espera su turno, a criterio del obrero encargado en turno de esa operación, así como de mandar a su disposición cada canastilla cargada. Para que se transporte el producto hasta la planta de beneficio, con diferente peso y diferente distribución de distancia entre cada canastilla. Se detecta que estos dos aspectos son los importantes de controlar y así minimizar las vibraciones en el cable (el problema se delimita únicamente al cargado de mineral).

Marco Teórico El centro minero de San Francisco del Oro se repobló a fines del siglo XVIII, cuando en 1789 “denunciaron” (Salas, 1789) una mina llamada San Francisco, diferente de “la descubridora” que había originado el anterior auge minero, pero situada a corta distancia de ella. El inicio de la explotación del fundo recién denunciado, atrajo a nuevos habitantes, quienes repoblaron el lugar, abandonado durante más de 100 años. En San Francisco del Oro hubo (y sigue habiendo) oro de placer, el cual se obtiene lavando las arenas que arrastran los ríos o arroyos en época de lluvias, la formación geológica de estos lugares indica que los minerales, sobre todo la plata, estaban por regla general casi a flor de tierra, esto explica por qué ya a finales del siglo XVII toda la actividad minera en la región de Parral entró en retroceso. ¨El carácter efímero de la bonanza, debido a la existencia de yacimientos superficiales, fue todavía más marcado en el caso de San Francisco del Oro, se sabe que este real minero, fundado en 1658,¨ (Salas, 1789) estaba ya prácticamente despoblado hacia 1680; sus habitantes se habían trasladado en su mayoría a las recién descubiertas minas de Cusihuiriachi, situadas a unos 200 kms. al noroeste. Esta empresa desde aproximadamente el año 1658 ha explotado y beneficiado el mineral extraído, obteniendo como producto principalmente concentrados de cobre, plomo, zinc y fluorita. Se le considera a Francisco Molina en ser el descubridor de esta mina y prácticamente formar la población que lleva este nombre San Francisco del Oro. Donde las operaciones básicas de explotación y beneficio son: extracción, transporte, molienda y flotación.

Marco Conceptual Un sistema de control es un conjunto de dispositivos encargados de administrar, ordenar, dirigir o regular el comportamiento de otro sistema, con el fin de reducir las probabilidades de fallo y obtener los resultados teóricamente verdaderos. “Por lo general, se usan sistemas de control industrial en procesos de producción industrial para controlar equipos o máquinas” (Ogata, 2000). Existen dos clases comunes de sistemas de control, sistemas de lazo abierto y sistemas de lazo cerrado. En los sistemas de control de lazo abierto la salida se genera dependiendo de la entrada; mientras que en los sistemas de lazo cerrado la salida depende de las consideraciones y correcciones realizadas por la retroalimentación. Un sistema de lazo cerrado es llamado también sistema de control con realimentación. Los sistemas de control más modernos en ingeniería automatizan procesos sobre la base de muchos parámetros y reciben el nombre de controladores de automatización programables (PAC).

Clasificación de los sistemas de control según su comportamiento y medición Control

Selección de las entradas de un sistema de manera que los estados o

134

Revista Científica


salidas cambien de acuerdo a una manera deseada. Los elementos son: Medición: Para controlar es imprescindible medir y cuantificar los resultados. Detectar desviaciones: Una de las funciones inherentes al control, es descubrir las diferencias que se presentan entre la ejecución y la planeación. Establecer medidas correctivas: El objeto del control es prever y corregir los errores. Factores de control: Cantidad, Tiempo, costo, Calidad. Controlador: (Electrónica). Es un dispositivo electrónico que emula la capacidad de los seres humanos para ejercer control. Por medio de cuatro acciones de control: compara, calcula, ajusta y limita. Proceso: Operación o desarrollo natural progresivamente continúo, marcado por una serie de cambios graduales que se suceden uno al otro en una forma relativamente fija y que conducen a un resultado o propósito determinado. Operación artificial o voluntaria progresiva que consiste en una serie de acciones o movimientos controlados, sistemáticamente dirigidos hacia un resultado o propósito determinados. Ejemplos: procesos químicos, económicos y biológicos. Concentrado: Es el producto que se obtiene de la molienda de minerales procesados y con contenidos metálicos de oro, plata, cobre, zinc y plomo principalmente.

Preguntas de Investigación Se plantean las siguientes preguntas: ¿Cómo se puede controlar la operación de cargado de mineral en canastillas que permita distribuir un peso igual y en intervalos iguales? ¿Cómo modelar el sistema de llenado de las canastillas para analizar el comportamiento del sistema a través del tiempo?.

Metodología de solución

Modelado del sistema. Está formado por la representación de la planta y del sistema. Donde “planta” significa la interpretación matemática del equipo físico, que se relaciona con la cantidad que se controla y se entiende, que es inalterable desde el punto de vista funcional y de respuesta de las máquinas, en este caso las canastillas “sistema”, comprende los elementos que se añaden para llevar a cabo el control y que se denominan técnicamente “controladores” como se muestra en la Figura 4.

“Sistema de lazo abierto, lo constituyen en conjunto la planta y el controlador, representados en ecuaciones diferenciales, en funciones de transferencia y en variables de estado. Dicho en otras palabras representar el modelo en un sistema lineal invariante en el tiempo” (Ogata, 2000).

La técnica para solucionar problemas siguiendo los cambios en el tiempo de un modelo, así como su uso analítico. Por lo que, tanto aquellos sistemas existentes y los que están en estado preliminar, se pueden modelar de igual forma se puede predecir el comportamiento del sistema o en su operación. Casi sin excepción la ciencia afirma que uno de los principales elementos para resolver un problema, es la construcción y el uso de un modelo. “Una de estas formas de modelo es la representación matemática mediante ecuaciones que representan las características esenciales del sistema” (Close y Frederick, 2001).

La solución típica propuesta El modelo matemático o ecuación de movimiento parte del modelo clásico propuesto como la segunda ley de Newton, para realizar la “simulación ya que es una de las herramientas de análisis más poderosas para quienes se dedican al diseño y operación de procesos”. (Shannon, 2004) (1) Dónde F= vector suma de todas las fuerzas aplicadas a cada cuerpo en un sistema expresado en newton. m= masa del cuerpo expresado en kilogramos, a= vector aceleración de cada cuerpo del sistema expresado en metros/segundos2.

A grandes rasgos el diseño de un sistema de control automático como el que se plantea en este proyecto, involucra tres aspectos: “Modelado, Análisis y Síntesis” (Shannon, 2004).

Figura 5. Diagrama de cuerpo libre.

Figura 4. Diseño físico del sistema propuesto.

“La aplicación de esta ley requiere definir las coordenadas adecuadas para el movimiento del sistema, posición, velocidad y aceleración que determinan las fuerzas que actúan sobre el sistema, utilizando un

Revista Científica

135


diagrama de cuerpo libre que muestra las fuerzas configuradas para una condición de equilibrio,” (Franklin , Powell, y Naeini, 2005) como se muestra en la Figura 5. La ecuación de equilibrio, parte de: (2) La ecuación (2), origina la ecuación diferencial de segundo orden, para una entrada rampa:

Análisis de la Función de transferencia del sistema propuesto: La importancia de la función de transferencia de un sistema es que permite determinar las condiciones de estabilidad y amortiguamiento del mismo, para conocer la necesidad del uso de un controlador; mientras que la representación en variables de estado no tiene argumentos para explicar estas condiciones, de ahí entonces la importancia de representar el sistema de masa, amortiguador, resorte propuesto, en “una función de transferencia a lazo abierto definida por:” (Ogata, 2000)

(3)

Se establecen las siguientes condiciones iniciales y condiciones fronteras:

(8) Con un proceso matemático utilizando las condiciones iniciales, se dedujo la función de transferencia (9) para este sistema, como se indica:

Tiempo = t =0 seg. Desplazamiento = y = 0 m. Velocidad = v = y’ = 0 m/s.

(9)

Los parámetros del sistema mecánico propuesto son: Constante lineal de deformación del resorte = Kr = 95 kg/cm. Coeficiente de fricción viscosa del amortiguador = bp =60 kg/ cm/seg2

Análisis del modelado: Esta función de transferencia del sistema se ajusta a la frecuencia natural no amortiguada, mediante el siguiente modelo: (Ogata, Ingenieria de Control Moderna, 2000, págs. 279282)

Carga de mineral = 10 kg / cm2 de área. (10) La ecuación (3) en condiciones iniciales genera la ecuación siguiente: Por comparación entre las ecuaciones (9) y (10), se acepta que:

(4) Este sistema (4) se denomina representación en “variables de estado”. (Close y Frederick, 2001)

La ecuación diferencial (5) representa la salida del sistema del sistema mecánico, se describe en términos de: (5)

Este valor es la frecuencia natural no amortiguada de este sistema propuesto formado por los elementos masa, amortiguador, resorte. Así como también se acepta que: ; entonces el factor de amortiguamiento es:

Luego entonces, para determinar la función de transferencia para una señal rampa que es el interés de simular este sistema propuesto; la señal rampa se obtiene por la sustitución en esta convolución y la función escalón , es:

(11) El manejo de la ecuación (4) se representa en forma matricial como: (6)

La ecuación de salida o respuesta del sistema (5) es: (7)

136

Revista Científica

En esta función (11), se aplica “el controlador proporcional (controlador p), que es el objetivo para tener un control sobre el tiempo y que se detalla a continuación.” (Ogata, 2000)


Aplicación del controlador proporcional al sistema. Para que el controlador p, entre en función dentro del sistema, se inicia con conocer las funciones de transferencia del sistema mecánico propuesto con una señal rampa y la función de transferencia del controlador proporcional p.

La Figura 6, muestra la “respuesta escalón” (Close y Frederick, 2001) simulada por Matlab de la función de transferencia calculada como la ecuación (16). Nos relata un sobretiro del 50%, muy grande y un tiempo de estabilidad de 14 segundos aproximadamente, por lo que surge la pregunta ¿existe una ganancia del controlador p, que minimice este sobretiro? (Ogata, 2005) Se piensa en un ajuste del controlador p, entonces un diagrama cero-polar, ayuda a determinar ese ajuste.

Y para cumplir esta propuesta se busca la nueva función de transferencia compuesta por la convolución entre las funciones de transferencia del sistema propuesto y la función de transferencia del controlador utilizando la ecuación:

(12) La ecuación característica de esta función de transferencia es el denominador de la ecuación (12):

(13) “El método de Routh” (Ogata, 2000) es un arreglo triangular, y al aplicarlo (13) se determina que el tercer arreglo se expresa como sigue:

Al despejar el valor de

Figura 7. Respuesta del programa Matlab.

(14)

La Figura 7, muestra la posición de los “ceros y polos” (Close y Frederick, 2001) del sistema mecánico; el diagrama cero-polar presentado contiene dos polos del lado derecho y esto indica que el sistema es estable y controlable aunque no está controlado.

(15)

Esto es suficiente argumento para que se proponga un análisis más detallado con la finalidad de que se encuentren estos polos más cerca del eje complejo, para ello se ha de llevar la acción de afinar el controlador p. (Ogata, 2005)

, este tiene como solución:

Y de acuerdo a las reglas de sintonización por el “criterio de Ziegler-Nichols,” (Ogata, Ingenieria de Control Moderna, 2000, pág. 640) para un controlador p se determina que el valor de ; luego entonces la función de transferencia para la señal rampa, al sustituirse sobre la ecuación (12), queda:

(16) Simulación de la primera propuesta de la función de transferencia del sistema masa amortiguador resorte, con controlador p.

Análisis de la respuesta cero polar para afinar el controlador p. De lo anteriormente mencionado, primero se requiere atender a la ubicación de los polos localizados del lado derecho del eje complejo, ya que el sistema requiere primero llevar el control y luego ajustar finamente el controlador p. Para ello se sugiere la siguiente técnica, agregar un cero dejando constante la ganancia del controlador en , y agregar un cero a la izquierda para retardar la respuesta rampa (es el comportamiento del cargado de mineral en la canastilla). Se calculó una nueva función de transferencia proponiendo un cero en , ya que es un valor que está muy cercano a los dos polos localizados en ; esto significa que la nueva función de transferencia para el controlador es como sigue:

(17)

Entonces la ecuación (12) cambia a: Figura 6. Respuesta del programa Matlab.

Revista Científica

137


La nueva función de transferencia se simplifica en la ecuación (18) que representa la función de transferencia del sistema controlado con un cero adicional y una señal rampa.

(18)

Síntesis del modelado: Ajuste fino de los parámetros del controlador proporcional. Realizar un cambio o variar la ganancia del controlador, tiene un efecto considerable en la velocidad de respuesta del sistema controlado, esto tiene un efecto considerable sobre la velocidad, que es lo que se busca mejorar de acuerdo al análisis del párrafo anterior; se considera el siguiente criterio, establecer como constantes los valores de la función de transferencia del sistema masa, amortiguador, resorte y únicamente hacer variar el valor de . La simulación de esta función de transferencia (19) en el programa de Matlab para diferentes valores de , y después del análisis para varios valores, determina que la respuesta más óptima es para el valor de =1.5, calculándose la función de transferencia del controlador en:

Figura 8. Respuesta escalón del sistema, por Matlab. (19)

La Figura 8, muestra la simulación del sistema representado con la función de transferencia (18). Se puede analizar que el sobreimpulso se incrementó de un 50% al 60%, este valor es grande sin embargo se justifica que un sistema masa, amortiguador, resorte, tenga un sobreimpulso, de manera que justifique la acción del resorte; sin embargo se obtuvo una ganancia en el tiempo de estabilidad de 20 a 8 segundos, esto sugiere probar un ajuste al controlador. (Ogata, 2005)

Figura 10. Respuesta Escalón del controlador propuesto con ajuste fino.

La Figura 10, muestra la respuesta del controlador, se aprecia que la respuesta del controlador emite su respuesta estable a los 5 segundos. (Ogata, 2005, ) Al comparar con la respuesta escalón inicial sin controlador, ya no se observa el sobretiro de 60% y la oscilación del sistema y ahora con el controlador con ajuste fino se puede observar cómo responde el controlador para provocar la estabilidad en 5 segundos. (Franklin, Powell, y Naeini, 2005) Figura 9. Respuesta cero polar del sistema, por Matlab.

La Figura 9, muestra la respuesta cero-polar del sistema propuesto, donde muestra los dos polos del lado izquierdo, lo que indica que el sistema ya está en control, solamente necesita un ajuste en el controlador para provocar un aumento de velocidad de respuesta esperando que disminuya el tiempo pico de sobreimpulso.

Al sustituir este valor del parámetro del controlador, y mediante una convolución con la ecuación del sistema masa, amortiguador, resorte, la ecuación se sintetiza en:

Se sugiere entonces darle un ajuste fino al controlador. (Ogata, 2005) (20)

138

Revista Científica


La Figura 13, muestra el “diagrama de Nyquist del sistema propuesto y con ajuste fino en el controlador proporcional. (Franklin , Powell, y Naeini, 2005) El análisis de este diagrama determina que al graficar los polos y ceros de una función de transferencia. Nyquist muestra la trayectoria y en forma cerrada y continua en el plano complejo s, además de que no pasa por ningún punto singular, esto indica la estabilidad del sistema en su respuesta y el control, (Ogata, 2005) se afirma en las trayectorias cerradas y continuas además de opuestas de manera que su suma es cero por lo que el sistema está controlado.” (Ogata, 2000)

Figura 11. Respuesta cero-polar del sistema propuesto con ajuste fino en el controlador proporcional.

Síntesis en la Respuesta en el tiempo del sistema controlado, análisis del error

La Figura 11, muestra el comportamiento del sistema masa, amortiguador, resorte con ajuste en el controlador proporcional, se observa que el cero adicionado está antes que los polos y que estos están muy cercanos al eje complejo y del lado izquierdo lo que indica que el ajuste tuvo un gran efecto en la velocidad de respuesta del sistema, entonces se afirma que el sistema está controlado y estable con un sobretiro del 0%. (Ogata, 2005)

Este se puede calcular a través del modelo:

(21)

El valor porcentual del 10.5% significa la medida en que el sistema se puede desviar de la respuesta deseada, al recibir una señal de entrada o bien una señal de perturbación cualquiera, para que el sistema vuelva a su posición inicial. Lo que implica que los límites de tolerancia de carga de mineral para una canastilla es 1 ton. ± 105 kilogramos de mineral; sin que el sistema se salga de control y de estabilidad.

Ecuación en el dominio del tiempo del sistema propuesto.

Figura 12. Respuesta Rampa del sistema propuesto con ajuste fino en el controlador proporcional, midiendo el error.

La Figura 12, muestra la respuesta rampa del sistema propuesto con controlador proporcional y con un ajuste en su parámetro, simulado en Matlab, y muestra un aproximado del error considerado el sistema y con valor de 10.5 %, en el punto máximo de cargado por parte del sistema mecánico. (Ogata, 2005)

Para determinar la respuesta en el dominio del tiempo, del sistema propuesto y controlado conociendo su función de transferencia, se utiliza la antitransformada de Laplace; el programa del Matlab simula esta antitransformada, y para este caso, la respuesta a través del computer control (CC) del Matlab, la definición es:

(22)

Figura 13. diagrama de Nyquist del sistema propuesto y con ajuste fino en el controlador proporcional

Revista Científica

139


Conclusión Se concluye que un sistema de control automático para la operación de carga de mineral, es la forma en que se puede controlar y distribuir uniformemente el peso. La solución del “modelado y simulación” (Shannon, 2004) que se presentó, permite darle respuesta a las preguntas planteadas en la parte del objetivo de este trabajo y concluir que, sí es posible disminuir el tiempo de cargado de mineral en las canastillas, mediante un sistema automático, donde este sistema requiere de 5.0 segundos para cargar una canastilla y 5.0 segundos de tiempo muerto de cargado lo que indica que este tiempo es el suficiente para separar una distancia igual cada canastilla y con un peso de 1 tonelada ±10.5%. Actualmente, la automatización es un factor muy importante para las empresas y cuanto más automático son los procesos más pequeños va a ser la posibilidad de errar y mayor será el profesionalismo de la empresa. La automatización genera bastante ahorro, en la medida en que permite la eliminación de errores, reducción del tiempo para efectuar una determinada tarea y reduce la necesidad de un elevado número de trabajadores para desempeñar una función. La relación correcta entre el hombre y la máquina permite un mayor rendimiento día a día. También permite eliminar costos por exceso de mano de obra, pues se logra fácilmente optimizar el trabajo. Una automatización correcta permite identificar fácilmente puntos de ineficiencia y retrasos, pudiendo ser corregidos de inmediato, las acciones realizadas cumplen con las normas establecidas. El análisis comparó la respuesta del modelo que se obtuvo en función del tiempo, con la respuesta del modelo físico real existente.

140

Revista Científica


Bibliografía + ​Close, C., y Frederick, D. (2001). Modeling and Analysis of Dinamic Systems. U. S. A.: Houghton Mifflin Company. + Franklin , G., Powell, J., y Naeini, A. E. (2005). Control de Sistemas Dinámicos con retroalimentación. Wilmington, Delaware, E. U. A. : Addison- Wesley Iberoamericana, S. A. + Ogata, K. (2000). Ingenieria de Control Moderna. México, D. F.: Prentice Hall. + Ogata, K. (2005). Solving Control Engineering Problems with Matlab. Englewood Cliffs, New Jersey U.S. A.: Prentice Hall. + Salas, F. (1789). Archivo Histórico de Parral B(G, 20C), (S670, 1147, Rollo27). Parral, Chih.: Diócesis de Parral. + Shannon, R. (2004). Simulación de Sistemas Diseño, Desarrollo e implementación. México, D. F.: Trillas.

Revista Científica

141


Ángel Camacho-Valadez1 y David Camacho-Valadez2

Universidad Autónoma de Ciudad Juárez, Instituto de Ciencias Biomédicas, Departamento de Ciencias Químico-Biológicas, Licenciatura en Biología, Anillo envolvente del PRONAF y Estocolmo s/n, C.P. 32310, Ciudad Juárez, Chihuahua, México. 1

Maestría en Planificación y Desarrollo Urbano, Instituto de Arquitectura, Diseño y Artes Departamento de Arquitectura, Universidad Autónoma de Ciudad Juárez. 2

Resumen: Muestreos en diversas locaciones al sur y centro de México, al igual que en Estados Unidos reportan datos sobre la actividad en cuanto a la alimentación, movimientos, invasión y descripción de la especie denominada Quiscalus mexicanus (Zanate). No obstante, esta información no es abundante aún en nuestros días, mucho menos en el comportamiento de la especie en los espacios (urbanos y rurales) donde estas aves habitan. Este estudio buscó por medio de una metodología de observación, monitorear el comportamiento alimentario del Quiscalus mexicanus en un contexto de parques urbanos en Juárez, Chihuahua. Los resultados muestran mayor actividad en la mayoría de las actividades sondeadas de parte de las hembras de la especie, recolección de alimento y suelo de las áreas donde habitan, de igual forma se reporta un rol de monitoreo desde los árboles predominante en machos. Estos datos son los primeros reportados al respecto al norte de México.

+ Palabras clave: Quiscalus mexicanus, observación, comportamiento, parques urbanos. david.camacho@uacj.mx Recibido: Abril 15, 2019. Recibido en forma revisada: Junio 1, 2020. Aceptado: Junio 20, 2020.

142

Revista Científica

Abstract: Samplings in various locations in southern and central Mexico, as well than in the United States, report data on activity in terms of food, movements, invasion, and description of the species called Quiscalus mexicanus (Zanate). However, the information about this to-


pic is not abundant today and even less about behavior of the species in urban and rural spaces where those birds live. This study sought, through an observation methodology, to monitor the feeding behavior of Quiscalus mexicanus in a context of urban parks in the city of Juarez (Mexico). The results show greater activity in most of the activities surveyed by the females of the species, gathering food and soil from the areas where they live, likewise a monitoring role is reported from the trees predominantly in males. This data becomes the first reported in this regard in northern Mexico.

+ Keywords: parks.

Quiscalus mexicanus, observation, behavior, urban

Introducción El Quiscalus mexicanus o zanate mexicano, es un ave originaria de la vertiente del Golfo de México que se encuentra en la actualidad, distribuida en lugares como Canadá, Estados Unidos, México y el Caribe, así como Venezuela, Colombia, Ecuador y Perú en Sudamérica (AOU 1998; Christensen 2000; Gurrola-Hidalgo, Sanchez-Hernández y Romero-Almaraz, 2009), debiendo su amplia dispersión principalmente a la adaptabilidad y tolerancia a los ambientes modificados por las comunidades humanas (Wethje 2003; Gurrola-Hidalgo, Sanchez-Hernández y Romero-Almaraz, 2009). Datos recientes en Estados Unidos han reportado la presencia de grandes grupos de esta especie en entornos urbanos (Grigar, Cummings, Rodríguez-Rivera, Rankin, Johns, Hammer y Hammer, 2016) siendo las áreas verdes urbanas, como los parques o jardines, los hábitats que estas aves frecuentan ya que tienen características similares a los entornos silvestres (Ortega-Álvarez y MacGregor-Fors, 2009) de procedencia de esta especie.

Desarrollo Tal parece que la presencia del Quiscalus mexicanus en parques urbanos se debe en gran medida a la existencia de comida en estas áreas (Marzluff, 2012) ya que esta especie es considerada por algunos autores como una especie “oportunista” (Gurrola-Hidalgo; et al, 2009) que aprovecha factores de control humano como la instalación de comedores de semillas (Shochat, Lerman y Fernández-Juricic, 2010) para alimentarse, pese a que en otros entornos no urbanos suelen ingerir una gran variedad de presas como vertebrados, invertebrados, crustáceos pequeños y otros animales marinos, además de granos y frutos (Gurrola-Hidalgo, Sanchez-Hernández y Romero-Almaraz, 2009). Estos datos nos muestran que en nuestros días son conocidas las fuentes de alimento del Quiscalus mexicanus y como estas varían dependiendo el entorno donde este habite. No obstante, los registros sobre los hábitos alimenticios del zanate mexicano son escasos (Johnson y Peer, 2001), al menos, en lo que a comportamiento alimentario se refiere. De hecho, en la última década, algunos estudios señalan que el Quiscalus mexicanus muestra comportamientos tan específicos en su alimentación como lo pueden ser sumergir los alimentos en agua antes de consumirlos para facilitar la ingestión (Morand-Ferron, 2005), el luchar entre machos por comida, competir por sobras de comida (verduras y frutas) (MacGregor-Fors, Vazquez, Vega-Rivera y Shoundube, 2009) o recolectar los insectos muertos adheridos a las placas (matrículas) de los autos (Grabrucker y Grabrucker 2010).

Justificación Respecto a estudios en México sobre el comportamiento alimentario del Quiscalus mexicanus en entornos urbanos, se puede agregar que siguen sin ser abundantes en nuestros días. Sin mencionar que los estudios existentes se han limitado a ser desarrollados en parques situados en el centro del país, donde cohabitan con otras especies tanto de aves comunes como exóticas (Pineda-López, Malagamba Rubio, Orranti y José, 2013); De igual forma, se han registrado estudios al occidente de México en entornos urbanos (Gurrola-Hidalgo, Sánchez-Hernández y Romero-Almaraz, 2009). Por otro lado, durante la elaboración de este documento, no se encontraron estudios acerca de la observación de la manera en la cual la especie en cuestión consigue su alimento al norte de México. Esto se convierte en una de las justificaciones del presente estudio, donde se buscó reportar el comportamiento alimentario del Quiscalus mexicanus en entornos urbanos (concretamente, parques urbanos) de una ciudad al norte de México (Ciudad Juárez, Chihuahua) y de esta forma corroborar o bien, refutar la información de estudios anteriores.

Metodología Para reportar el comportamiento del Quiscalus mexicanus se utilizó la metodología empleada por De La Peña (2006), quien, para medir el comportamiento alimentario de estas aves, propone las siguientes variables: • Recolección: maniobra en la cual un ave posada captura el alimento de la superficie de un sustrato cercano, sin abandonar su posición. • Revoloteo: el ave toma el alimento de la superficie de un sustrato mientras está en vuelo. • Caza al vuelo: el ave vuela desde un sustrato para capturar la presa en el aire. Puede o no volver al mismo sitio. • Sondeo: inserción del pico dentro de hoyos o de agujeros de un sustrato, o dentro o debajo de sustratos blandos o de plataformas de palos. Puede también picotear. • Salto: el ave salta para alcanzar su alimento, usando movimientos con las patas, sin volar. Se eligió esta metodología ya que esta se mostró como la más accesible y completa, teniendo como opción la fotografía a distancia (digiscoping) en la que se emplea una cámara fotográfica y lentes telescópicos para observar el comportamiento de ingesta de presas sin perturbarlas (Leary, 2004; Larson y Craig 2006). En el trabajo de Morand-Ferron en 2005 se observó que sumergen los alimentos en agua antes de consumirlos para facilitar la ingestión, por lo que decidimos agregar esta variable.

Área de estudio Se delimitaron dos parques urbanos de la ciudad, seleccionados por su extensión y presencia del Quiscalus mexicanus. El primer lugar de estudio fue el Parque Central Hermanos Escobar, situado a los 31° 41’ 13.58” de latitud N y los 106° 25’ 31.95’’de longitud W (figura 1); El

Revista Científica

143


segundo fue el Parque de Las Lilas situado a los 31° 45’ 16.54” de latitud N y los 106° 26’ 20.30’’de longitud W Figura 2. Cada área de muestreo se delimitó en 3 áreas diferentes con un perímetro de 50 m x 100 m las cuales se diferenciaron en zona con árboles, zona media y zona sin árboles.

dividiendo el reporte por el sexo del Quiscalus mexicanus como primera división y en una segunda escala, generando una división por zona (zona con árboles, zona media y zona sin arboles). En cada observación el informe era llenada por el observador según ocurría el comportamiento de las aves.

Tabla 1. Representación de la herramienta utilizada para indicar el número de acciones en las distintas zonas a evaluar.

Figura 1. Área del Parque Central Hermanos Escobar en el que observó a los ejemplares. A: Zona con árboles, B: Zona media, C: Zona sin árboles. Fuente: Elaboración propia.

Análisis estadísticos Una vez obtenidos los datos, se realizó una base de datos y se realizaron tablas para reportar datos descriptivos y frecuencias de acción de las actividades reportadas del ave. Figura 2. Área en el Parque De Las Lilas en el que se observó a los ejemplares. A: Zona con árboles, B: Zona media, C: Zona sin árboles. Fuente: Elaboración propia.

Toma de la muestra La muestra fue realizada con ocho muestreos divididos en cuatro para cada zona reportada. Estos fueron realizados dos por semana durante el periodo de un mes en el verano del 2019 (julio), teniendo una duración cada uno de dos horas. Las distancias a las cuales se observaron a las aves en su hábitat tenían una distancia promedio de cinco metros desde la perspectiva del observador hasta las zonas donde las aves se acercaban a realizar sus actividades. Por ello fue necesario el empleo de binoculares y se tomaron a consideración husos horarios para los muestreos, teniendo dos tiempos de reporte, de 8 a 10 de la mañana y de 5 a 7 de la tarde, respectivamente. Para cada muestreo, las zonas desde donde el observador se ubicaba eran las mismas para ambas zonas.

Resultados Se reporto un total de 662 observaciones, haciendo referencia al total global de veces que las aves realizaron alguna de las 6 acciones propuestas en la herramienta, las cuales se depositaron en 4 figuras. A continuación, se ven representadas las primeras 2, en la figura se observa el número de veces que los Quiscalus realizaron las actividades previamente mencionadas para captar semillas o insectos y en la Figura 4 para captar otros tipos de alimentos como residuos de comida que dejan las personas siendo la primera ubicación en el Parque Central Hermanos Escobar.

Herramienta Se elaboró una tabla a manera de informe (Tabla 1.) donde se reportaban los tipos de observación mencionados por De La Peña (2006),

144

Revista Científica

Figura 3. Acciones realizadas por el Quiscalus mexicanus para tomar semillas e insectos en el Parque Central Hermanos Escobar.


Figura 4. Acciones realizadas por el Quiscalus mexicanus para tomar otro tipo de alimentos en el Parque Central Hermanos Escobar.

Las Figuras 5 y 6, se colocaron los mismos datos que se recabaron en el caso de las figuras anteriores, pero en la otra ubicación que fue el Parque De Las Lilas.

235 observaciones y la zona media con 180 observaciones.; En cuanto al sexo, las hembras son las que realizan la mayor actividad de comportamiento alimentario con un total de 352 observaciones en contraste con los machos que presentaron una frecuencia de 310 observaciones. En la Figura 3 y 4, vemos que la actividad que los Quiscalus mexicanus realizaban con mayor frecuencia tanto macho y hembra en el Parque Central Hermanos Escobar fue la de recolección con 74 observaciones y la Figura 5 y 6, indican que, en el Parque De Las Lilas, fue el revoloteo con 127 observaciones. Finalmente pudimos determinar que la dieta principal de esta especie se basa esencialmente de semillas e insectos que encuentran en el sustrato. Estos datos nos dan hincapié a que hay mayor actividad de la especie en el Parque De Las Lilas. No se registró que ningún Quiscalus sumergiera los alimentos en agua antes de consumirlos. En el estudio de Morand-Ferron se menciona que esta accion se realiza para facilitar la ingestión de alimento duro como cacahuates o ciertos insectos, lo que da a entender que el alimento que encuentran en estas áreas es fácil de ingerir. Respecto al consumo de insectos, trabajos anteriores también han indagado en comportamientos específicos como el de que esta ave consume insectos retirándolos de las placas de los vehículos, como si fuera una especie de trampa (Grabrucker y Grabrucker, 2010), no obstante, este comportamiento no fue reportado en los muestreos de este estudio.

Conclusiones

Figura 5. Acciones realizadas por el Quiscalus mexicanus para tomar semillas e insectos en el Parque De Las Lilas.

Se pudo concluir que la mayoría de los Quiscalus mexicanus se alimentan de frutos e insectos, además de que el muestreo fue en una zona urbana, al parecer los Quiscalus aprovechan esa ventaja y se alimentan de alimentos dejados en parques o ya sea en botes de basura, lo cual es una desventaja para ellos, porque muchos de los alimentos que no son aptos no las pueden digerir y de acuerdo con su fisiología retienen más partículas indigestibles y pueden enfermar. Este tipo de estudios permite aportar información sobre la cadena alimenticia y la productividad de las áreas de forrajeo, así como sus requerimientos alimenticios, energéticos y reproductivos.

Figura 6. Acciones realizadas por el Quiscalus mexicanus para tomar otro tipo de alimentos en el Parque De Las Lilas.

Podemos ver a simple vista que hubo mayor actividad en el Parque De Las Lilas que en Parque Central Hermanos Escobar.

Discusión En base a los datos obtenidos se pudieron obtener 5 resultados principales. Tomando en cuenta el total global de 662 observaciones unificando los resultados de los 2 parques, la zona en la que hubo mayor actividad tanto en machos como en hembras fue en la zona sin árboles con un total de 257 observaciones a comparación de la zona con árboles con

Revista Científica

145


146

Revista CientĂ­fica


Bibliografía + AOU (American Ornithologists’ Union). (1998). Checklist of North American birds, 7a. ed. American Ornithologists’ Union. Washington, D.C., E.U.A.

+ Larson, K., D. Craig. (2006). Digiscoping vouchers for diet studies in bill-load holding birds. Waterbirds: The International Journal of Waterbird Biology 29(2):198-202. + Leary, P.R. (2004). Digiscope applications for shorebird studies. Wader Study Group Bulletin 104:34-38

+ Christensen, A.F. (2000). The fifteenth- and twentieth-century colonization of the Basin of Mexico by the Great-tailed Grackle (Quiscalus mexicanus). Global Ecology and Biogeography 9(5):415-420.

+ MacGregor-Fors I., Vázquez L., Vega-Rivera J.H. y Schondube J.E. (2009). Non-exotic invasion of Great-tailed Grackles Quiscalus mexicanus in a tropical dry forest reserve. Ardea 97(3): 367–369.

+ De La Peña, M. R. (2006). Observaciones de campo en la forma de capturar el alimento por algunas aves. FAVE Sección Ciencias Veterinarias, 5(1/2), 25-35.

+ Marzluff, J. M., Bowman, R., y Donnelly, R. (Eds.). (2012). Avian ecology and conservation in an urbanizing world. Springer Science & Business Media.

+ Grabrucker, S. y A.M. Grabrucker. 2010. Rare feeding fehavior of Great-Tailed Grackles (Quiscalus mexicanus) in the extreme habitat of Death Valley. The Open Ornithology Journal 3:101-104.

+ Morand-Ferron, J. (2005). Dunking behavior in American Crows. The Wilson Bulletin 117(4):405-407.

+ Grigar, M. K., Cummings, K. J., Rodriguez-Rivera, L. D., Rankin, S. C., Johns, K., Hamer, G. L., y Hamer, S. A. (2016). Salmonella surveillance among great-tailed grackles (Quiscalus mexicanus) and other urban bird species in Eastern Texas. Vector-Borne and Zoonotic Diseases, 16(12), 752-757. + Gurrola-Hidalgo, M.A., C. Sánchez-Hernández y M.L. Romero-Almaraz. (2009). Novel food sources for Quiscalus mexicanus and Cyanocorax sanblasianus in Chamela, Jalisco coast, Mexico. Acta Zoológica Mexicana (n. s.) 25(2):427-430. + Johnson, K., B.D. Peer. (2001). Great-tailed Grackle (Quiscalus mexicanus). Pp. 1-28. En A. Poole, F. Gill (eds.), The Birds of North America 576. The Birds of North America, Inc., Philadelphia, E.U.A.

+ Ortega-Álvarez, R., MacGregor-Fors, I., 2009. Living in the big city: effects of urban land-use on bird community structure, diversity, and composition. Landscape and Urban Planning 90, 189–195. + Pineda-López, R., Malagamba Rubio, A., Orranti, O., y José, A. (2013). Detección de aves exóticas en parques urbanos del centro de México. Huitzil, 14(1), 56-64. + Shochat, E., Lerman, S., y Fernández-Juricic, E. (2010). Birds in urban ecosystems: population dynamics, community structure, biodiversity, and conservation. Urban ecosystem ecology, (urbanecosysteme), 75-86. + Wethje, W. (2003). The range expansion of the great-tailed grackle (Quiscalus mexicanus Gmelin) in North America since 1880. Journal of Biogeography 30(10):1593-1607.

Revista Científica

147


Héctor Mendoza Montiel1, Luis Cardona Chacón2 y Luis F. Ovalle Moreno3

Tecnológico Nacional de México, Instituto Tecnológico de Chihuahua Departamento de estudios de posgrado e investigación, Departamento de metal mecánica, Av. Tecnológico 2909. Col 10 de mayo, Chihuahua, Chihuahua, México C.P. 31310. 1,2,3

hmendoza@itchihuahua.edu.mx lcardonac@itchihuahua.edu.mx lovallem@yahoo.com

Resumen: Esta investigación se realizó en el Instituto Tecnológico de Chihuahua, y tuvo como finalidad diseñar una Empresa de Base Tecnológica (EBT), que provee una pieza cerámica demandada por una industria fabricante de cables automotrices, la pieza es de importación y se consume en grandes cantidades, por lo que se requiere disminuir la cantidad usada en su proceso. Para realizar el proyecto se aplicó el modelo del aprendizaje tecnológico de Linsu Kim, para desarrollar la innovación solicitada por la empresa. Como resultado se logró un nuevo producto que redujo el número de piezas utilizadas en la fabricación de cables y sus costos, los parámetros industriales de su fabricación, la propiedad industrial y el diseño de la empresa para atender la demanda identificada en las plantas del grupo industrial, así como; la integración de recursos humanos para aplicar la comprensión de la dinámica del aprendizaje tecnológico en el plano empresarial.

+

Palabras clave: Empresa, investigación, desarrollo, tecnología, Innovación

Recibido: Agosto 14, 2019. Recibido en forma revisada: Abril 5, 2020. Aceptado: Junio 20, 2020.

148

Revista Científica

Abstract: This investigation was carried out at the Technological Institute of Chihuahua, and was designed to design a Technology Based Company (EBT), which provides a ceramic piece demanded by an automotive cable manufacturing industry, the piece is imported and consu-


med in large quantities, the company requires reducing the amount used in their process. To carry out the project, Linsu Kim’s technological learning model was applied to develop the requested innovation. As a result, a new product was achieved that reduced the number of parts used in the manufacture of cables and their costs, the industrial parameters of the manufacture, industrial property and the design of the company to meet the demand identified in the plants of the industrial group , as well as; the integration of human resources to apply the understanding of the dynamics of technological learning at the business level.

+ Keywords: : Enterprise, research, technology, development, innovation.

Introducción Uno de los propósitos de nuestro país con respecto a la operación de la Industria manufacturera, maquiladora y de servicios (IMMEX), fué incorporar insumos nacionales en los procesos de manufactura. En el estado de Chihuahua, después de más de 20 años en que se estructuraron los clústers industriales para facilitar la integración entre las industrias, los insumos estatales no sobrepasan el tres por ciento, las MiPyMES (micro, pequeñas y medianas empresas) del estado, a pesar de diversos intentos y programas de gobierno, no han logrado elevar la integración con las IMMEX, las cuales consumen grandes volúmenes de insumos, requieren de empresas certificadas que cumplan con las normas de calidad y entregas a tiempo, además de que cuenten con infraestructura, recursos económicos y personal para investigación. Razones por las cuales no se ha logrado incrementar el suministro, sin embargo existen nichos de productos que son de mediana tecnología y que pueden ser aprovechados por las empresas nacionales para su suministro como este caso que presentamos. La Ingeniería en Materiales en el Instituto Tecnológico de Chihuahua, es una licenciatura que se ocupa de inventar nuevos materiales y mejorar los ya conocidos mediante la investigación de las relaciones entre microestructura, composición, síntesis, y procesamiento (Smith, 2004). Su enfoque es convertir o transformar los materiales en dispositivos o estructuras útiles. Se desarrolla en áreas tan diversas como la mecánica cuántica y la nanotecnología por un lado, y por otro, subsanar las necesidades humanas a través de nuevos materiales a base de metales, plásticos, cerámicos y compuestos (Askeland, 2010). La licenciatura llevo a cabo el proyecto “diseño y fabricación de cerámicos reutilizables”, utilizados en la extrusión de cables de cobre, el grupo industrial Leonu Cable solo en México elabora más de 500 mil kilómetros de cables por año y contempla duplicar la producción para fines del año 2019, los cables y sistemas de cableado se destinan principalmente a la industria automotriz, la pieza origen de este proyecto, es importada y solo se puede usar una vez para después por su naturaleza ser desechada. La propuesta fue sustituir por otra que sea reutilizable, fabricada con materias primas locales, resistente al choque térmico y que reduzca su costo como mínimo un 65 % . Para ello se requiere diseñar una EBT que fabrique y suministre el producto. Las EBT son las principales organizaciones para la innovación y los centros de investigación y otras empresas proveedoras de servicios tecnológicos constituyen las instituciones que concentran las capacida-

des de nuevo conocimiento para la producción, son actores clave en los procesos de innovación, que al estar inmersas en un conjunto de relaciones de conocimiento con centros de investigación, instituciones de educación superior y otras organizaciones y empresas, transforman la ciencia en tecnología y en productos y servicios con valor económico de mercado, logrando rentabilidad económica atractiva, generalmente cuentan con personal técnico altamente calificado y se identifican como empresas tecnológicamente innovadoras (Corona, Treviño, 2005). Por lo común, las innovaciones siguen un ciclo que puede ser descrito en tres fases, la primera es la introducción de un producto o un proceso al mercado, en la segunda fase es la competitividad de la empresa se sustenta en una serie de mejoras e innovaciones incrementales del producto o servicio, a la par que en una creciente normalización que alcanza cierta maduración del producto y por último, en la tercera fase la tecnología ha alcanzado su madurez plena, por lo que los elementos de la competitividad se basan más en el precio, adquiriendo más importancia las innovaciones de proceso productivo. Estudios recientes de la innovación señalan que en al ámbito macroeconómico el desempeño tecnológico, en lo que se refiere a nuevos productos y procesos, depende no solo de la investigación que se realiza, el número de investigadores o productos del desarrollo tecnológico sino también, en buena medida, de la interacción entre empresas, universidades y organizaciones públicas y privadas, los vínculos pueden tomar forma de investigaciones conjuntas, intercambios personales, intercambio de patentes, compra de equipos y otra variedad de otros canales (León Serrano, 2011). También se acepta que la educación superior está más relacionada con el desarrollo científico y las capacidades tecnológicas. Por lo tanto la educación superior afecta el desempeño de los procesos de innovación tecnológica, básicamente llevados a cabo por sus actividades de investigación y los programas de posgrado. Por otra parte el diseño empresarial depende de que exista una demanda potencialmente insatisfecha que sea lo suficientemente atractiva, que exista o se desarrolle la tecnología de producto, proceso y operación, capital humano capacitado, además de rentabilidad económica atractiva, para tomar la decisión de invertir para formar una empresa. Los objetivos específicos que se plantearon para realizar la investigación fueron los siguientes:

• Aplicar el modelo integrador aprendizaje tecnológico para la industrialización para generar innovación. • Formar recursos humanos con competencias en desarrollo tecnológico e innovación con dinámica empresarial. • Diseñar una EBT para fabricar y suministrar las piezas requeridas.

Metodología El método propuesto para lograr los objetivos del presente trabajo consistió en la adaptación del modelo integrador para la comprensión de la dinámica del aprendizaje tecnológico en el plano empresarial (Kim, 2000). Figura 1.

Revista Científica

149


el incremento de actividades empresariales en materia de Investigación y Desarrollo (IyD), en cuarto la calidad de la educación para formar científicos e ingenieros mejor preparados y la quinta incrementar los centros de investigación contratando investigadores con visión industrial, no olvidar que la capacidad tecnológica se acumula en gran parte gracias al proceso de “aprender investigando”.

Innovación

Figura 1. Modelo integrador. Fuente: (Kim, 2000).

El modelo fue diseñado para la industria automotriz de la República de Corea, el cual muestra que el aprendizaje tecnológico rápido y eficaz se produce mediante la conversión que se produce entre el conocimiento explícito y el tácito. Por conocimiento explicito entendemos el conocimiento que se encuentra codificado y que puede trasmitirse usando un lenguaje formal y sistemático. El conocimiento tácito es propio de la mente humana que difícilmente puede transmitirse y solo puede expresarse con la acción, el compromiso y la participación en un contexto especifico. Para empezar a utilizar el modelo se seleccionó la sección correspondiente de la orientación del aprendizaje Figura 2.

En este estadio el conocimiento se transforma en innovaciones, para ello se utilizan cinco mecanismos, la investigación básica en las universidades, la investigación aplicada orientada a la consecución de un fin en los institutos públicos de investigación, las actividades de las empresas en investigación y desarrollo (IyD) y la contratación de personal altamente calificado.

Capacidad de absorción

Se compone de dos elementos principales, la base de conocimientos existente y la intensidad de esfuerzo, el primero constituye una plataforma esencial en el aprendizaje tecnológico, al influir el conocimiento actual en los procesos y la naturaleza del aprendizaje para generar un mayor conocimiento en el futuro, El segundo hace énfasis en el esfuerzo que los integrantes de la organización realizan al momento de resolver problemas, entre mayor sean los conocimientos existentes y la intensidad de esfuerzo, se acelera el aprendizaje tecnológico.

La crisis desatada por un factor externo

Constituye un medio muy eficaz de acelerar el aprendizaje tecnológico para ponerse al día, aunque no para ser pioneros, objetivos ambiciosos o agresivos puede ser la vía más eficaz para lograr la intensificación de esfuerzo tanto en las personas como en la organización.

Transferencia de tecnología

Figura 2. Orientación del aprendizaje. Fuente: (Kim, 2000).

Imitación por duplicidad

En este punto se consideran cuatro mecanismos para adquirir la base de conocimiento existente; la educación, la transferencia de tecnología extranjera, empresas locales y la movilidad del personal técnico experimentado. La educación dirigida al desarrollo de recursos humano con visión tecnológica asegura una importante base tácita de conocimientos para el desarrollo industrial. Para la transferencia de tecnología se pueden usar diversos mecanismos como: consulta de publicaciones, la ingeniería inversa, asistencia técnica e incluso de patentes de uso común. La tercera corresponde al conocimiento que se adquiere en las empresas y que puede ser aprovechado una vez difundido públicamente, finalmente la última corresponde a la contratación de recursos humanos que cuentan con vasta experiencia, producto de su desempeño profesional y que desean mejorar su status personal.

Imitación creativa

Para llevar a cabo este estadio se precisa de una base de conocimientos existentes de un nivel significativamente superior al estadio anterior. Para ello se consideran cinco mecanismos; la transferencia de tecnología formal, aquí se pueden obtener por medio de negociaciones comerciales que significan inversiones considerables para la adquisición o licenciamiento de patentes, repatriación o contratación de recursos humanos cualificados formados en países desarrollados, en tercer lugar

150

Revista Científica

Es un factor que ha sido utilizado para acelerar el aprendizaje tecnológico y tiene que evolucionar a medida que progresa la industrialización, ya se ha mencionado diversos medios para llevarla a cabo. En cuanto a la metodología fue experimental de tipo longitudinal, incluyo el uso del ciclo de desarrollo tecnológico así como del modelo de innovación jalar la tecnología del mercado y considero para el diseño empresarial las principales características de la EBT.

Materiales y métodos Para llevar a cabo el proyecto de investigación se siguió la secuencia de los estadios de la orientación del aprendizaje del modelo integrador:

Primer paso:

Imitación por duplicidad, utilizando la ingeniería inversa es decir imitar la tecnología, fabricando un producto con características similares al importado, utilizando diversas materias primas nacionales, lo cual requirió de la consulta del estado del arte y de estudios técnicos que proporcionaran los conocimientos básicos para realizar el proceso así como del análisis del proceso industrial en el que se utiliza.

Segundo paso:

La imitación creativa, aquí se genera la tecnología conforme a los requerimientos del grupo industrial, proponiendo varios prototipos con


la característica de ser reutilizables, a la par se realizaron estudios de disponibilidad de materias primas.

Tercer paso:

La innovación, en este estudio se definió el prototipo final validado en funcionamiento por la empresa en el proceso de fabricación de cables de cobre para la industria automotriz.

Cuarto paso:

Propiedad industrial, en esta etapa se procede al trámite de la patente para la protección de la propiedad industrial y su potencial transferencia de tecnología.

Quinto paso:

Finalmente con los resultados obtenidos y con base en la demanda y el estudio de factibilidad, se realiza el diseño empresarial.

Resultados En la Figura 3 se observan las etapas de la dinámica del aprendizaje tecnológico y sus resultados. La reducción de costos alcanzada fue del 69%, cada pieza importada tiene un costo de 1.5 dólares y solo se puede usar una vez, la cerámica reutilizable tiene el costo de fabricación muy similar, con la diferencia de que se puede utilizar 44 veces.

Figura 4: Empresa TEC-MAT. Logotipo.

Filosofía corporativa

Se crearon los siguientes elementos utilizando la planeación estratégica de los negocios: Misión: Desarrollar y transferir tecnología e innovación para empresas líderes en la industria, satisfaciendo requerimientos de calidad, costo y servicio, a través de un equipo de trabajo profesional de alto desempeño. Visión: Ser una empresa distintiva, que brinda servicios de calidad en investigación, desarrollo tecnológico e innovación para la industria de clase mundial, en el área de la ingeniería en materiales. Valores: Innovación, creatividad, calidad, investigación, honestidad y lealtad. ¿Qué hace TEC-MAT? Creamos innovación por medio de investigación y desarrollo tecnológico en materiales; cerámicos, poliméricos, metálicos y compuestos.

Conclusiones Los resultados del modelo integrador de Linsu Kim son satisfactorios ya que se generó la innovación solicitada por el grupo industrial corroborándose que los materiales cerámicos de origen nacional si pueden sustituir a las piezas importadas. Figura 3. Resultados del modelo integrador, elaboración propia con información de la investigación.

La innovación esta validada en el proceso y está en proceso de estandarización en las plantas que el grupo industrial tiene en México.

La factibilidad económica arroja una tasa interna de retorno del 63%, con una inversión de 232 mil pesos, ingresos anuales de 600 mil pesos, que incluye solo a las plantas nacionales, si se considera a las restantes, los ingresos se incrementarán y la empresa se convertirá en una empresa exportadora.

Está en marcha el registro de la patente correspondiente al igual que la creación de la EBT, se consideran tres egresados de la carrera de ingeniería em materiales para operar la empresa.

Diseño empresarial

Desde el punto de vista económico se logró cumplir con el nivel de reducción de costos y la factibilidade económica refleja una tasa de retorno atractiva, la empresa contempla acompañar el proceso de creación, crecimiento y maduración de la empresa que se encargará de prover este insumo.

Se diseñó la empresa de Base Tecnologica; como actividad sustantiva, realizar investigación, desarrollar y transferir tecnológia e innovación en el área de la ingeniería en materiales, Figura 4.

Revista Científica

151


152

Revista CientĂ­fica


Bibliografía + Askeland, Donald. R. (2010).Ciencia e Ingeniería de los Materiales (4ta ed.). Cengage Learning Editores, S.A. de C.V. + Corona Treviño Leonel, (2005) El reto de crear ambientes regionales de innovación, CIDE, Fondo de Cultura Económica, + Kim. Linsu, (2000) La dinámica del aprendizaje tecnológico en la industrialización, Facultad de administración de empresas de la Universidad de Corea, Seúl, República de Corea, Suam fundation. + León Serrano , Gonzalo. (2011) Nuevos enfoques para la gestión estratégica de la I&D e Innovación en las universidades. Universidad Politécnica de Madrid. Revista Educación + Smith, William F (2004). Ciencia e ingeniería en materiales, Mc Graw Hill, 3a edición,

Revista Científica

153


Anilú Flores Regalado1, Verónica Farías Veloz2, Claudia Anglés Barrios3 y José Luis Fong4

Tecnológico Nacional de México Instituto Tecnológico de Ciudad Juárez Ave. Tecnológico 1340. Col. Fuentes del Valle C.P. 32500, Ciudad Juárez Chihuahua. 1,2,3,4

aflores@itcj.edu.mx

Resumen: En el año 2016 el departamento de Sistemas y Computación del Instituto Tecnológico de Ciudad Juárez (ITCJ), implementó con éxito el Sistema Integral de Información para la Gestión del Curso (SIIGECU), actualmente la mayoría de los departamentos del ITCJ lo están utilizando; al inicio, los docentes adjuntan a la plataforma los archivos en formato Word, posteriormente suben al sistema las evidencias correspondientes y después se someten a una revisión por parte del jefe de proyecto docente alineada al estándar EC0772 vigente en el Tecnológico Nacional de México (TecNM), sin embargo, un 80 % de los documentos eran rechazados, por lo que se realizaron modificaciones al sistema para reducir este porcentaje evitando errores de los docentes. Las mejoras consistieron en incluir los programas oficiales del TecNM e instrumentaciones didácticas de todas las asignaturas que se ofrecen en la institución para que el docente las personalice, generando así, los documentos debidamente requisitados.

+

Palabras clave: Sistema de información, jefatura de proyecto docente, gestión del curso, instrumentación didáctica, docentes.

Recibido: Agosto 30, 2019. Recibido en forma revisada: Septiembre 30, 2019. Aceptado: Junio 20, 2020.

154

Revista Científica

Abstract: In 2016, in the systems department of the Technological Institute of Cd. Juárez, the Comprehensive Information System for Course Management (SIIGECU), the majority of ITCJ departments are


currently using it) was successfully implemented; initially, teachers attach the files in Word format to the platform, then upload the corresponding evidence to the system and then submit it to a review by the head of the teaching project aligned to the EC0772 standard in force at the National Technological Institute of Mexico (TecNM), however, 80% of the documents were rejected, so modifications were made to the system to reduce this percentage avoiding teacher mistakes. The improvements consisted of including the official programs of the TecNM and educational instrumentation of all the subjects offered in the institution to that the teacher only personalize them, thus generating the duly requisite documents.

+ Keywords:

Information system, teaching project management course management, instrumentation, teachers.

Introducción En la jefatura de Proyecto Docente del departamento de Sistemas y Computación se implementó con éxito en agosto del 2016 el Sistema Integral de Información para la Gestión del Curso (SIIGECU) (Lagarda, 2017), anteriormente este proceso se efectuaba de forma manual lo cual no permitía realizar las tareas de forma correcta. A partir de esta fecha se han estado integrando otros departamentos del ITCJ, actualmente 4 de 6 departamentos del ITCJ en modalidad presencial, entre los cuales se encuentran los departamentos de Sistemas y Computación, Industrial, Metal Mecánica, Eléctrica y Electrónica, Económico Administrativo y Ciencias Básicas; que en conjunto tienen matriculados a 9 mil 200 alumnos y tienen adscritos aproximadamente 250 docentes; de igual forma, el SIIGECU está implementado en todas las carreras impartidas en la modalidad de educación a distancia, las cuales son: Ingeniería en Sistemas Computacionales, Ingeniería Industrial e Ingeniería en Gestión Empresarial con un total de 392 estudiantes y 60 docentes. La utilización del SIIGECU ha mejorado el proceso de la gestión del curso en cuanto a calidad, tiempo, participación y cumplimiento por parte de los docentes, sin embargo, el 80% de los documentos subidos a la plataforma son rechazados por no cumplir con el estándar ECO772, porque presentan errores cometidos por los docentes, tanto en el formato como en la selección de evidencias en el archivo y el SIIGECU. Es de suma importancia optimizar este proceso para disminuir las cifras porque contribuye a la obtención de certificaciones como son el ISO 9001:2015 e ISO 14001:2015 más fácilmente, beneficiando de este modo la calidad y entrega de la educación para los estudiantes, que son la prioridad para cualquier Institución educativa. En el proceso de gestión del curso, existen cuatro periodos de evaluación los cuales se calendarizan al inicio de cada semestre; en el primero el docente debe de adjuntar a la plataforma del SIIGECU los documentos de su planeación en formato Word , los cuales son el avance programático y la instrumentación didáctica para que posteriormente el jefe de proyecto docente los revise exhaustivamente y evalué si cumplen o no con el estándar del CONOCER relativo a la evaluación en modelo de competencias vigente en los Tecnológicos Nacional de México (TecNM) , en caso de no ser así, el sistema envía al docente un mensaje de archivo rechazado con los comentarios correspondientes, si los archivos están correctos entonces el jefe de proyecto docente deshabilita el candado para que el docente pueda anexar las evidencias correspondientes

a cada periodo en la siguientes revisiones, sin embargo existen un 80% de documentos que no cumplen con los lineamientos y son rechazados. El objetivo en esta investigación fue diseñar e implementar la capacidad del SIIGECU para generar las instrumentaciones didácticas y avances programáticos de cada una de las asignaturas necesarias para los docentes que utilizan el sistema de información, evitando con ello los rechazos de los archivos de estos documentos que presentaban errores al no cumplir con los lineamientos que dicta el estándar ECO772. Con esta mejora se podrá asegurar que las evidencias de cada competencia sean las correctas, disminuyendo el tiempo en las revisiones por parte del jefe del proyecto docente y aumentando el cumplimiento de los docentes ya que podrán descargar sus documentos de la plataforma y solo tendrán que personalizarlo con sus datos y actividades de aprendizaje. Para lograr el objetivo se deberán realizar las siguientes actividades.

• Añadir en el SIIGECU la información de los programas oficiales del TecNM de todas las asignaturas de las carreras del ITCJ.

• Modificar el SIIGECU para que el docente solo introduzca las semanas de planeación de cada subtema, las actividades de aprendizaje y enseñanza de cada competencia junto con las evidencias de aprendizaje seleccionadas.

• Generar automáticamente la instrumentación didáctica y avance programático.

• Extender la implementación del SIIGECU a todos los departamentos académicos del ITCJ.

• Diseñar e impartir cursos de capacitación para el uso del SIIGECU. La implementación de la versión 2.0 del SIIGECU se comenzará a utilizar para el semestre agosto- diciembre del 2019 y fortalecerá el proceso de gestión del curso en el sistema, incrementando el cumplimiento de los docentes y reduciendo el tiempo empleado en las revisiones por parte del jefe del proyecto docente, permitiéndole de esta forma enfocarse en otras labores para brindar a los estudiantes una mejor experiencia dentro de su carrera.

Materiales y métodos Para la realización de los cambios al SIIGECU se analizaron los requerimientos necesarios de la gestión del curso que se aplicaron en el TecNM, se verificaron las estadísticas que arroja el sistema de información el cual indica que solo el 20% de los docentes cumple con la gestión del curso en tiempo y forma y que la mayoría o bien no utiliza el sistema o lo utiliza y al ser rechazados sus documentos se desaniman y no intentan corregirlo. A pesar de que se han impartido diferentes cursos y talleres a los docentes sobre el manejo del SIIGEGU, el cumplimiento de este proceso es muy bajo, tomando en cuenta la premura del tiempo y la necesidad de incrementar el número de docentes que cumplen satisfactoriamente con este proceso se optó por el uso de Metodologías Agiles para el Desarrollo del Software, tales como es SCRUM, para realizar las modificaciones necesarias y que el sistema cumpliera con los requisitos que el

Revista Científica

155


cambio requería. En la industria del software existen distintas metodologías que se adaptan de diferente forma tanto a las capacidades como a los requisitos de un desarrollo, si bien las metodologías tradicionales se adaptan bien a proyectos que tienen un tiempo estricto definido como es el caso de este, se optó por elegir la metodología ágil “Scrum” ya que podían existir cambios durante el proceso dependiendo de la adaptación y aceptación del usuario con el sistema. Según Palacio (2015), “Scrum”, es un modelo de desarrollo ágil caracterizado por:

• Adoptar una estrategia de desarrollo incremental, en lugar de la planificación y ejecución completa del producto.

• Basar la calidad del resultado más en el conocimiento tácito de las personas en equipos auto organizados, que en la calidad de los procesos empleados.

• Solapamiento de las diferentes fases del desarrollo, en lugar de realizarlas una tras otra en un ciclo secuencial o de cascada”.

Para la aplicación de esta metodología se identificaron las fases, los métodos y las técnicas y/o herramientas a desarrollar. Para la recopilación de los datos se realizaron varias reuniones entre los implicados en dichos cambios. Antes de iniciar con cada iteración, el equipo de trabajo revisó las tareas pendientes y seleccionó la parte que tendrá lista como incremento de funcionalidad al finalizar la iteración (sprint). Una vez definidos los roles dentro del proyecto se procedió a realizar con los siguientes pasos:

Definición de tareas por roles: Durante las reuniones con el desarrollador se explicaron en papel los cambios requeridos para que existiera congruencia entre lo que se necesitaba con lo que la aplicación debía realizar una vez que el docente subiera sus evidencias. Product Owner: En este rol, uno de los desarrolladores es el encargado de supervisar de manera general dichos cambios y mostrar en el pizarrón las prioridades de los mismos. Para tener un mejor control de dichos cambios el equipo utiliza la aplicación de software libre llamada Trello, el cual es un gestor de tareas que permite el trabajo de forma colaborativa mediante tableros compuestos de columnas que representan distintos estados, se basa en el método Kanban para gestión de proyectos (Habbad, 2014). La Figura 2, muestra una vista de dicha aplicación y algunas de las tareas que se llevaron a cabo en el pizarrón.

Figura 1. Metodología SCRUM. Fuente: Palacio, 2015.

La decisión de elegir Scrum es por el gran auge que esta metodología está presentando en la comunidad, la cual se centra en tres pilares:

La transparencia: Todo lo que sea importante dentro del proceso tiene que ser entendido por todos los involucrados en él. Inspección: Los usuarios deben inspeccionar constantemente los artefactos de Scrum para detectar variaciones indeseadas. Adaptación: Si en la inspección se encuentran variaciones que

afecten el desarrollo del sistema, estas deben de adaptarse para que no interfieran. (Schwaber, 2017).

Según Menzinsky (2016), menciona que al finalizar cada sprint se debe revisar funcionalmente el resultado, con todos los implicados en el proyecto y la duración del sprint es el período de tiempo máximo que se tiene para descubrir planteamientos erróneos, mejorables o malinterpretaciones en las funcionalidades del producto.

156

Revista Científica

Figura 2. Pizarrón Trello. Fuente: Elaboración propia.

El problema de falta de cumplimiento de la gestión del curso se presentaba desde antes de implementarse el SIIGECU en el 2016, que si bien se ha incrementado el número de docentes que cumplen, aún se le siguen realizando mejoras al sistema, todo con la finalidad de facilitar la labor docente e incrementar positivamente las cifras que actualmente se presentan. En las imágenes siguientes, se observa el incumplimiento de algunos docentes en semestres anteriores en comparación con lo sucedido en la actualidad.


Figura 3. Reporte de cumplimiento en envío de documentos SIIGECU 2017. Fuente: Elaboración propia.

Figura 5. Modulo Captura de documentos. Fuente: Elaboración propia.

Segundo Sprint

Anteriormente el docente seleccionaba la opción de criterios de evaluación (Figura 6), en el cual se adjuntaban los archivos en Word correspondientes a la instrumentación y avance programático. En esta nueva versión se modificó esta funcionalidad (botón de versión nueva de la imagen) de tal manera que el docente solo personalizará la instrumentación llenada previamente, mencionada en el sprint anterior.

Figura 4. Reporte de cumplimiento en envío de documentos SIIGECU 2019. Fuente: Elaboración propia.

Scrum Team: En este rol los demás desarrolladores diseñaron los diferentes módulos que se agregaron al SIIGECU, los cuales muestran la funcionalidad para poder cumplir con los cambios de la nueva Gestión del Curso, llenaron el pizarrón con las diferentes tareas y se designó quién sería el encargado de llevarlas a cabo.

Figura 6. Versiones de captura para los criterios de evaluación. Fuente: Elaboración propia.

Al seleccionar el botón de la versión nueva, se mostrará la pantalla de la Figura 8, que indica los mensajes de alerta de todas las actividades pendientes de captura a realizar por el docente.

Las actividades de diseño e implementación del software se dividieron en 5 sprints, los cuales se detallan a continuación:

Primer Sprint

Se recopilaron todos los programas oficiales de estudio de las carreras del ITCJ y se diseñaron e implementaron los módulos de captura de instrumentación y avance programático, posteriormente se procedió a subirlos al SIIGECU. En la Figura 5, se muestra la vista del módulo de captura de una asignatura después del llenado.

Figura 7. Mensajes de alerta. Fuente: Elaboración propia.

Revista Científica

157


Posterior a los mensajes de alerta se encuentra el formulario de la instrumentación didáctica, en la Figura 8, se muestra la seccion correspondiente al analisis de competencias especificas, donde el docente agrega las actividades de enseñanza, actividades de aprendizaje, competencias genericas, la planeacion en semanas y las estrategias didácticas.

Figura 11. Avance Programático generado por el SIIGECU. Fuente: Elaboración propia.

Cuarto Sprint

Figura 8. Análisis de competencias específicas. Fuente: Elaboración propia.

En la Figura 9, se muestra la sección donde el docente selecciona los criterios de evaluación y especifica el instrumento a utilizar para cada uno.

Se diseñó e implementó la funcionalidad del SIIGECU para poder clonar la información cuando el docente este impartiendo una asignatura más de una vez en el semestre o bien vuelva a impartirla en los semestres posteriores, en la Figura 12 se muestra el mensaje donde se pregunta si se desea clonar la información.

Figura 9. Selección de criterios de evaluación

Tercer Sprint

Se diseñó e implementó la funcionalidad para que el SIIGECU generará las instrumentaciones y avances programáticos a partir de la información proporcionada por el docente, en la Figura 10 y 11 se muestran ejemplos de los documentos.

Figura 12. Mensaje de pregunta para clonar información. Fuente: Elaboración propia.

Discusión

Figura 10. Instrumentación didáctica generada por el SIIGECU. Fuente: Elaboración propia.

158

Revista Científica

Al desarrollar e implementar esta mejora se puede concluir que se fortalecerá el SIIGECU, ya que al generarse las instrumentaciones y avances programáticos alineados al estándar ECO772 vigente en el TecNM, facilitará la labor docente y reducirá el tiempo empleado por parte del jefe de proyecto docente para revisar que dichos documentos cumplan satisfactoriamente y probablemente se incrementé el cumplimiento de los docentes en este proceso al simplificar también la elaboración de los documentos.


Los cambios requeridos se lograron implementar con éxito y están listos para ser utilizados a partir del semestre Agosto-Diciembre del 2019

Agradecimientos Nuestro agradecimiento es para el TecNM , el ITCJ y las diferentes academias por permitirnos desarrollar e implementar el SIIGECU para mejorar la gestión del curso y confiar en nuestra visión para resolver esta problemática. También agradecemos a todos aquellos docentes que cumplen satisfactoriamente y que a partir de esta mejora se integraran a las listas de maestros cumplidos, ya que todas las mejoras son para facilitar su labor docente.

Bibliografía + Alexander Menzinsky, G. L. (Julio de 2016). www. scrummanager.net. Obtenido de https://www.scrummanager.net/files/sm_proyecto.pdf + Fernando Habbad, M. d. (21 de Enero de 2014). Tutorial básico de Trello. (IDERA, Ed.) Obtenido de Academia: https://www.academia.edu/18550958/Trello_-_Tutorial_B%C3%A1sico. + Lagarda, H. (17 de julio de 2017). SEP. Obtenido de Resumen Ejecutivo: https://www.sep.gob.mx/work/models/sep1/Resource/16338/1/images/66.pdf + Palacio, J. (2015). www.scrummanager.net. Obtenido de https://www.scrummanager.net/files/scrum_I.pdf + Schwaber, K. (2017). La Guia de Scrum. Obtenido de https://www.scrumguides.org/docs/scrumguide/ v2017/2017-Scrum-Guide-US.pdf#zoom=100 Schwaber, K. y Sutherland, J. (2016). La Guia de Scrum. SOBRE LOS AUTORES Anilú Flores Regalado Ingeniero en Sistemas Computacionales, maestría en Software Libre, es docente del área de Sistemas y Computación en el Instituto Tecnológico de Cd. Juárez con especialización en desarrollo de software y redes; actualmente coordinadora de Educación a Distancia. anilu.flores@ gmail.com Verónica Farías Veloz Ingeniero en Sistemas Computacionales, maestría en Software Libre, es docente del área de Sistemas y Computación en el Instituto Tecnológico de Cd. Juárez con especialización en desarrollo de software. vfarias@itcj. edu.mx MSL Claudia Anglés Barrios Ingeniero en Sistemas Computacionales, maestría en Software Libre, es docente del área de Sistemas y Computación en el Instituto Tecnológico de Cd. Juárez con especialización en desarrollo de software. cangles@itcj. edu.mx José Luis Fong Betancourt Ingeniero en Sistemas Computacionales, es docente del área de Sistemas y Computación en el Instituto Tecnológico de Cd. Juárez con especialización en base de datos. jfong@itcj.edu.mx

Revista Científica

159


MANUAL DE ESTILO CONSEJO EDITORIAL

FORMATOS DE ENTREGA

MISIÓN

El material tiene que ser entregado en procesador de texto WORD, con letra tipo Arial, a 12 puntos, con espacio sencillo y alineación a la izquierda.

El objetivo principal del Consejo Editorial es divulgar mediante una revista de corte científico, de publicación semestral, todos aquellos logros realizados por los investigadores de nuestra Universidad y sus aportaciones a beneficio de la sociedad.

VISIÓN

Formato carta, extensión mínima 3 cuartillas y un máximo de 10, incluyendo notas y bibliografía.

Con la difusión de estos avances obtendremos el reconocimiento de la comunidad y lograremos el posicionamiento de la Universidad Tecnológica de Ciudad Juárez, en áreas de desarrollo científico.

Utilizar sangría francesa al inicio de cada párrafo.

ATRIBUCIONES

Todas las páginas deberán estar enumeradas en secuencia, comenzando por la portada.

1. El Consejo Editorial tiene como objetivo cuidar y promover la imagen y prestigio de la UTCJ.

Las siglas deben venir en su forma destacada (p. ej. UTCJ, Universidad Tecnológica de Ciudad Juárez).

2. Realizar la corrección de estilo y todos los cambios ortográficos y de

Señalar la naturaleza del trabajo: artículo de investigación, avance, etc.

redacción que sean necesarios para mejorar la calidad de los artículos a publicar.

3. Verificar que todas las obras cuenten con los requisitos editoriales que marca nuestro Manual de Estilo y Normas de Publicación. 4. Contribuir en la difusión y distribución de nuestra revista científica.

Márgenes de 3 cm. superior y 2.5 cm. de derecha e izquierda.

El título de la obra debe ser colocado en la parte superior del documento, en forma centrada, destacado con negritas. Todos los textos deben incluir nombre completo del autor y/o colaboradores, grado académico y área de especialización, así como también un correo electrónico. Los nombres de los autores deben de aparecer en el orden de sus contribuciones.

5. Evaluar y supervisar el proceso editorial. 6. Vigilar la calidad de las obras que lleven el sello editorial.

LINEAMIENTOS I. Los artículos que se publiquen serán responsabilidad del autor. II. Cada artículo deberá contar con las siguientes características y lineamientos editoriales:

a. Tener como base los resultados de una investigación científica, original y relevante. b. Una vez publicado el artículo, los derechos de autor pasan a la Universidad Tecnológica de Ciudad Juárez. c. Cubrir parte del estado de conocimiento vigente. d. Estar escritos con un lenguaje adecuado y que atiendan la serie de condiciones formales y de contenido propio de un texto científico. Es importante que cada trabajo de investigación cuente con crédito de autor y/o colaboradores, crédito de fotografías (si las hay) y un correo electrónico.

160

Revista Científica

Anexar en el trabajo de investigación un currículum de autor (es). El solicitante y/o autor se compromete a estar disponible para atender cualquier asunto relacionado con su obra. En todos los casos, los manuscritos entregados no serán devueltos. La fecha de entrega del material será determinado por el editor y este a su vez se lo hará del conocimiento al autor. El autor debe incluir un resumen breve de los contenidos del artículo.

Los trabajos deberán enviarse al correo electrónico:

editorial@utcj.edu.mx Para mayor información comunicarse al Tel. +52 1 656 649 0604 Ext. 3846


THEOREMA Revista Científica

No. 13

ENERO - JUNIO 2020

deben de ser claras y fáciles de leer. Figuras numeradas, en número arábigo seguido de pie de figura para la parte inferior de cada una de ellas e insertadas dentro del cuerpo del artículo y no al final de este.

ESTRUCTURA DEL ARTÍCULO TÍTULO EN INGLÉS Y ESPAÑOL

No debe ser mayor a 15 palabras y describir el contenido del artículo de una forma clara, exacta y concisa.

ABSTRACTOS

Incluir los resúmenes en español y en inglés (abstract), de 150 palabras, cada uno. Debe de indicar clara y brevemente el propósito de la investigación, de los procedimientos básicos, de los resultados y de las conclusiones principales. Evite el uso de abreviaturas y de términos altamente especializados en el extracto.

PALABRAS CLAVE

Presentar cinco palabras clave, en inglés y en español, estos términos deben de aparecer debajo del resumen, en la misma página. Se pueden utilizar palabras solas o términos compuestos.

ABREVIATURAS

Las abreviaturas deben de ser definidas la primera vez que se mencionan. Si fuera esto en el resumen, entonces debe de definirse de nuevo en el cuerpo principal del texto.

INTRODUCCIÓN

Este apartado plantea el propósito del artículo sin un despliegue extensivo del tema, utilizando solo las referencias más pertinentes. Indique las razones que motivaron a la investigación y cuando corresponda, dé cuenta de la hipótesis postulada.

MATERIALES Y MÉTODOS

Se describe el diseño de la investigación y se explica cómo se llevó a la práctica, justificando la elección de métodos, técnicas e instrumentos, si los hubiera, teniendo en cuenta la secuencia que siguió la investigación.

RESULTADOS

Se describen los resultados del estudio, resaltando los hallazgos relevantes (incluso los resultados contrarios a los objetivos propuestos, si es el caso). Los resultados se presentarán utilizando texto, tablas e ilustraciones.

DISCUSIÓN

Interpretación de los resultados y su significado sobre el trabajo de otros autores.

AGRADECIMIENTOS

Al patrocinio o proyecto son lo más breve posible.

LAS TABLAS Y FIGURAS

A fin de garantizar los más altos estándares para la calidad de las ilustraciones, estás deben de ir a una resolución de 300 dpi´s. Las figuras

Las tablas tienen que ser menores de 17 cm. x 20 cm., enlistadas en números arábigos y tener un título, y/o leyenda en la parte superior para explicar cualquier abreviatura utilizada en ella, del mismo modo estar insertas dentro del cuerpo del artículo.

FOTOGRAFÍAS E ILUSTRACIONES

Todo material de foto e ilustraciones deben de enviarse en un archivo del artículo. Como también en formato aparte JPG o PSD, con una resolución mínima de 300 dpi´s, en tamaño real. Tanto las tablas, figuras, fotografías e ilustraciones se entregarán en procesador Excel.

CITACIÓN

Para la citación textual larga, de 40 palabras o más, es necesario separar el texto citado y disminuir el tamaño de la tipografía un punto. Del mismo modo, se deben aumentar los márgenes laterales 1 cm. y colocar inmediatamente después (autor, año), al que se cita.

FECHA

Se cita al final del trabajo, precedido del lugar donde se redactó el original.

BIBLIOGRAFÍA

La exactitud de las referencias es responsabilidad de los autores. Se incorpora al final del artículo, numeradas, incluyendo en orden alfabético todas las obras citadas en el texto y en los pies de página. El autor debe revisar cuidadosamente que no hay omisiones e inconsistencias entre las obras citadas y la bibliografía. La redacción se presenta de la siguiente manera: Nombre del autor y colaboradores (en su caso), comenzando con el apellido paterno, seguido de los nombres. Año de la publicación entre paréntesis. Título del libro en itálicas (cursivas). Edición (de la segunda en adelante). Casa editorial, ciudad de publicación, país y páginas totales.

EJEMPLO DE REFERENCIAS LIBRO

Wiener, Norbert, Cibernética: o el control y la comunicación en animales y máquinas, Barcelona, Tusquets, 2003.

ARTÍCULO DE REVISTA

Ádem, José, 1991, ´Algunas consideraciones de la prensa en México´, Avances y Perspectiva, vol. 10, abril-junio pp. 168-170

PÁGINAS WEB

Ramírez, E., 2012, Economía futura en América Latina. Recuperado de http://www.economico-online.com.

Revista Científica

161


162

Revista CientĂ­fica


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.