Theorema 6ta edición especial

Page 1

Revista CientĂ­fica

1


2

Revista CientĂ­fica


DIRECTOrio+ Gobierno del Estado

Lic. Javier Corral Jurado

Gobernador Constitucional del Estado de Chihuahua

M.C. Consuelo Catalina Fernández Gaxiola Universidad Tecnológica de Ciudad Juárez Presidente del Consejo Técnico

Dr. Iván Juan Carlos Pérez Olguín Universidad Autónoma de Ciudad Juárez (SIN C) Director de Obra

Lic. Pablo Cuarón Galindo

Dr. Manuel Arnoldo Rodríguez Medina

Secretario de Educación y Deporte

Instituto Tecnológico de Ciudad Juárez

Secretaría de Educación Pública

Ing. Héctor Arreola Soria

Coordinador General de Universidades Tecnológicas y Politécnicas

Universidad Tecnológica de Ciudad Juárez

CONSEJO TÉCNICO

Lic. Guillermo José Álvarez Terrazas

Dr. Santos Rafael Woder Morales Delphi Connection Systems

Dra. María de los Ángeles López Martínez Universidad Tecnológica de Ciudad Juárez

Dr. Manuel Iván Rodríguez Borbón Universidad Autónoma de Ciudad Juárez (SIN C)

Dr. Rodrigo Villanueva Ponce Delphi Electrical Centers (SIN C)

Rector

Dr. Manuel Alonso Rodríguez Morachis

Lic. Francisco Javier Reza Pacheco

Abogado General

M.C. Armando Veloz Grajeda

C. José Agustín Pérez Limón M.C. José Agustín Pérez Limón

Secretario Académico

Instituto Tecnológico de Los Mochis

Lic. Adrián García Castro

Director de Vinculación

Lic. Salvador Álvarez Mata

Director de las carreras: Logística Internacional, Negocios e Innovación Empresarial y Financiera y Fiscal

M.T.I., M.A.D. Luis Alberto Santos Berumen

Director de la carrera: Tecnologías de la Información y Comunicación

Ing. Ricardo Pérez Santellana

Director de las carreras: Mantenimiento Industrial y Nanotecnología

Dra. Rosa Elba Corona Cortez

Director de las carreras: Energías Renovables y Procesos y Operaciones industriales

M.E.R. José Luis Peinado Martínez

Director de la carrera: Mecatrónica

M.C. Ana Eréndida Rascón Villanueva

Directora de las carreras: Terapia Física y Protección Civil y Emergencias

Instituto Tecnológico de Ciudad Juárez

M.I.I. David Oliver Pérez Olguín Instituto Tecnológico de Los Mochis

M.C. Miriam Margarita Ruíz Sánchez Universidad Tecnológica de Ciudad Juárez

M.A. Luis Alonso De Santiago Romero Universidad Tecnológica de Ciudad Juárez

Ing. Felipe Augusto Peniche Mendoza Universidad Tecnológica de Ciudad Juárez

CONSEJO EDITORIAL Lic. María Teresa Álvarez Esparza Subdirectora de Extensión Universitaria

Lic. Luis Alberto Orozco Ruiz Jefe del Departamento de Prensa y Difusión

Lic. Idalí Meléndez Domínguez Coordinadora del área Editorial

Universidad Tecnológica de Ciudad Juárez UTCJ THEOREMA REVISTA CIENTÍFICA Edición No. 6, Octubre 2017 Av. Universidad Tecnológica No. 3051 Col. Lote Bravo II C.P. 3265 Ciudad Juárez, Chihuahua Tels. (656) 649.06.00 a 26

//utcj.edu.mx

M.D.O. Carlos Noé González Gutiérrez Corrector de estilo

L.D.G. José Castro Castruita Diseño Gráfico

Revista Científica

3


CONTENIDO + Artículo arbitrado # 1

7

Análisis de engranes rectos de perfil invulta calculados por el método del elemento finito y estándares AGMA

12

de herramientas LEAN MANUFACTURING en la producción de volantes automotrices

20

26

El liderazgo en la manufactura esbelta. Estudio de liderazgo transformacional y transaccional en una empresa maquiladora

Francisco Alexander Rincón Molina, Karla Lizzet Esquivel Guillén y Reiner

32

Celda Peltier Luis Antonio Naranjo Rosas, Oliver Alegría Vázquez, José de Jesús Hernández

arbitrado # 14 + Artículo Elaboración de horarios mediante computación evolutiva Rogelio Acedo Ruiz, Rodolfo Ulises Rivera Landaverde, Daniel Pérez Pérez, César

arbitrado # 15 + Artículo Elaboración de salchichas Frankfurt nutritivas y bajas en grasa

Enrique Contreras Calderón, Iván Alcalá Barojas, Francisco J. Castillo Subdíaz y Jonathan Villanueva Tavira

40

Casillas-Peñuelas, R., Quintanar-Stephano, J., Masuoka-Ito, D., Frausto-Reyes,

Víctor Alfredo Nolasco Arizmendi, Celia Massiel Hernández Hernández , Rodolfo

les-Guerrero, A. y Barat-Baviera, J.

C., Romo-Bacco, C., Grau-Melo, R., Vásquez-Lara, F. Pascual-Amoros, J., Corra-

Salas Cepeda y Carlos Iván Rodríguez Rodríguez

46

arbitrado # 16 + Artículo Identificación de condiciones ambientales ideales para la Iván Cabrera Sánchez, David Cabrera Sánchez, Araceli Moreno González y

Hernandez

Paloma Teresita Gutiérrez Rosas

58

arbitrado # 17 + Artículo Transformación de cepas de brucella con un plásmido vacunal

en el desarrollo regional

antirrábico

Julio César Rodríguez Valdez, Raúl Portillo Molina y Luis Roberto López

Adriana Morán Torres, René Abraham Cahuantzi Mejía y Nidia Gary Pazos

Cárdenas

Salazar

66

Laura Gloria García García e Ignacio García Martínez

arbitrado # 10 + Artículo Hacia el desarrollo de un sistema educativo multimedia basado en competencias Josefina Guerrero García, Juan Manuel González Calleros, Erica Vera Cervantes, Yadira Navarro Rangel y Jaime Muñoz Arteaga

72

118

evaluación sensorial del color en la industria manufacturera

Luis Eduardo Ménez Bahena, Alejandro Reyes Velazquez y Alejandra Fernandez

arbitrado # 9 + Artículo Cnidoscolus Chayamansa y su calidad nutricional

108

a base de carne de conejo y el reemplazo de grasa animal por aceite de oilva

partículas de plata obtenidas con un extracto de Capsicum Annum L. como reductor

arbitrado # 8 + Artículo Los ingresos ordinarios del municipio sinaloense: Su impacto

102

Enrique Rose Gómez y Julio César Flores López

Diseño de una trampa de succión automatizada para mosquitos

arbitrado # 7 + Artículo El fenómeno del emprendedurismo en las mujeres morelenses

98

Pino, Rigoberto Martínez Mendez y José de Jesús Agustín Flores Cuautle

Rosa Cristina Rivas, Jesús José Aguirre Solís y Ma. De Los Ángeles Ramírez

arbitrado # 6 + Artículo Estudio del ensayo de tensión en fibras de algodón con

92

estadística para el estudio de poblaciones

arbitrado # 13 + Artículo Control de temperatura para espacios reducidos basado en

Carlos Figueroa Navarro, Raúl Riera Aroche y Germán Campoy Guereña

+ Artículo arbitrado # 5

Dominguez y Rogelio Acedo Ruiz

Rincón Rosales

de Bohr

+ Artículo arbitrado # 4

Rodolfo Ulises Rivera Landaverde, Gilberto Orrantia Daniel, German Alonso Ruiz

arbitrado # 12 + Artículo Aplicación del muestreo aleatorio estratificado como técnica

Enrique Torres Chávez, Rosa Verónica Aburto Ruíz y Adriana Arellano Montes

arbitrado # 3 + Artículo Dos saltos cuánticos clave: La constante de Planck y el Átomo

86

Evaluación de la fatiga en turno comprimido de trabajo en la población femenina de la industria maquiladora utilizando el cuestionario de Yoshitake

Jorge Carlos León Anaya, Cesar Hernández Martínez y Jafeth Rodríguez Ávila

arbitrado # 2 + Artículo Mejora continua con apoyo

+ Artículo arbitrado # 11

arbitrado # 18 + Artículo Evaluación del conocimiento sobre el manejo de los residuos

124

130

peligrosos biológico-infecciosos en enfermería del hospital general Ma. De los Ángeles GarcíaVázquez, Laura Sampedro Rosas y Ana Laura Juárez López

+ Artículo arbitrado # 19

134

Calidad en el servicio del comedor de un hospital público medida a través del modelo Dineserv Francisco Iván Hernández Cuevas, Norma Aracely Collí Poot, Fredi Israel Mex Arriaga y Carlos Antonio Moo Novelo

arbitrado # 20 + Artículo Implementación de algoritmo de aprendizaje automático para identificación de tarjeta electrónicas Edgar Hugo Mayoral Arzaba, Olga Félix Beltrán, Jaime Cid Monjaraz y Fernando Reyes Cortés

4

Revista Científica

140


+ Artículo arbitrado # 22

Comercialización de ganado bovino de carne en la región noreste Chihuahua, México: Situación y alternativas para los productores

160

Elizabeth Bautista Flores, Oscar Arturo Sánchez Carlos y Gabriela Carrasco Sigala

Artículo arbitrado # 23 + Amantoli impulsando las artesanías morelenses

166

Mónica Leticia Acosta Miranda, Celina Hiosilene Ocampo Ponce, Víctor Alfonso Salazar García y Naim Castillo Luna

arbitrado # 24 + Artículo Modelo teórico-metodológico para el desarrollo de nuevos

172

productos en microempresas Elia Trejo Trejo y Natalia Trejo Trejo

+ Artículo arbitrado # 25

178

Recaudación fiscal comparada, México-Guatemala Alan Alberto Castellanos Osorio, Alba Rosaura Manzanero Gutiérrez, Macario González María Josefina y Sandra Ek Sel

arbitrado # 26 + Artículo Enseñanza-aprendizaje de las matemáticas universitarias en la

182

NÚMERO ESPECIAL

Hernández y Edgar Uxmal Maya Palacios

No. 6

Julio César Martínez Gámez, José Luis Ocampo Casados, José Genaro González

OCTUBRE - 2017

146

Automatización de aires acondicionados y timbre escolar a través de un relevador programable Zelio

THEOREMA

+ Artículo arbitrado # 21

UTCJ apoyadas con IPAD Joaquín Godoy Mendoza, Alfonso Ochoa Meza, Brenda Leticia Chávez García y Gabriela Meléndez Cano

+ Artículo arbitrado # 27

Estatus del uso del modelo Business Process Management (BPM) en la mediana y grande empresa de Manzanillo y Colima, Col.

190

UTCJ THEOREMA REVISTA CIENTÍFICA

Jorge Delgadillo Partida

arbitrado # 28 + Artículo Desempeño económico en México: Un acercamiento desde el

198

institucionalismo César Augusto García Soberano

arbitrado # 29 + Artículo Modelado cinemático de un brazo robótico didáctico

206

Oswualdo Alquisiris Quecha, Francisco Aguilar Acevedo, Ignacio Algredo Badillo y María de la Paz Jaén Rendón

+ Artículo arbitrado # 30

Modelo de programación lineal pesimista y optimista para la producción de productos lácteos de la cremería “La Vaquita”

210

Martha Yesenia Gerón Fernández, Karla Christel Rosas Córdova y Martha Aurea Salazar Castellanos

MANUAL DE ESTILO

214

Año 3, No. 06, es una publicación semestral, octubre 2017, editada por la Universidad Tecnológica de Ciudad Juárez, Avenida Universidad Tecnológica #3051, Col. Lote Bravo II, C.P. 32695, Tel. (656) 6490604, www. utcj.edu.mx. Editor responsable: Idalí Meléndez Domínguez. Reserva de Derechos al Uso Exclusivo No. 04-2016-061713532700-203, ISSN: 2448-7007, ambos otorgados por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este número, Departamento de Prensa y Difusión, L.D.G. José Castro Castruita, Avenida Universidad Tecnológica #3051, Col. Lote Bravo II, C.P. 32695, fecha de la última modificación 10 de octubre de 2017. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Queda prohibida la reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización del Instituto Nacional del Derecho de Autor.

PARA PUBLICAR EN THEOREMA

Revista Científica

5


EDITORIAL Para la Universidad Tecnológica de Ciudad Juárez es motivante el incremento en el número de artículos publicados en cada edición; esto, no es solo una muestra de la credibilidad que la comunidad investigadora ha puesto en esta plataforma, es evidencia del trabajo entusiasta de sus autores, quienes aportan su sapiencia con el objetivo de divulgar contenidos que coadyuvarán en la resolución de problemáticas actuales en el sector productivo de bienes y servicios público y privado.

cuales construirán sus trayectorias, radican en esta publicación. Aprovecho esta oportunidad y exhorto a la comunidad académica y científica para que se sumen a este proyecto; como organismos dedicados a la formación y transformación de las mentes que conducirán los hilos del mundo, tenemos la responsabilidad de instruirlos e involucrarlos en la dinámica que nos atañe a todos como sociedad: el valorar y compartir la riqueza del conocimiento.

En esta edición de UTCJ Theorema Revista Científica, se presentan 30 trabajos de investigación, los cuales ahondan en temáticas fundamentadas en diversas ramas de la ciencia.

Es momento de vislumbrar un futuro no muy lejano, los avances tecnológicos nos indican que debemos impulsar la creación de escenarios en los que las generaciones venideras apliquen estrategias que contribuyan a la emancipación de conciencias, que a la postre nos lleve a replantear nuestra realidad.

La globalización nos exige profesionistas mejor preparados y para ello, debemos buscar las herramientas para proveerles las competencias que contribuirán en un mejor desempeño en el campo de acción laboral. Parte de los cimientos, a través de los

Lic. Guillermo José Álvarez Terrazas Rector

6

Revista Científica


ANÁLISIS DE

ENGRANES RECTOS PERFIL INVOLUTA DE

C A LC U L A D O S P O R E L M É TO D O D E L E L E M E N TO F I N I TO Y E S TA N D A R E S AG M A

Jorge Carlos León Anaya1, César Hernández Martínez2 y Jafeth Rodríguez Ávila3

Universidad Politécnica del Valle de México. Av. Mexiquense, S/N, Esquina Universidad Politécnica, Tultitlán, Estado de México, México, C.P. 54910. 1,2,3

jcleon1969@gmail.com

Resumen: El objetivo de este trabajo es comparar el esfuerzo de flexión que se presenta en el diente de un engrane recto que tiene un perfil de involuta, calculado por el método tradicional de AGMA y el método del elemento finito (MEF). Se llevaron a cabo distintos análisis con modificaciones de materiales y condiciones de trabajo en un reductor de velocidad para una línea transportadora que tendrá una velocidad de salida de 180 revoluciones por minuto (rpm). El mecanismo analizado tiene un par de engranajes de ejes paralelos con engranes rectos de perfil involuta de 19 dientes, teniendo un paso diametral 6 para el piñón y 37 dientes con paso diametral 6 para el engrane, ambos tienen un ángulo de presión de 20 grados.

+

Palabras clave: Análisis, engranes rectos, Método del Elemento Finito y esfuerzo de flexión.

Recibido: Octubre 31, 2016. Recibido en forma revisada: Mayo 28, 2016. Aceptado: Mayo 22, 2017.

Abstract: In this paper, a comparative of the analytical AGMA Method and the Finite Element Method (FEM) for the calculation of the bending stress in the tooth of straight cut gear with involute profile was developed. Several analysis where made with different materials and work conditions in a gearbox for a conveyor belt, with an angular velocity of 180 rpm. The analyzed mechanism was a couple of straight cut gears; the pinion had 19 teeth with a diametral pitch of 6 and the wheel 37 teeth, both of them with a pressure angle of 20°.

+

Keywords: Analysis, straight cut gear, Finite Element Method and bending stress. Revista Científica

7


Introducción En la actualidad, muchas máquinas han dejado de utilizar piezas robustas, pero los engranes no han podido ser reemplazados debido a lo compacto y los grandes pares que pueden transmitir. Los engranes son utilizados para trasmitir velocidad angular o par de torsión, su eficiencia en la trasmisión de potencia es de hasta un 98%. Los engranes rectos predominan su uso en trenes de engranes planetarios, transmisiones, moto reductores y muchas aplicaciones en la industria moderna. Esto se debe a la facilidad de fabricación con herramientas que tienen filos rectos, y a que el cambio de la distancia entre centros no afecta en la transmisión (Litvin y Faydor, 2004). El diseño de las máquinas o mecanismos hoy en día exige un mejor desempeño, materiales más ligeros y económicos, piezas más esbeltas y que soporten las necesidades de los clientes. Herramientas computacionales, como son los paquetes informáticos de Diseño Asistido por Computadora (CAD), Ingeniería Asistida por Computadora (CAE) y Manufactura Asistida por Computadora (CAM), permiten la integración de la concepción del producto y su fabricación casi de manera simultánea, permitiendo el ahorro de recursos. La Ingeniería Asistida por Computadora (CAE) permite realizar pruebas de simulación al diseño para evaluar su resistencia, comportamiento a lo largo de su vida útil, ensamble de sus componentes u otras características, sustentada en el método del elemento finito (MEF), el cual es un método numérico cuyo principio consiste en dividir el problema en pequeños elementos, de los cuales se obtienen soluciones locales que posteriormente se utilizan para obtener la solución total del problema. Antes de existir este tipo de alternativas, se utilizaban técnicas tradicionales de la ingeniería mecánica, uno de ellos es el método para el cálculo de esfuerzos de la AGMA, el cual presenta un método teórico que permite diseñar un engrane recto o helicoidal de ejes paralelos. Las ecuaciones que aquí se utilizan son aplicables para el análisis de esfuerzos en el diente y su resistencia a la picadura. Actúan también un conjunto de factores de corrección empíricos que afectan directamente a los resultados del cálculo. El uso de estos conocimientos y el aporte de nuevos lineamientos para el desarrollo de estos factores, han sido evaluados a través de los años por la experiencia acumulada en el diseño y manufactura de los engranes, así como las necesidades que se han generado el desarrollo de nuevos productos. Existen dos modos de falla que afectan los dientes de los engranes: fractura por fatiga, que es ocasionada por la variación de los esfuerzos de flexión en la raíz del diente, y la fatiga superficial (picadura) en la superficie del diente.

8

mita comparar ambos métodos, utilizando el cálculo tradicional de AGMA para el diseño de engranes rectos con perfil involuta contra su contraparte el elemento finito. El método del elemento finito es un método numérico que surgió como tal en la década de los cuarentas, y a partir de la siguiente década se empieza a popularizar con el uso de las primeras computadoras. A grandes rasgos, el método consiste en dividir el modelo o geometría a validar en múltiples partes denominados “elementos”. La división del modelo 3D en pequeñas partes divide un problema complejo en muchos problemas de mayor simplicidad y que pueden ser resueltos de forma simultánea en menor tiempo. Los elementos comparten entre ellos puntos comunes llamados “nodos”. El método numérico consiste en formular ecuaciones matemáticas que rigen el comportamiento de cada uno de los elementos, teniendo en cuenta la conectividad con cada uno de los demás elementos a través de los nodos. Para unir estas ecuaciones se forma una matriz denominada “Matriz de Rigidez”, la cual se resuelve normalmente mediante el método de Gauss-Jordan. Las ecuaciones matemáticas empleadas en un estudio estático, definen los desplazamientos de cada uno de los nodos en las direcciones X, Y y Z en función de la carga, las restricciones de movimiento y las propiedades mecánicas del material empleado entre el desplazamiento de cada uno de los nodos permiten calcular las deformaciones unitarias en las diferentes direcciones y las tensiones resultantes (Gómez González, 2010). Con el desarrollo de equipos de cómputo cada vez más poderosos una creciente cantidad de programas se encuentran disponibles en el mercado, siendo entre los más comerciales el ANSYS®, COSMOSWorks®, Abaqus®, Algor®, SolidWorks®. En el trabajo de Litvin y Faydor (2004), se muestra el análisis numérico de un engrane recto sometido a carga; sin embargo, no muestra la comparación con resultados analíticos, en tanto en los trabajos de Patil, Gambhire y Patil (2014) y Venkatesh y Murthy (2014) se realizaron los análisis numéricos y analíticos, pero en un engrane cónico y un engrane helicoidal, respectivamente, todos ellos utilizando software ANSYS.

Descripción del método Para el desarrollo de este trabajo se compararon el método analítico y la simulación numérica, para determinar el esfuerzo máximo que se presenta en un engrane recto de perfil involuta. Su aplicación será en un reductor de velocidad que se utilizara para una línea de producción. Las características se muestran en la Tabla 1.

La Asociación Americana de Fabricantes de Engranes (American Gears Manufacturers Association) por sus siglas en ingles AGMA es una asociación acreditada por la American National Standard Institute (ANSI, por sus siglas en Inglés), y ha establecido estándares en lo que a engranes se refiere. Los modos establecidos de falla que afectan los dientes de los engranes rectos, son la fractura por fatiga de flexión y la falla por picadura, la cual refiere a la fatiga en la superficie del diente debido al esfuerzo por contacto en movimiento que existe entre los engranes.

Tabla 1. Valores del reductor a analizar.

Como ya se había mencionado, el diseñar mediante el uso del software hace posible el ahorro de recursos y tiempo, sobre todo para los engranes que son elementos mecánicos con un amplio uso en la vida cotidiana; por tal motivo, este trabajo muestra el desarrollo de una metodología que per-

Para el modelado numérico se utilizaron distintas herramientas informáticas, tales como son las hojas de cálculo, programación con Matlab y software CAD en 2D y 3D. El software CAD seleccionado fue SolidWorks®

Revista Científica


ya que integra el modelado geométrico y análisis de numérico en una sola plataforma. Para el modelado geométrico se generaron una serie de ecuaciones que relacionan las dimensiones, mediante la aplicación de tablas de diseño (León y Téllez, 2012). Con la Tabla 1 es posible realizar una familia de engranes rectos de perfil involuta. Esta familia de elementos ayudara a generar un número limitado de modelos en 3D de distintos tipos de engranes en lo que a su tamaño se refiere (Paso diametral, número de dientes y angulo de presión).

to. El desarrollo para llegar al valor se esquematiza como se muestra en la Figura 2.

Figura 2. Mapeo del análisis del Método del Elemento Finito. Figura 1. Modelación de perfil de involuta y del engrane utilizando tablas de diseño. La solución analítica de los esfuerzos de flexión fue realizada conforme a la norma AGMA 2001-D04. La resolución de las ecuaciones se llevó a cabo mediante un programa numérico desarrollado en Matlab®, con la finalidad de optimizar el análisis. Dos tipos de estudios se llevaron a cabo, en el primero el material utilizado fue acero AISI 1045, la condición variable fue la potencia; se realizaron nueve simulaciones en donde se incrementó la potencia; en los primeros tres intervalos de potencia con incrementos de 5 hp, los siguientes tres intervalos con incrementos de 10 hp y los tres últimos con incrementos de potencia de 30 hp. En el segundo análisis comparativos, se cambió el tipo de material, la potencia fue fijada a 20 hp, así como las rpm a 1750 y el resto de las características de forma del piñón. Los materiales utilizados fueron AISI 304, aluminio 6063-T6, aluminio 1060, latón UNS C34200, bronce UNS C5240 y nylon PA6. Dentro del mismo paquete en donde se realizó el modelo en CAD se llevó a cabo la determinación del esfuerzo flexionante mediante el método del elemento fini-

Una vez que se generó el modelo 3D del engrane, se procedió a aplicarle las condiciones de frontera del problema; para el caso de análisis estático, consisten en propiedades mecánicas del material, restricciones de desplazamiento, magnitud y dirección de la carga que se aplica la diente. Se aplicó el mallado utilizando una malla fina de 0.132”x0.006” para obtener una mayor precisión en la solución numérica. Una malla más fina implica un número mayor de ecuaciones, permitiendo una solución más exacta; sin embargo, esto implica un mayor tiempo de cómputo.

Figura 3. Mallado y aplicación de condiciones de frontera en el modelo.

Resultados Una vez que el software calculó la solución numérica, se muestran los resultados de una manera gráfica mediante mapas de colores y animaciones, lo cual permite observar detalles del comportamiento de los esfuerzos. La Figura 4 muestra el resultado del estudio realizado en MEF del piñón de acero AISI 1045. La Figura 5 es la solución para una potencia aplicada de 20 hp, en donde el valor máximo se muestra en color rojo, muy por debajo del valor máximo de cedencia del material.

Figura 4. Solución gráfica del modelo con acero AISI 1045.

Revista Científica

9


Nueve estudios con distintas condiciones de carga se realizaron, los resultados se muestran en la Tabla 2.

Conclusiones Realizar programas que agilicen de una manera rápida y eficaz los cálculos matemáticos de las características físicas y comportamientos reactivos a las condiciones en las que serán sometidos, ayuda en gran medida para la realización de nuevos diseños, lo que permite generar la información suficiente que nos ayude a disminuir el tiempo de desarrollo en los nuevos productos que requiere el mercado.

Tabla 2. Comparativa de cada estudio de potencia para el reductor. Los valores mostrados en la Figura 5 y Figura 6, representa el modelado del factor de seguridad en la pieza. Las zonas de color rojo muestran el valor de FS más bajo, es el que se indica en el código de colores de lado derecho; en el caso del AISI1045 correspondería a 7.50. La zona de color rojo será la más crítica y la zona azul representa el lugar en donde las zonas están menos castigadas; en esta zona alcanzan FS mayores a 20, es decir esfuerzos casi nulos. En tanto para PAnylon la zona roja es la parte crítica en donde el valor del FS es menor debido a que el esfuerzo que genera la torsión en el eje es más grande que en otras zonas del elemento; esta es la zona crítica que presentaría el uso de este tipo de material. En ambos casos, el FS en los dientes se disminuye sobre la raíz del mismo, ya que en esta zona se presenta el valor más elevado del esfuerzo de flexión.

Figura 5. Factores de seguridad en material AISI 1045.

Figura 6. Factores de seguridad en material PA6 nylon.

Tabla 3. Comparativa de factor de seguridad para distintos materiales. 10

Revista Científica

El uso de herramientas con las que cuentan SolidWorks® , como son las tablas de diseño, aporta una potente herramienta al diseñador, ya que se reduce el tiempo de modelación geométrica de los engranes que serán requeridos para su inclusión en los mecanismos cinéticos que serán utilizados. Después de haber realizado el comparativo entre ambos métodos y de acuerdo a los resultados obtenidos, encontramos que existe una variación mínima entre el método AGMA y el MEF. Esto podría deberse a que AGMA utiliza muchos factores de corrección que se han generado con base a la experiencia que se tiene a lo largo de los años. Por otro lado, el método AGMA es más conservador, esto se aprecia cuando comparamos los resultados y observamos que el valor de AGMA, en lo que al factor de seguridad se refiere siempre está por encima del valor del elemento finito. Enfocándose en el método del elemento finito y en lo que al software se refiere, existe la posibilidad de que si las cargas que van a estar trabajando en el diente del engrane no son colocadas en el sitio y la dirección correcta en la que están actuando, los resultados van a tener una variación muy grande entre el método de AGMA y MEF. Por otro lado es importante utilizar una metodología adecuada para el trazo del perfil del diente, ya que los elementos con los que cuenta el software en sus librerías no tienen la forma geométrica que adopta el engrane una vez que ya fue maquinado.


Bibliografía

+Litvin, Faydor y Fuentes, Alfonso

(2004). Gear Geometry and applied theory. Reino Unido: Editorial, Cambridge, ISBN 978-0-521-81517-8.

+Patil, Abhijeet V.; Gambhire, V.R. y Pa-

til, P.J. (2014). Analysis of bending strength of bevel gear by FEM, International Journal of Innovative Research in Advanced Engineering (IJIRAE). Volumen 1, Número 6, pp. 424-429.

+ Venkatesh, J. y Murthy, P.B.G.S.N.

(2014). Design and Structural Analysis of High Speed Helical Gear Using ANSYS, Int. Journal of Engineering Research and Applications, Volumen 4, Número 3 (version 2) pp. 01-05.

+Carro Suárez, Jorge; Flores Salazar,

Fabiola y Flores Nava, Irma, (2012). Análisis de esfuerzo de contacto en engranes rectos aplicando el criterio de Hertz con ingeniería asistida por computadora. Revista Científica, vol.16, número 1, pp. 25-32.

+

Pradeep Kumar, Singh; Manwendra Gautam, Gangasagar y Shyam Bihari, Lal (2014). Stress analysis spur gear design by using ANSYS workbench, International Journal of Mechanical Engineering and Robotics Research”, Volumen 3, Número 3, pp. 64-68.

+

Gómez González, Sergio (2010). El gran libro de SolidWorks. México: Editorial Alfa omega Grupo Editor, S.A. de C.V. ISBN 978-607-622-233-1.

+

Gómez González, Sergio (2010). SolidWorks simulation. México: Editorial Alfa omega Grupo Editor, S.A. de C.V. ISBN 978607-707-032-0.

+

León, Jorge y Téllez, Nubia (2012). Diseño de productos aplicando tecnologías CAD. Congreso Academia Journals Celaya, Celaya, Guanajuato, ISSN 1946-5351, Volumen 4. pp. 1526-1531.

+

American Gear Manufacturers Association (2004). Standard 2001-D-04, Fundamental Rating factors and Calculations Methods for involute spurs and helical Gear teeth.

+

American Gear Manufacturers Association, (1990). Standard 908-B89, Geometry Factors for determining the pitting resistance and bending strength of spur helical and herringbone gear teeth.

+

Buchanan, George (1995). Schaum’s Outline of Finite Element.

Revista Científica

11


Mejora continua con

apoyo

Lean

de

herramientas

Manufacturing

en la producción de volantes automotrices Enrique Torres Chávez1, Rosa Verónica Aburto Ruiz2 y Adriana Arellano Montes3

Instituto Tecnológico Superior de Misantla. Km. 1.8, carretera a Lomas de Cojolite, Misantla, Veracruz, México, C.P. 93821. 1,2,3

enriquetorrs@gmail.com

Resumen: En este trabajo se presenta la aplicación de la mejora continua con apoyo de herramientas Lean Manufacturing, como una técnica para la eliminación de tiempos muertos en la producción de volantes automotrices, en el contexto de una empresa ensambladora dedicada a la manufactura, venta de volantes y bolsas de aire para automóviles. Se utiliza la metodología de los siete pasos de la mejora continua apoyada del Value Stream Mapping, mapa de recorrido de proceso, y diagrama de Ishikawa. Los resultados demuestran que con la solución 1 se optimizó el tiempo de ensamble de los volantes y que, si se implementara la solución 2, se optimizaría en mayor medida el tiempo de ensamble de volantes, se terminarían los recorridos largos de materia prima y se obtendría la producción esperada por la empresa.

+

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Enero 4, 2017. Aceptado: Mayo 22, 2017.

12

Revista Científica

Palabras Clave: Mejora continua, Lean Manufacturing, optimizar y ensamble.

Abstract: This paper presents the application of continuous improvement with the support of Lean Manufacturing tools, as a technique for the elimination of downtime in the production of automotive steering wheels, in the context of an assembly company dedicated to the manufacture and sale of flyers and Air bags for cars. It uses the 7-step methodology of continuous improvement supported by Value Stream Mapping, process path


map and Ishikawa diagram. The results show that solution 1 optimized the assembly time of the flywheels and that if solution 2 were implemented, the flywheel assembly time would be optimized, the long runs of raw material would be completed and the expected production would be obtained by the company.

+ Key words: Continuous Improvement, Lean Manufacturing, optimize and assembly process.

Introducción

rencias biográficas.

Metodología Este trabajo se realizó utilizando la metodología de los siete pasos de la mejora continua con apoyo de herramientas Lean Manufacturing, para la producción de volantes en la industria manufacturera automotriz. A continuación se detalla según la literatura, qué debe contener cada paso de la mejora continua.

Actualmente, el entorno empresarial demanda de las organizaciones niveles superiores en cuanto a calidad, precio, tiempo de entrega, servicio e innovación y mejora continua. La industria automotriz es una de las más exigentes con los factores antes mencionados, siendo una de las más exigentes y diversificadas en dichos factores de éxito, pero cuyo desempeño depende, en su mayoría, de la capacidad productiva y tecnológica de la industria manufacturera automotriz. El sector manufacturero automotriz ha basado su competitividad, en el nivel internacional, en el cumplimiento de los requisitos marcados por las compañías armadoras, mediante la certificación de sus procesos de producción, distribución y embarque. Una desventaja de este sector es que, pese a las inversiones en los últimos años, estas se han orientado a la producción y no han alcanzado a los sistemas de administración, lo que ha resultado en una baja de la productividad y no le ha permitido establecer estrategias que le permitan detectar y aprovechar oportunidades (Miranda, 2007). El caso de estudio aborda la aplicación de la mejora continua (MC), la cual constituye una estrategia muy importante para apoyar la competitividad de los negocios a través de la innovación incremental en la generación de valor al mercado (Jacobo Tolamatl Michcol, 2012). El presente estudio fue realizado en una planta ensambladora de volantes para la industria automotriz. Esta planta se orienta al sostenimiento de un desempeño superior y consistente en diversas variables, que pueden agruparse en múltiples extensiones: productividad, calidad, seguridad y mejora continua. Con relación a las cuatro extensiones, una de las maneras de favorecerlas es por medio del reconocimiento y disminución de las actividades que no agregan valor al producto, logrando aumentar la calidad de los productos, optimizar los costos y tiempos de entrega.

Figura 1. Método de los siete pasos (Herrera Jonathan, 2012).

La mejora continua desarrolla una serie de técnicas fundamentales en la búsqueda de solución para los muchos problemas que se puedan presentar en el entorno laboral de una empresa que pueda ofrecer bienes o servicios a un cliente en específico, y que sea capaz de satisfacer sus necesidades y requerimientos de forma general (López, 2007). En la Figura 2 se detalla la metodología ocupada para este trabajo de estudio.

El trabajo se realizó a partir del enfoque de la mejora continua en los procesos de ensamble de volantes, con apoyo de herramientas Lean Manufacturing. A modo de solución se ofrecen dos alternativas, las cuales son: una reestructuración del Lay Out de la planta y la innovación de un arnés que conforma al volante, con lo cual se posibilita obtener una mayor comprensión del flujo del proceso de ensamble y, al mismo tiempo, permite evidenciar los recorridos del producto y cuellos de botella que generan tiempos muertos, y que por consecuencia incrementen el tiempo de respuesta, disminuyen la calidad y encarecen el producto. Se presentan, entonces, dos propuestas de mejora continua para el departamento de ingeniería y recursos humanos de la maquiladora, y se posibilita una mejor comprensión del flujo del proceso de ensamble de volantes bajo la interrelación operadores-departamento de ingeniería-departamento de recursos humanos-gerencia. Posteriormente, se expone el desarrollo del estudio, los resultados alcanzados, las conclusiones y finalmente las refe-

Figura 2. Metodología utilizada en el estudio.

Revista Científica

13


Paso 1. Identificaciรณn y selecciรณn de los problemas de producciรณn de las celdas de ensamble de volantes Para la identificaciรณn y selecciรณn de las situaciones problemรกticas que en la actualidad afectan la producciรณn en las celdas de ensamble de volantes, es necesario en primera instancia, identificar y observar los mapas de operaciones y del flujo del proceso que se desarrolla en las celdas, en funciรณn de describir las oportunidades de mejora. En la Figura 3 se presenta el diagrama de flujo del proceso de ensamble de volantes.

Figura 4. Diagrama de proceso de ensamble de volantes Lambda G.M.

Figura 3. Diagrama de flujo del proceso. Diagrama de flujo del proceso de operaciones de ensamble de los volantes. Se define como diagrama de proceso una representaciรณn grรกfica relativa a un proceso industrial o administrativo (Niebel y Freivalds, 2004). En la Figura 4 se presenta el diagrama de proceso de ensamble de volantes, en el cual se observan los recorridos de materia prima que se presentan en las celdas de ensamble de volantes. Figura 5. Comparaciรณn de los tiempos de ensamble reales con los esperados, e identificaciรณn de los tiempos muertos.

14

Revista Cientรญfica


Se tomaron los tiempos reales a cada operación y se compararon con los esperados por el Departamento de Ingeniería; en la Figura 5, se muestra la comparación de los tiempos. Y se identificó que en la operación 1A, ensamble de la tolva y elementos a la base del volante, surge un tiempo muerto significante y este origina un cuello de botella, al igual que en la espera del producto semi-terminado (tarima). La Figura 6 presenta el diagrama de espagueti del proceso, este diagrama ayuda a visualizar el recorrido del producto en el proceso de fabricación (Niebel y Freivalds, 2004).

Figura 7. Value Stream Mapping presente del proceso de ensamble de volantes. Layout. Es la representación de la planta y ubicación de todos los equipos e instalaciones. Este da respuesta de los criterios de diseño y de la organización general del proceso productivo, teniendo como condición la gestión, operación y mantenimiento de la planta (Andreani, 2009).

Figura 6. Diagrama de espagueti del proceso. Value Stream Mapping. Es una técnica gráfica que permite visualizar todo un proceso, permite detallar y entender completamente el flujo, tanto de información como de materiales necesarios, para que un producto o servicio llegue al cliente; con esta técnica se identifican las actividades que no agregan valor al proceso y posteriormente iniciar las actividades necesarias para eliminarlas (Soconini, 2013).

Figura 8. Layout presente de la planta.

Revista Científica

15


Paso 2. Cuantificación y subdivisión del problema u oportunidad de mejora seleccionada En este paso se estudió las oportunidades de mejora que se pueden realizar en las celdas de ensamble de volantes, con la ayuda del diagrama de proceso de operaciones, diagrama del flujo del proceso, con la observación participante, con la toma de tiempos y la comparación con los reales y con el VSM realizado del proceso de ensamble de volantes de las celdas. Al analizar y estudiar detenidamente lo antes mencionado, fue posible observar que los dos principales problemas en las celdas de volantes se deben:

Paso 3. Análisis de las causas raíces Se aplicó la lluvia de ideas sobre las posibles causas de cada problema por separado (cuellos de botellas originados en la primera y sexta operación) para después enfocarlas en un diagrama de Ishikawa (Figura 9 y Figura 10), las cuales se agruparon en seis tipos básicos: causas vinculadas con la materia prima, la mano de obra, los métodos de trabajo, la maquinaria, el medio ambiente y el mantenimiento.

1. Al cuello de botella que surge en la primera operación de las

celdas originado por los elementos que conforman el arnés 230, los cuales hacen que el ensamble de este arnés al volante se tome más tiempo del esperado en esta operación.

2.

El cuello de botella que surge en la sexta operación de las celadas, el cual es originado por que esta operación se encuentra en otra área y el recorrido del producto no es de unidad en unidad, sino que se espera a que las celdas terminen de ensamblar una tarima de 24 volantes como mínimo, para que esta tarima pueda ser movida a la siguiente operación.

Figura 9. Diagrama Ishikawa para primera operación.

Estos dos problemas traen a su vez, que la producción esperada en una hora y turno no sea la esperada y que los embarques no salgan en el tiempo y forma planeados, o que el producto no se valla en el embarque destinado.

Figura 10. Diagrama Ishikawa para segunda operación.

16

Revista Científica


Paso 4. Establecimiento del nivel de desempeño exigido (metas de mejoramiento) En este paso se revisó la producción exigida por hora y por turno por la empresa, hacia las celdas de ensamble de volantes. Para dichas celdas se enlistaron, por medio de lluvia de ideas, una serie de metas a lograr en un tiempo específico, las cuales son las siguientes:

+ Entregar los productos en tiempo y forma al área de embarque. + Lograr la producción esperada por la empresa en una hora y

en un turno.

+

Proporcionar pláticas o asesorías a los operadores de cómo deben tener su área de trabajo, aplicando las 5´S. El objetivo de las 5’S es lograr un funcionamiento más eficiente y uniforme de las personas en los centros de trabajo. La implantación de una estrategia de 5’S permite la eliminación de despilfarros (García, 2010).

Tabla 2. Solución al cuello de botella de la sexta operación. Esta solución es una propuesta de reestructuración de las celdas de ensamble de volantes, con el fin de que el flujo del proceso es las celdas sea continuo y se elimine el recorrido del producto semi-terminado.

Paso 6. Implantación de soluciones Se realizó una visualización de los elementos a modificarse en el arnés 230, todo esto con el fin de que este sea más maleable cuando el operador lo ensamble al volante y se elimine el cuello de botella originado en la primera operación. Posteriormente, se realizó un VSM futuro (Figura 11) para proponer una reestructuración de las celdas de ensamble, todo esto con el fin de eliminar el recorrido del producto semi-terminado y el cuello de botella que se origina en la sexta operación; después, se realizó el Layout futuro de la planta (Figura 12).

Para lograr el cumplimiento de estas metas, se deben atacar las principales causas raíces de los problemas o para este estudio, es necesario establecer niveles de desempeños imprescindibles para el cumplimiento de las metas mencionadas. Comparación de la producción real con la esperada, por hora y por día (turno). Un turno está conformado por 10 horas, pero la empresa le brinda al trabajador una hora de descansó, con lo cual se tienen 9 horas laborales. La empresa espera de cada celda de ensamble una producción de 50 volantes ensamblados en una hora, y al final del turno la producción total requerida es de 450 volantes. Pero las celdas de ensamble están dando una producción de 50 volantes en 74 minutos, y en un turno dan una producción de 364 volantes, donde la diferencia de la producción en un turno con la producción esperada es de 86 volantes.

Paso 5. Diseño de soluciones

Figura 11. VSM Futuro.

Se aportaron una serie de soluciones a través de una sesión de lluvia de ideas para cada problema, presentadas en la Tabla 1.

Tabla 1. Soluciones al cuello de botella de la primera operación. La solución 2 se trabajó con el Departamento de Nuevos Proyectos para la innovación del arnés 230. En la Tabla 2 se muestra la solución para la eliminación del cuello de botella que se origina en la sexta operación del proceso de ensamble de volantes. Figura 12. Layout futuro.

Revista Científica

17


Paso 7. Establecimientos de acciones de garantía Se analizaron los factores que permitirían mantener el cumplimiento de las soluciones:

+

La gerencia debe alejar los prejuicios y buscar la integración con los obreros y el personal en general que laboran en dicha empresa.

+

Cada trabajador debe sentir un compromiso directo con la empresa, es decir, velar porque se cumplan las reglas, y así estará garantizando su permanencia en la misma.

+

Se deben tomar los tiempos reales con los esperados por la empresa, para corroborar si la mejora continua que se le ha realizado al proceso ha cumplido con su objetivo. Todo lo anterior conllevaría a que la empresa obtenga la producción esperada igual a la real.

Resultados El resultado de este estudio indica las fallas que existen en el proceso de ensamble de las celdas de volantes de la empresa manufacturera de la industria automotriz, los cuales fueron los siguientes:

1. Faltas de comunicación obreros-empresa. 2. Retraso en producción. 3. Fallas de equipos. Estas causas se priorizaron en orden de importancia tomando como problemas principales los cuellos de botellas que se originan en la primera y sexta operación del proceso de ensamble que conllevan al retraso de los embarques y a no cumplir con la producción esperada por la empresa; a partir de aquí, se priorizó el estudio donde finalmente se establecieron alternativas de solución mencionadas a continuación: Solución 1: Innovación al arnés 230. Y la solución 2: Reestructuración de las celdas. De estas dos soluciones, se aplicó solo una, que es la de innovación del arnés 230 la cual originó que se eliminara el cuello de botella que se originaba en la primera operación, pero trajo consigo un reproceso. La solución dos, que es la reestructuración de las celdas, quedó como propuesta a la cual el Departamento de Ingeniería y la gerencia de la empresa le darán seguimiento.

Conclusión La maquiladora en donde se implementó la mejora continua con apoyo de herramientas Lean Manufacturing han notado una optimización en tiempo de entrega, recorrido de materiales, materia prima en proceso, número de defectos, número de rechazos y reprocesos, al mismo tiempo han maximizado su rendimiento, flexibilidad, mejoran su calidad, mejoran el uso del personal y uso de la dimensión de la planta. 18

Revista Científica

Bibliografía

+

Andreani, A. A. (2009). Ingeniería y gestión de la confiabilidad operacional en plantas industriales . Santiago de Chile.: Ril, Editors.

+

Feigenbaum, A. V. (2000). Control Total de la Calidad. México: Contienntal, S.A. de C.V.

+

García, M. R. (2010). Lean Manufacturing La evidencia de una necesidad. Madrid: Díaz de Santos.

+

Herrera Jonathan, D. M. (2012). Análisis de los Diferentes Métodos de Mejora Continua. UNEXPO, (pág. 12).

+

Jacobo Tolamatl Michcol, P. C. ( 2012). Análisis de Facilitadores para Sostener la Mejora Continua. Conciencia Tecnológica, 10.

+

López, I. G. (2007). Evalución y Mejora Continua. Coceptos y Herramientas Para la Medición y Mejora del Desempeño. Bloomington: Author House.

+

Miranda, A. V. (2007). La industria automotriz en México Antecedentes, Situación Actual y perspectivas. scielo, 238.

+

Niebel B.W. y Freivalds, A. (2004). Ingeniería Industrial, Métodos, estándares y diseño de trabajo. México: Alfomega.

+

Soconini, L. (2013). Lean Manufacturing paso a paso. México: Norma Ediciones, S.A. de C.V.


Revista CientĂ­fica

19


D O S S A LTO S C Uá N T I CO S C L AV E :

LA CONSTANTE DE

PLANCK y EL

BOHR áTOMO DE

Carlos Figueroa Navarro1, Raúl Riera Aroche2 y Germán Campoy Guereña3

Universidad de Sonora Luis Encinas y Rosales, s/n, Hermosillo, Sonora, México, C.P. 83000. 1,2,3,

cfigueroa@industrial.uson.mx

Resumen: Se recrean y explican dos cálculos fundamentales de la mecánica cuántica básica, como es la determinación de la constante de Planck y el Átomo de Bohr. Se detalla el desarrollo algebraico y se sugiere poner énfasis en ciertos aspectos que las fuentes consultadas soslayan. Se piensa que ambos hechos históricos de la ciencia deben ser materiales didácticos, para un entendimiento eficaz en el estudio y preparación en nanociencias por parte de ingenieros y químicos, particularmente; por tanto, se propone discutir el diseño de dos lecciones de cuántica primitiva, con objeto de facilitar su comprensión y aprendizaje.

+

Palabras clave: ley de Boltzman, energía cinética, jacobiano y momento angular.

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Enero 16, 2016. Aceptado: Mayo 22, 2017.

Abstract Two fundamental calculations of basic quantum mechanics are recreated and explained, such as the determination of the Planck constant and the Bohr atom. Algebraic development is detailed and it is suggested to emphasize certain aspects that the consulted sources overlook. We think that both historical facts of science must be didactic materials, for an efficient understanding of the study and preparation in nanoscience, by engineers and chemists in particular, therefore, it is proposed to discuss the design of two lessons of primitive quantum with the goal to facilitate their understanding and learning.

+ 20

Revista Científica

Keywords: Boltzman law, kinetic energy, jacobian and angular momentum.


Introducción Este trabajo se enfoca en la historia de la mecánica cuántica y, además, en dos momentos críticos, como lo constituyen la determinación de la constante de Planck para resolver el problema de la radiación de cuerpo negro y la audacia de Bohr para explicar con argumentos no clásicos los niveles atómicos y la energía de enlace. Ambos ejercicios poseen trascendencia en la construcción del universo cuántico. A finales de siglo XIX ya se tenía un modelo para explicar la equipartición de la energía, ley de Boltzman; asimismo, se entendía las ondas y su comportamiento. Max Planck formula su teoría cuando la ley de Rayleigh-Jeans, basada en argumentos clásicos, no concordaba con los resultados experimentales; también la ley de Wien arrojaba resultados congruentes con el experimento solo a altas frecuencias, aquí se ubica este primer salto con la constante de Planck para ajustar la ley de Wien y obtener con éxito la solución del dilema. Luego en la década de los veinte del siglo pasado se desarrollan las aportaciones de Niels Bohr; en ese tiempo, se plantearon varios modelos para explicar el átomo, como los históricos de Thomson, Rutherford y Nagakoa. Por otro lado, Balmer y Rydberg dieron pasos fundamentales en el análisis experimental, es entonces que nace la teoría del Átomo de Bohr. La intención del presente trabajo es el de desarrollar lecciones de física cuántica didácticas que ayuden a la explicación eficaz de temas complejos al estudiante, con base a textos disponibles y de uso común. Un libro orientado a la enseñanza de la cuántica que presenta a buen detalle y un nivel matemático de bachillerato, es ¿qué es la mecánica cuántica? (Dirección general de publicaciones y formato estructural, 2010). La parte dedicada a la constante de Planck tiene mucha claridad en las ecuaciones determinadas, pero explica muy poco sobre la conformación inicial de las ecuaciones. Sin embargo, solamente se analiza puntualmente el desarrollo de cálculo. Otra fuente revisada es Mendoza Santos y Hernández Sánchez (2015), que determinan el valor numérico de la constante de Planck, pero aquí solo se especifica un paso soslayado. Otra referencia sustancial es un material didáctico de Romero Rochín (2014), que utiliza argumentos termodinámicos formales para poder derivar la ley de Planck; posiblemente, su inclusión sea necesaria en un diseño de lección sobre el tema. Para el Átomo de Bohr, se examina el desarrollo del Halliday, Resnick y Krane (1997), libro de texto en cursos de licenciatura que cubre de manera clara el átomo de hidrogeno, base de la teoría de Bohr. Las hipótesis que los autores postulan dicen: 1) el átomo tiene órbitas discretas y no emiten luz, este estado de energía es llamado estado estacionario. 2) Los electrones pueden experimentar transiciones de una órbita a otra mediante la emisión o absorción de fotones. En este trabajo se guía solo a determinar el radio de Bohr; pero también se agrega la cuantización del momento angular que Halliday, Resnick y Krane (1997) omiten. Por último, se destaca que este artículo aborda dos hechos extraordinarios de la historia de la cuántica, pero queda siempre la pregunta si es posible diseñar materiales didácticos de este tipo, pero sin tratar otros hitos importantes, como el efecto fotoeléctrico, la ecuación de Schrödinger, principio de incertidumbre y la longitud de onda de De Broglie, por solo mencionar algunos de los temas modulares de la física cuántica, siendo la intención de los autores didáctica y de ofrecer elementos para discutir posibilidades de estudiar la temática en forma elemental.

Ley de Planck En el experimento de radiación de cuerpo negro se preguntaban ¿qué tipo de luz está contenida en la caja? Se sabe que la luz cambia respecto a la temperatura y también varían sus espectros. El espectro se mide con la intensidad u(v)dv en función a la frecuencia v. ¿Porqué existe un espectro para una temperatura dada? John Rayleigh y James Jeans recurren a teoría clásica para explicar la relación entre calor y luz. En este tiempo ya se tenía la ley de la equipartición de la energía o ley de Boltzman. Con k como constante de Planck 1.38x10-23 joules/kelvin, la energía promedio en un periodo es:

Para una onda simple, tiene dos grados de libertad; entonces, la energía de una onda simple es:

Para encontrar la energía que mide un espectroscopio se tiene que proceder así:

La densidad significa que dentro de una banda estrecha esté contenido un número de ondas dado por lo que Romero Rochin (2014) llama “la formula crucial”. La deducción de la densidad es parte significativa del tema y debe examinarse previamente; se recomienda la referencia Eisberg y Reisnik (2006) y que consiste en encontrar el número de ondas permitidas en un intervalo de frecuencias para una cavidad cúbica. Romero Rochín (2014) lo explica como la cantidad de energía de radiación, por volumen con frecuencia v y temperatura T:

Donde c es la velocidad de la luz; esta última es la “fórmula crucial”; asimismo, es de sumo interés, cómo Romero Rochin (2014) se obtiene la ley de Planck usando las leyes de la termodinámica, al interpretar una forma posible de calcular la entropía y generar el resultado; esta deducción puede ser complementaria al desarrollo de Mendoza Santos y Hernández Sáchez (2015). Con la densidad definida, ahora se puede enunciar la ley de Rayleigh Jeans, que dice que el espectro de luz dentro de la caja es:

Sin embargo, esta teoría no reproducía la radiación de cuerpo negro. Concretamente, solo concordaba con el experimento a muy bajas frecuencias. Por otro lado, la teoría de Wien está basada en el hecho de que el espectro depende de la temperatura y de la frecuencia, tal que:

Donde ß se llama la constante de Wien y era congruente con el experimento solo a altas frecuencias. La necesidad de una nueva teoría la resuelve Max Planck al estudiar los modelos de Rayleigh-Jeans y Wien, al combinar ambas teorías, logrando un resultado de éxito. Su ecuación era de la forma:

Revista Científica

21


Planck descubre que su ecuación predice correctamente el espectro de energía de radiación de cuerpo negro. Cuando en la ecuación de Planck la frecuencia es baja, debe llevar a la ley de Rayleigh-Jeans; en efecto, si hacemos que v sea muy pequeña lo que permite aplicar la función de Taylor, entonces:

Al sustituir en ecuación (6) se tiene ley de Rayleigh-Jeans:

Con lo que usar una fórmula para sumas infinitas:

Se llega a:

Al sustituir esto en la ecuación (17), se llega entonces a la ley de Planck descrita en la ecuación (12). Otra deducción, pero más de índole numérico es la que se desarrolla en Mendoza Santos y Hernández Sánchez (2015) donde se usa la ley del desplazamiento de Wien:

Asimismo, cuando en la ecuación de Planck la frecuencia es alta, lleva a la ley de Wien:

Ante los aciertos de la ley de Planck, es el momento propicio en que Planck decide conjuntar la constante de Boltzman y Wien, tal que ahora es la constante de Planck:

Donde λmax es longitud de onda máxima; se inicia con la densidad de energía radiante que puede determinarse de la ecuación (7) mediante el uso del jacobiano de la transformación, pues existe la necesidad de pasar de una función que depende de la frecuencia v a otra que depende de la longitud de onda λ tal ecuación resulta en:

Por tanto, se escribe la ley de Planck como:

Pero lo de más repercusión es que concluye que la energía de ondas de luz solo puede tener ciertos valores fijo: Es decir, tiene siempre un resultado de 0hv, 1hv, 2hv, 3hv... asimismo, si la ecuación (13) es correcta, a partir de ella se puede derivar la ecuación de Planck ecuación descrita en la ecuación (12), empleando ley de Boltzman que es el número de veces que ocurre un cierto nivel de energía, se tiene:

Luis De la Peña (2003) recomienda usar el subíndice para indicar temperatura constante. Se puede demostrar que esta es equivalente a la forma de la ecuación (7), pero considerando que dv=-c/λ2; y que se debe usar el valor absoluto del jacobiano de la transformación, tal que E(λ)T=/J/U(v) sin entrar en mayor detalle en lo anterior, se considera en la ecuación (22) para efectuar el cambio de variable siguiente:

La energía se escribe ahora como:

Es importante recordar que la energía está limitada a ciertos a valores 0hv, 1hv, 2hv, 3hv... la Tabla 1 ordena el nivel de energía y la ocurrencia.

Tabla 1. Nivel de energía y ocurrencia.

Que puede reescribirse como:

La energía promedio es entonces:

Que al sustituir ley de Boltzman y ley de Planck se tiene:

Y efectuando el cambio de variable, se tiene:

22

Revista Científica

Al resolver por algún método numérico se tiene que x=4.96511; entonces, usando ley de desplazamiento de Wien descrita en la ecuación (21) y ecuación (22):


Átomo de Bohr A finales del siglo XIX se medía con precisión los espectros atómicos, sin embargo la interpretación era confusa. En 1895, Johanes Balmer desarrolló una fórmula empírica para la longitud de onda del átomo de hidrógeno:

La velocidad, en términos del radio de la órbita, es entonces:

La frecuencia de revolución del electrón en su órbita es:

Asimismo, su energía cinética es determinada usando la ecuación (34): En 1890, Rydberg modifica la fórmula de Balmer así:

Donde R es la constante de Rydberg, que puede reescribirse como:

Multiplicando por hc se tiene:

Se puede inferir que la energía es negativa porque el átomo está en un estado ligado, entonces debe efectuarse un trabajo externo para desligar, y también se puede estimar que es de la forma:

Bohr pensaba que la constante de Rydberg debe estar en términos de constantes físicas conocidas. Él usó principios clásicos y luego compara con resultados cuánticos para n grande; inicia aplicando segunda ley de Newton al movimiento de un electrón con la fuerza de Coulomb. Se define Ze como la carga central, donde Z es el número atómico, asimismo sea me la masa del electrón. Al combinar Coulomb con Newton se tiene:

La energía potencial es negativa por su carácter atractivo de la fuerza de Coulomb:

Donde la energía total se puede expresar como:

Otra cantidad de interés es el momento angular que se deduce de la Ecuación (34):

Aquí se puede determinar el radio de Bohr aplicando la condición de cuantización al ímpetu; en efecto, si se considera que es una constante se tiene entonces que:

Revista Científica

23


Se tiene una primera demostración del radio de Bohr:

Sin embargo, la idea de Halliday, Resnick y Krane (1997) es usar el principio de correspondencia, por tanto enseguida se sigue su deducción. Para obtener la relación entre frecuencia y energía se usa la ecuación (35) y la Ecuación (38):

Donde el subíndice indica que el cálculo es con base a mecánica clásica. Ahora si se usa la ecuación (32) de la energía en términos de la fórmula de Rydberg se tiene ahora que la frecuencia para n número cuántico:

Por otro lado, de las ideas de la cuántica primitiva y haciendo m = n - 1 en la ecuación (30):

Cuando n es grande se puede aproximar a:

Aplicando el principio de correspondencia Vmc=Vqm que equivale a igualar la ecuación (44) y la ecuación (46) se puede validar la constante de Rydberg, que es un valor experimental:

Bohr obtuvo buena aproximación de la constante de Rydberg; ahora, al sustituir la ecuación (47) en la ecuación (32):

Que es una expresión cuántica de las energías de los estados estacionarios del átomo de hidrogeno, muchos consideran que este es el máximo triunfo de Bohr. Para el átomo de hidrogeno se tiene que la energía del estado base es de -13. 6 electron-volts. Al eliminar la energía de las ecuaciones la ecuación (38) y la ecuación (48) se pueden hallar los radios de las órbitas de Bohr cuantizados tal que:

Al hidrógeno le corresponde Z=1 . La cantidad a0 se denomina radio de Bohr y se puede verificar que tiene el valor de:

Pero la constante dieléctrica 8.85 x 10-12 F/m, puede eliminarse como lo hace la Dirección General de Publicaciones y Fomento Editorial (2010), considerando:

24

Revista Científica

Entonces, ahora el radio de Bohr y la constante de Planck en forma de h = 6.626 x 10-27gr cm2 s-1 es:

Discusión de resultados En el presente documento se expuso en una sola lección la explicación de la ley de Planck al hacer la conjunción de publicaciones ¿qué es la mecánica cuántica? y el nacimiento de una constante. Otro aspecto a considerar es en la ecuación (4) falta ahí precisar de donde viene la primera parte del producto, que no lo explica la fuente consultada; para resolver esa parte se recomienda el libro de Eisberg y Resnick (2006). La ecuación (9) y la ecuación (10) tienen la propiedad de complementariedad de la ley de Wien y de Rayleigh-Jeans para explicar la ley de Planck; la clave de este cálculo de Planck es la interpretación de valores discretos que trae la cuantizacion en la ecuación (13) y también esencial en el aprendizaje efectivo, es la deducción que utiliza la ley de Boltzman para obtener la ley de Planck; resultado que es un hecho histórico fundamental de la unión de la termodinámica y la física cuántica. En este último tema el material de Romero Rochin (2014) es imprescindible, asimismo, se tiene la obtención numérica de la constante de Planck, Ecuación (27) que complementa bien el análisis. El Átomo de Bohr predice bien el radio del átomo de hidrogeno en su estado normal, pero tiene otras interpretaciones discutibles, como lo hace con detalle en Eisberg y Resnick (2006). De las pocas observaciones a Halliday, Resnick y Krane (1997), es que se puede realizar el desarrollo sin incluir la constante dieléctrica y simplifica poco las ecuaciones como se propone en Dirección General de Publicaciones y Fomento Editorial (2010) y queda tal como la ecuación (46). El límite de la ecuación (45) es crucial y en la fuente consultada no se especifica bien. Igual el momento angular tiene repercusiones posteriores que no se configuran concretamente. La ecuación (42) y la ecuación (49) son dos formas diferentes del radio de Bohr. Creemos que este análisis puede ser de valor en la comprensión del comportamiento de átomos y moléculas.

Conclusión En este trabajo se han examinado dos cálculos de cuántica fundamentales que tienen significancia trascendental en la instrucción de esta materia. Pensamos que la constante de Planck debe quedar bien establecida antes de acometer los temas subsecuentes; asimismo, el Átomo de Bohr es un problema que muestra la asociación de física clásica y cuántica mediante el principio de correspondencia y puede tener resultados positivos en el estudio con entendimiento efectivo de temas de nanociencias, cuya preparación se ha trasladado a campos de la ingeniería y la química, y es allí donde se puede valorar mejor este tipo de rediseño de lecciones. Por último, señalar que los libros que se consideran aquí, deben ser incluidos en el diseño de clases de la asignatura; principalmente se destaca la obra ¿Qué es la mecánica cuántica?, que posee recursos didácticos novedosos, que es una de las metas hacia donde se orienta actualmente la enseñanza de la ciencias exactas.


Bibliografía

+

Dirección General de Publicaciones y Fomento Editorial (2010). ¿Qué es la mecánica cuántica?Editorial. UNAM México.

+

Mendoza Santos, J. C. y Hernández Sánchez, H. (2015). El nacimiento de una constante. Temas de Ciencia y Tecnología.

+

Romero Rochìn, V. (2014). Cómo Planck introdujo la constante h: Clase de termodinámica.

+

Halliday, D.; Resnick, R. y Krane, K. (1997). Física, Volumen 2. pp 532-536. Edit. CECSA México.

+

Eisberg, R. y Resnick, R. (2006). Física Cuántica Edit. pp 129-133. LIMUSA México.

+

De la Peña, L. (2003). Problemas y ejercicios de la mecánica cuántica. pp 3-4. Edit, FCE México.

Revista Científica

25


EL LIDERAZGO

EN LA MANUFACTURA ESBELTA: ESTUDIO DE LIDERAZGO TRANSFORMACIONAL Y TRANSACCIONAL EN UNA EMPRESA MAQUILADORA

Rosa Cristina Rivas1, Jesús José Aguirre Solís2 y Ma. De Los Ángeles Ramírez3

Instituto Tecnológico de Ciudad Juárez, División de Estudios de Posgrado e Investigación, Av. Tecnológico, #1340, Ciudad Juárez, Chihuahua, México. C.P. 32500. 1,2,3

jaguirre@itcj.edu.mx

Recibido: Octubre 31, 2016. Recibido en forma revisada: Enero 27, 2017.

+

Palabras clave: Cultura organizacional, liderazgo transformacional, liderazgo lean, manufactura esbelta y cuestionario MLQ.

Aceptado: Mayo 22, 2017.

26

Resumen: La manufactura esbelta se ha definido como un sistema socio-técnico orientado principalmente a la eliminación del desperdicio y a la mejora de la productividad, a través del proceso de mejora continua. Es una herramienta usada para buscar la competitividad en las empresas y se ha argumentado que el éxito de su implementación depende tanto de la cultura organizacional, como del tipo de liderazgo de su personal directivo. En este trabajo se presenta el resultado de un estudio del liderazgo de gerentes, ingenieros y supervisores de una empresa del ramo automotriz. El estudio usó el cuestionario MLQ© estilos de liderazgo transformacional, transaccional y no liderazgo desarrollado por Bass y Avolio (1989). En estos grupos de personas se presentan los tres tipos de liderazgo, aunque el liderazgo transformacional tiene valores mayores. No se encontró diferencia significativa entre el tipo de liderazgo de los gerentes y el de los ingenieros y supervisores.

Revista Científica


Introducción En la actualidad, la competencia requiere que las empresas mantengan sistemas de producción eficientes y flexibles para responder en forma oportuna a los cambios y necesidades de sus clientes. La razón principal por la cual las empresas están desarrollando estos sistemas, es debido a que la globalización ha reducido las barreras comerciales y deben ser más competitivas (Waqas, 2012). Uno de los sistemas más importantes desarrollados es el sistema de Manufactura Esbelta, el cual se orienta a la eliminación y reducción del desperdicio, y a la mejora continua en la productividad. Aunque la literatura sobre manufactura esbelta reporta una diversidad de casos que han tenido éxito en la implementación de este tipo de herramientas, también se han reportado casos donde los esfuerzos de implementación no han sido los esperados o han fracasado (Chen y Meng, 2010). El concepto esbelto, mayormente conocido como “Lean” (traducción en inglés de esbelto) empezó con el Sistema de Producción de Toyota (TPS, por sus siglas en Inglés), desarrollado como una alternativa para los métodos de producción en masa basado en encontrar las deficiencias y eliminar todos aquellos procesos que no agregan valor

al producto final, lo que es conocido como desperdicio (Holm, 2010). Las categorías del desperdicio son: sobre inventario, sobreproducción, transporte, proceso, demoras, rechazos y movimiento innecesario (Carreira, 2004). Las ventajas que ofrecen los sistemas esbeltos tienen que ver con reducción de inventarios, control de la producción, manejo de material, mejor calidad, menos espacio, flexibilidad de manufactura, identificación de mejoras, mejor ambiente de trabajo y motivación de las personas. En la implementación de sistemas esbeltos, hay tanto éxito, como fallas, y es que, para que esta implementación tenga éxito, el concepto debe estar integrado totalmente en el sistema de administración de las empresas.

Cultura organizacional

Estudios recientes afirman que factores como el liderazgo y la cultura juegan un papel muy importante para el éxito de estos sistemas, incluso mayor que el de las herramientas que la componen (Ahrens, 2006). La cultura organizacional se constituye de creencias y valores compartidos que se transmiten a través de sus miembros (Tsai, 2011) y evoluciona por sí misma, según Schein (2004). Se ha argumentado que, en la implementación de sistemas esbeltos, el fundamento es una cultura organizacional que aliente la participación, el respeto individual, la Revista Científica

27


mejora continua, la comunicación, el control visual y la generación de metas. Acorde con este argumento, otros estudios indican que la creación de una cultura esbelta depende de su liderazgo (Schein, 2004).

Liderazgo esbelto El liderazgo es un proceso mediante el cual una persona influye a otras para lograr un objetivo común. Likert y Convis (2011) describen las características del liderazgo esbelto: (1) compromiso con su propio desarrollo, (2) tutorar y desarrollar a otros, (3) apoyar diariamente las iniciativas de mejora continua, o Kaizen, y (4) crear una visión y alinear sus metas para lograrla.

1 Nunca, 2 Ocasionalmente, 3 Algunas veces, 4 Frecuentemente, y 5

Siempre.

Después de algunas pruebas para asegurar su comprensión, los cuestionarios se aplicaron durante un periodo de dos meses, a todo el personal directivo: 6 gerentes, 16 ingenieros, y 23 supervisores. El cuestionario se aplicó después de la jornada laboral para evitar interrupciones. Las variables de la investigación son los factores que integran el liderazgo transformacional, el liderazgo transaccional y el no liderazgo, así como sus variables de salida. Los códigos de estos factores, así como una breve descripción de lo que miden, se muestran en la Tabla 1.

Potsinska, Swartling y Drotz (2013), en su estudio sobre los líderes esbeltos en las empresas de manufactura y de la salud, concluyen que el comportamiento mostrado de muchos líderes esbeltos pueden ser clasificados como comportamientos del tipo de liderazgo transformacional. Por otra parte, Jandaghi, Martin y Farjami (2009), en su estudio sobre el liderazgo y las empresas con éxito y sin éxito, concluyen que los lideres transformacionales buscan hacer cambios que incrementen la eficacia organizacional y su desempeño, y este tipo de liderazgo es significativamente más alto en empresas con éxito que las sin éxito.

Liderazgo transformacional Una de las teorías contemporáneas sobre liderazgo es la de Bass y Avolio (1996), la cual sostiene que el liderazgo transformacional y el liderazgo transaccional son liderazgos multifactoriales, con dimensiones que pueden medirse de líderes a seguidores y viceversa. El liderazgo transaccional es visto como una relación de intercambio entre el seguidor y el líder (Judge y Picolo, 2004) y el liderazgo transformacional como una relación de compromiso entre el seguidor y el líder, basada en motivación y moralidad (Woehl, 2011). Bass y Avolio (1998) menciona que el liderazgo transformacional y el liderazgo transaccional son rasgos separados aunque no mutuamente excluyentes, puesto que los mejores lideres poseen ambos tipos de liderazgo con intensidad distinta (Judge y Picolo, 2004). Pero, los líderes transformacionales motivan a sus seguidores para alcanzar su desempeño más allá de sus expectativas, por medio de transformar sus actitudes, creencias y valores (Rafferty y Griffin, 2004). El presente trabajo muestra los resultados de un estudio sobre el tipo de liderazgo de los gerentes, ingenieros y supervisores de una empresa maquiladora local en un proceso de implementación de un programa de manufactura esbelta, con el propósito de conocer si los liderazgos de este personal clave son adecuados para la creación de una cultura esbelta.

Materiales y Métodos Para el estudio, se utilizó el cuestionario en español MLQ (Multifactor Leadership Questionnaire) desarrollado por Bass y Avolio (1996). El cuestionario consta de 45 preguntas, cada una con cinco opciones de respuesta que miden frecuencia de comportamiento:

28

Revista Científica

Tabla 1. Factores por tipo de liderazgo y variables de salida.

Resultados

Estadística descriptiva En la Tabla 2, se presentan las medias y las desviaciones estándar de los factores para cada grupo. Los promedios de cada grupo, del liderazgo transformacional (LTF) y del liderazgo transaccional (LTS), aparecen al final de la tabla. Los valores del liderazgo transformacional son mayores en los tres grupos que los valores del liderazgo transaccional. Las variables de salida de satisfacción (SAT), esfuerzo extra (EE) y efectividad (EFE), tienen valores mayores a tres, lo cual indica que los tres grupos son más transformacionales de acuerdo al modelo de Bass y Avolio (1996).


(Bragg, 2008; Bass y Avolio, 2007). Esta norma se obtiene de una base de datos de las respuestas de miles de personas que han contestado este cuestionario. Los valores de la norma MLQ usados se presentan en la Tabla 3.

Tabla 2. Estadística descriptiva por factor y tipo de líder.

Base de datos de la norma MLQ

Tabla 3.Valores de la norma MLQ. El procedimiento requiere calcular el valor T para cada factor o variable de cada persona o grupo estudiado, como sigue (Bass y Avolio, 2007):

Las medias de las frecuencias de los factores de los grupos se compararon con los valores de la Norma del cuestionario MLQ estadunidense Revista Científica

29


La comparación con respecto a la norma MLQ se efectuó con los promedios de cada grupo, y no por cada individuo, como en el caso de una autoevaluación. Los valores T obtenidos fluctúan entre 56.73 para la variable CI en los gerentes, hasta 72.571 para la variable AEA del grupo de ingenieros. En general, en los resultados obtenidos de las variables de los liderazgos transformacional y transaccional, los valores están dentro de la norma o arriba de esta. El resultado indica que en promedio, el personal muestra comportamientos de ambos liderazgos. En el caso del No Liderazgo, los valores están arriba de la norma, lo que muestra que se alejan de este No liderazgo; sí apagan fuegos, pero no se involucran en la solución de problemas.

Prueba de Hipótesis Otro objetivo del estudio fue el determinar si existe afinidad entre los estilos de liderazgo de los gerentes y los estilos de liderazgo de los ingenieros y supervisores, ya que esta afinidad puede ser un factor para facilitar la comunicación, el trabajo en equipo, el establecimiento y logro de metas, y las actividades diarias de la administración. Las hipótesis planteadas al respecto son las siguientes:

1.

Los valores de las dimensiones del liderazgo Transformacional (LTF) de los gerentes no difieren de las de los ingenieros.

2.

Los valores de las dimensiones del liderazgo Transformacional (LTF) de los gerentes no difieren de las de los supervisores.

3.

Los valores de las dimensiones del liderazgo Transaccional (LTS) de los gerentes no difieren de las de los ingenieros.

4.

Los valores de las dimensiones del liderazgo Transaccional (LTS) de los gerentes no difieren de las de los supervisores.

En la prueba de estas hipótesis, se usó la prueba de Mann-Withney para muestras independientes, y un nivel de significancia del 10%. El software que se utilizó fue SPSS®. Los resultados obtenidos de las pruebas fallan en rechazar las hipotesis anteriores, no hay suficiente evidencia para afirmar que los estilos de liderazgo de los gerentes y el estilo de liderazgo de los ingenieros y supervisores son diferentes. En la Tabla 4 se muestran solo los resultados de las pruebas de hipotesis para el LTF, en las que las variables indicadas tienen un valor p menor al 10%. Las variables que indican dónde radican las diferencias, son la influencia idealizada de atributos que refleja la creación de una cultura de confianza, y la estimulación intelectual que promueve el pensamiento innovador, ambas dimensiones pertencen al liderazgo transformacional.

30

Revista Científica

Tabla 4. Resultados de las pruebas de hipótesis con variables con un valor p menor al 10%.

Conclusiones Los resultados del estudio permiten tener información sobre los estilos de liderazgo de los gerentes, ingenieros y supervisores. Los valores T de estos grupos comparados con la norma MLQ de los Estados Unidos, se encuentran dentro de los valores de la norma y en algunos casos son superiores a la misma, indicando que los gerentes, ingenieros y supervisores tienen características transformacionales y transaccionales. En el análisis de resultado de las pruebas hipótesis, los grupos presentan tendencia transformacional más que transaccional o no liderazgo, con valores arriba del promedio; los gerentes, en su papel de líderes, presentan valores más altos del liderazgo transformacional que ingenieros y supervisores, pero aun así, como se menciona, los tres grupos son más transformacionales. Los resultados obtenidos de este estudio indican que el grupo de gerentes, ingenieros y supervisores de esta empresa maquiladora, muestran tener los rasgos de las dimensiones de los liderazgos transformacional y transaccional, para la creación de una cultura organizacional adecuada para la implementación y desarrollo de su sistema de producción esbelto.


BibliografĂ­a

+Ahrens T. (2006). Lean Production:

Successful implementation of organizational change in operations instead of short term cost reduction efforts. Lean Alliance. Germany.

+Bass, B. M. y Avolio, B. J. (1989).

Manual for the Multifactor Leadership Questionnaire. Palo Alto, CA: Consulting Psychologists Press.

+

Bass, B. y Avolio, B.(1996). Assessing Team Leadership and Predicting Team Performance. MLQ manual.

+

Bass, M. B. (1997). Does the Transactional- Transformational Leadership Paradigm Transcend Organizational and National Boundaries? State University of New York at Binghamton. American Psychological Association. Vol 52. No. 2. pp 130-139.

+

Bass B. y Avolio B. (2007). MLQ Multifactor Leadership Questionnaire Self-Evaluation. www.romania.testcentral.ro/media/ mlq-f-en-pdf-62MDK5XQ.pdf, accesado 6/24/2013.

+

Bragg, L. D. (2008). The application of transformational leadership among Christian school leaders in the Southest and the Mid atlantic North Regions. Liberty

University.

+

Carreira, B. (2004). Lean Manufacturing that Works. AMACON,NY.

+

Chen, L. y Meng, B. (2010). Why most Chinese enterprises fail in deploying lean production. Asian Social Science. Vol 6, No. 3, pp.52-57.

+

Manotas Duque, D. F. y Cadavid, L. R. (2007), Lean Manufacturing measurement: The relationship between lean activities and lean metrics. Estudios Gerenciales, vol 23 No. 105, Cali, Co. Oct/Dec.

+

Holm M. (2010). Leadership for Lean Operations. Frontiers in Leadership Research.

+

Jandaghi, Ch.; Martin, H. Z. y Farjami, A. (2009). Comparing Tranformational Leadership in successful and unsuccessful companies. International Journal of Social Sciences, Vol. 4, No. 3.

+

Judge A.T. y Piccolo, F.R. (2004). Transformational and Transactional Leadership: A Meta-Analytic Test of Their Relative Validity. University of Florida. Journa of Applied Psychology. Vol 89. No.5. pg 755-768.

+

Likert, J. y Convis, G. L. (2011). The Totyota way to Lean Leadership: Achieving

and sustaining excellence through leadership development, New York: Mc Graw-Hill.

+

Rafferty, E. A. y Griffin A. M. (2004). Dimensions of Transformational leadership: Conceptual Leadership and empirical extensions. Elsevier. The Quaterly. Vol 15.

+

Schein, H. E.(2004). Organizational Culture and Leadership. Jossey-Bass Publishers, Wiley Third edition.

+

Tsai, Y.(2011). Relationship between Organizational Culture.Leadership behavior and Job Satisfaction. BioMed Central Ltd.

+

Waqas,M. R. (2012). Does transformational leadership leads to higher employee Work engagement. A study of Pakistani service sector firms. International Journal of Academic Research in Business and Social Sciences. Vol.2. No.1. pg 160-163.

+

Woehl, H.J.(2011). How leadership styles reflect on Lean Manufacturing practices and Culture. School of Business and Technology. Capella University.

+

Potsinka, B.; Swartling, D. y Drotz, E. (2013). The daily work of lean leaders, lessons from manufacturing and healt care. Total Quality Management and Business Excellence, 24 (7-8).

Revista CientĂ­fica

31


Diseño de una

Trampa de Succión Automatizada para Mosquitos

Enrique Contreras Calderón1, Iván Alcalá Barojas2, Francisco J. Castillo Subdíaz3 y Jonathan Villanueva Tavira4

Universidad Tecnológica Emiliano Zapata del Estado de Morelos, Av. Universidad Tecnológica, No. 1, Col. Palo Escrito, Emiliano Zapata, Morelos, C.P. 62590, México. 1,2,3,4

enriquecontreras@utez.edu.mx

Recibido: Noviembre 5, 2016. Recibido en forma revisada: Febrero 18, 2017. Aceptado: Mayo 22, 2017.

Resumen: En este proyecto, se presenta el diseño de una trampa para mosquitos automatizada que genera una brisa de aire a través de un ventilador, para distribuir una sustancia atrayente, imitando las características de la piel humana, para así atrapar a los mosquitos, donde estos se deshidratan y mueren. Se presenta una revisión del estado actual del conocimiento sobre las características generales del mosquito, cuya validez se determinó a través de la consulta a expertos especialistas en epidemiología, ya que estos son vectores de transmisión de enfermedades, por lo que es necesario adoptar nuevos enfoques para su eliminación.

+

Abstract: This project presents the design of an automated mosquito trap that generates an air breeze through a fan to distribute the attractive substance imitating the characteristics of the human skin, in order to catch the mosquitoes, where they are dehydrated and die. We present a review of the current state of knowledge about the general characteristics of the mosquito, the validity of which was determined through consultation with specialists in epidemiology. Since these are vectors of disease transmission, it is necessary to adopt new approaches for their elimination.

+ 32

Revista Científica

Palabras clave: Control, automatización, diseño, trampa y mosquito.

Keywords: Control, automation, design, trap and mosquito.


Introducción Además de causar picor y molestia, la picadura de un mosquito hembra de la especie Aedes aegypti o Aedes albopictus (Figura 1) infectada puede propagar infecciones virales como dengue, chikungunya y actualmente Zika (OPS, 2016) y se les conoce como Enfermedades Transmitidas por Vectores (ETV), las cuales representan un problema de salud pública importante, ya que se estima que cerca del 60% del territorio nacional presentan condiciones que favorecen la transmisión de las ETV; residen más de 50 millones de personas (CENAPRECE, 2105). Un mosquito hembra puede poner cientos de huevos en su mes de vida, estos huevos crecerán para convertirse en mosquitos adultos que pican. Los humanos se infectan con el virus del dengue o del chikungunya al ser picados por un mosquito infectado.

que Brasil reportó a finales de 2015. La vigilancia del Zika en México comenzó antes de dicho anuncio de la OMS. La entonces titular de la Secretaría de Salud (SSA), la doctora Mercedes Juan López, en una rueda de prensa el 26 de noviembre de 2015, en el marco de la XII Reunión Ordinaria del Consejo Nacional de Salud, celebrada en México, confirmó los dos primeros casos autóctonos del virus Zika nacionales, uno en Nuevo León y el otro en Chiapas, así como un caso presuntamente importado de Colombia. El diagnóstico de ambos casos fue confirmado por el Instituto Nacional de Diagnóstico y Referencia Epidemiológica. Hasta el momento las autoridades sanitarias de México no han dado a conocer si el virus que afectó a los pacientes mexicanos pertenece al linaje asiático o al africano. Según la SSA (2016) hasta el 3 de febrero de 2016 se habían presentado 37 casos de Zika en México, en los estados de Oaxaca, Nuevo León, Chiapas, Jalisco y Sinaloa; además, se reportaron algunos casos en Tamaulipas y en Querétaro de personas que se infectaron con el virus fuera del país. En la Figura 2 se muestra las zonas de riesgo del virus del zika en 2016 (Islas, 2016). En el caso de México se cuenta con casos confirmados desde antes de octubre de 2015.

Figura 1. Mosquito transmisor de fiebre Dengue, Chikungunya y Zika.

Según la Organización Mundial de la Salud (OMS) en su informe del 16 de octubre de 2015, el virus del Zika ha estado circulando de manera autóctona, es decir, que el contagio ocurre dentro del continente desde febrero de 2014. También reporta que el primer caso se presentó en la isla de Pascua, Chile; posteriormente, el virus llegó a Brasil y desde entonces se ha diseminado en otros países de América. La OMS no ha emitido informes sobre el número total de casos confirmados en América ni en el mundo, probablemente debido a que todos los días se presentan nuevos contagios, pero sí ha publicado boletines sobre brotes epidemiológicos para algunos países latinoamericanos, entre ellos México. El 28 de enero de 2016 anunció que el Zika ya ha llegado a 22 países de América y que durante el año podría afectar a hasta 4 millones de personas. Tres días después, la OMS decidió declarar un estado de emergencia de salud pública de importancia internacional debido al “aumento explosivo” que ha tenido el Zika en el continente, y porque en 2014 en la Polinesia Francesa parece haber ocurrido algo similar a lo

Figura 2. Casos del virus del Zika en América. La enfermedad está condicionada, en buena medida, a la distribución del Aedes aegypti, que se reproduce en las viviendas de prácticamente todas las zonas urbanas del área de riesgo en México. En el caso de fiebre por Chikungunya en México se tiene reportados 757 casos como último reporte en enero de 2017. En la Tabla 1 se presentan los casos reportados por entidad federativa, siendo Veracruz el estado donde se reportan el mayor número de afectados por este virus. Dirección General de Epidemiología (DGE, 2017).

Revista Científica

33


En la Tabla 3 se presentan los casos e incidencia de fiebre por Dengue y fiebre hemorrágica por Dengue, según entidad federativa en la República Mexicana.

Tabla 1. Casos confirmados por fiebre Chikungunya al cierre de 2016.

En la Tabla 2 se muestran los casos confirmados por Dengue y Fiebre Hemorrágica por Dengue en México en 2014-2015, (Secretaría de Salud, 2016).

Tabla 2. Casos de Dengue en México.

34

Revista Científica

Tabla 3. Casos de fiebre Dengue (FD) y Fiebre Hemorrágica por dengue (FHD). En el caso de Morelos la mayoría de sus municipios presentan casos de fiebre por Dengue y Fiebre Hemorrágica por Dengue, como se muestra en la Figura 3.

Figura 3. Casos de Dengue en el estado de Morelos.

4


En estos municipios, las condiciones para la proliferación del vector se presentan en una sociedad donde prevalecen:

• La falta de conciencia. • Conocimiento y actitud de las familias en el control y eliminación de criaderos.

• La carencia de prácticas de autoprotección, como el uso de: - Mosquiteros en puertas y ventanas. - Insecticidas domésticos. - Repelentes. - Trampas para mosquitos. - Raquetas electrónicas.

última más atrayente para la mayoría de los insectos (Deay 1961).

D.CO (Dióxido de carbono) 2

Los mosquitos hembra recogen la sangre de sus víctimas para alimentar a sus huevos. Necesitan dos parámetros para identificar a sus víctimas: que haya flujo de CO2 y el olor de la piel humana.

En la Figura 4 se muestra cómo los mosquitos son atraídos por el olor del dióxido de carbono no continuo; como tal ejemplo, se muestra cómo un mosquito es atraído por el CO2 que emiten los humanos.

Aunado a esto:

•Los mosquitos Aedes son agresivos y pican de día. •Viven cerca de las personas, dentro y fuera del hogar. •Unos pocos mosquitos infectados pueden producir grandes bro-

tes de enfermedad en la comunidad, y poner a su familia en riesgo de enfermarse.

Conocer el comportamiento de estos insectos podría permitir el desarrollo de estrategias para atraparlos. Este es el propósito de la investigación llevada a cabo por Teun Dekker y Ring Cardé, de la Universidad de California Riverside, cuyos resultados fueron publicados en el Journal of Experimental Biology. Los experimentos de los dos científicos se han centrado en las hembras de la especie Aedes aegypti, responsable de la transmisión de la Fiebre Amarilla y el Dengue. En la investigación, han tratado de determinar los estímulos olfativos que atraen a los mosquitos y bajo qué condiciones (Dekker y Cardé, 2011).

Factores que atraen a los mosquitos:

A.Agua.

Los recipientes con agua les proporcionan condiciones ideales de vida, se reproduce en los neumáticos, recipientes presentes en los patios, bebederos de animales domésticos, floreros, canaletas de techos.

B.

Color A la hembra le atraen los recipientes de colores oscuros y boca ancha, situados a la sombra (Bar 2009).

C.Luz

Durante la noche, muchos insectos son atraídos hacia lámparas de luz y, aunque el fenómeno se conoce desde hace mucho tiempo, no se sabe la razón de este comportamiento. La región del espectro electromagnético atrayente a los insectos está en las longitudes de onda a 300 a 700 milimicrones, que corresponde a la luz natural y a las radiaciones ultra-violeta o “luz negra”, siendo esta

Figura 4. Los mosquitos son atraídos por el olor del dióxido de carbono.

E.

Ácido Láctico Cuando se hace uso de repelentes naturales contra mosquitos se ha estado haciendo ejercicio o trabajando con fuerza, es decir, los cuerpos emiten más dióxido de carbono. En el ejercicio, se libera ácido láctico, al que los mosquitos también se sienten atraídos.

F.

Octenol Según el artículo “Estudio provee nuevos conocimientos sobre cómo el mosquito encuentra un huésped”, el mosquito Aedes aegypti, el cual transmite el Dengue, detecta la estructura química específica de un compuesto llamado octenol como una manera de encontrar un huésped mamífero para tomar una comida de sangre, según científicos del Servicio de Investigación Agrícola (O´Brien, 2010).

Cuando los mosquitos están buscando una comida de sangre, ellos buscan una variedad de sustancias químicas, incluyendo el dióxido de carbono, el ácido láctico, el amoníaco y el octenol. Tomados por separado, el estímulo de dióxido de carbono es más eficaz que las emanaciones de olor humano. Lo mejor de todo, las concentraciones de CO2 justo por encima de las cantidades presentes en la atmósfera son suficientes para generar una respuesta inmediata en los mosquitos hembra. Fotocatálisis es una palabra compuesta que se compone de dos palabras, “foto” y “catálisis”. Catálisis es el proceso donde una sustancia participa en la modificación de la reacción y transformación química reactiva sin alteración ni limitación. Esta sustancia se conoce como catalizador, ya que aumenta el índice de una reacción, reduciendo la energía de activación. Hablando en términos generales, la fotocatálisis es la reacción que utiliza la luz para activar una sustancia, y para obtener el CO2 necesitamos esta reacción de descomposición en el TiO2 (Dióxido de Titanio). Destaca mencionar que cuando una pequeña cantidad de rayos ultravioleta, producido por la luz solar o la lámpara fluorescente, se enRevista Científica

35


cuentra con la materia orgánica de la superficie de TiO2 este reacciona. Ahora que los mecanismos de respuesta a los estímulos se entienden y que los investigadores saben lo que atrae a los mosquitos, debería ser posible el desarrollo de trampas efectivas para limitar la propagación de diversas enfermedades de las que estos insectos son vectores.

Para el diseño y construcción de la trampa, lo primero que se realizó fue hacer un dibujo en SolidWorks con las características que tendría la caja.

En la Figura 5 se muestra cómo se relaciona la luz dentro de la Fotocatálisis y Clorofila.

Figura 5. Fotocatálisis y clorofila.

Trampas para mosquitos

Las trampas son dispositivos que atraen a los insectos para capturarlos o destruirlos. Comúnmente se utilizan para detectar la presencia de los insectos o para determinar su ocurrencia estacional y su abundancia, con miras a orientar otras formas de control. Ocasionalmente, las trampas pueden utilizarse como método directo de destrucción de insectos. El uso de trampas tiene las ventajas de no dejar residuos tóxicos, de operar continuamente, de no ser afectadas por las condiciones agronómicas del cultivo y, en muchos casos, de tener un bajo costo de operación. Una limitación es el hecho de que actúan solamente contra los adultos y no contra las larvas. Las trampas consisten básicamente en una fuente de atracción, que puede ser un atrayente químico o físico (la luz), y un mecanismo que captura a los insectos atraídos. Los atrayentes químicos son sustancias que hacen que el insecto oriente su desplazamiento hacia la fuente que emite el olor (Cisneros, 1995). La trampa para mosquitos (Figura 6) está compuesta principalmente por una lámpara de luz ultravioleta que atrae a los mosquitos, una ventana de captura, un embudo con recubrimiento de TIO2 que al reaccionar con la luz ultravioleta produce CO2 y un ventilador que succiona a los mosquitos dentro de la trampa y hace que estos mueran por deshidratación.

Figura 7. Vista isométrica del diseño de la trampa. Se utilizó madera MDF de 5.5 mm de grosor y se cortó con las dimensiones de la caja 250 x 220 x 310 mm de largo, ancho y alto respectivamente. En la parte superior se dejó una sección abierta que es por donde entrarían los mosquitos; en esta parte, también se colocarán los leds de luz ultravioleta para atraer los mosquitos. En la siguiente sección (Figura 8) se colocó el embudo con una capa de recubrimiento de TIO2.

Figura 8. Diseño de la entrada de los mosquitos. Se desarrolló el diseño del cestillo que pretende ser de fácil manejo en el momento del desmontaje, para poder desechar los mosquitos acumulados en el mismo durante el periodo de su uso. En la Figura 9 se muestra el diseño del cestillo, es cual está colocado en la parte inferior del embudo.

Figura 9. Modo del desmontaje del cestillo.

Figura 6. Partes principales de una trampa para mosquitos. 36

Revista Científica

En la Figura 10 se muestra qué parte electrónica de control y el ventilador irán en la parte inferior, lo que permite la succión de los mosqui-


tos, además se dejó una abertura para el escape del aire. El Nano posee 8 entradas analógicas, cada unas de ellas provee de 10 bits de resolución (1024 valores diferentes). Por defecto miden entre 5 voltios y masa; sin embargo, es posible cambiar el rango superior usando la función analogReference(). Cuenta también con dos pins extra: AREF. Tensión de referencia por las entradas analógicas. Se configura con la función analogReference(). Figura 10. Electrónica de la trampa. Para el sistema de succión se empleó un ventilador Manhattan (Figura 11), con las siguientes características: Voltaje de operación Corriente de entrada Velocidad de giro Dimensiones

Reset. Pon esta línea a nivel bajo para resetear el microcontrolador. Normalmente se usa para añadir un botón de reset que mantiene a nivel alto el pin reset mientras no es pulsado.

12 V DC 0.15 A, 2500 rpm 120 X 120 X 25 mm

Figura 13. Arduino nano con su respectivo cable USB.

Figura 11. Ventilador de succión.

Se utilizó también el RTC (Real Time Clock) DS1307, que es un reloj de tiempo real con comunicación I2C; una vez cargada la fecha inicial, este dispositivo proveerá los segundos, minutos y horas reales, asimismo también el día, el mes y el año. Además, ajusta automáticamente la fecha para meses con menos de 31 días, así como el paso de los años. Se lo puede configurar para entregar la hora en formato de 24 horas o de 12 horas am/ pm. Como todo sistema que tenga que mantener la hora, es necesaria una pila/batería para poder continuar con el conteo si por alguna razón se corta la electricidad; en este caso, el DS1307 (Figura 12) tiene un circuito que detecta cuándo se cortó la alimentación y automáticamente pasa a batería. Además, este módulo posee una memoria AT24c32 para almacenar una mayor cantidad de datos.

Una pantalla LCD (Figura 14) es un dispositivo diseñado para mostrar información en forma gráfica. LCD significa Liquid Crystal Display (Monitor de cristal líquido). La mayoría de las pantallas LCD vienen unidas a una placa de circuito y poseen pins de entrada-salida de datos. Como se podrán imaginar, Arduino es capaz de utilizar las pantallas LCD para desplegar datos. Es extremadamente sencillo enviarle datos al circuito integrado de una pantalla LCD desde Arduino gracias a la librería LiquidCrystal que viene junto con Arduino IDE. En este caso se emplea un LCD de dos filas por 16 columnas. Esto quiere decir que podemos imprimir caracteres en dos filas, en las cuales caben 16 caracteres.

Figura 14. LCD para arduino Nano.

Sistema de control Figura 12. Módulo DS1307 para arduino. Para el sistema de control se empleó una placa Arduino Nano (Figura 13) de prueba pequeña y completa basada en ATmega328. Tiene funcionalidad similar al modelo Arduino Duemilanove, pero en un módulo DIP. Solo carece de jack de alimentación DC y funciona con un cable Mini-B USB en lugar de uno estándar. Las características de entrada-salida son que cada uno de los 14 pins digitales del Nano pueden ser usados como entrada o salida, usando las funciones pinMode(), digitalWrite(), y digitalRead(). Operan a 5 voltios. Cada pin puede proveer o recibir un máximo de 40mA y poseen una resistencia de pull-up (desconectada por defecto) de 20 a 50 kOhms.

Para el sistema de control se empleó el software ISIS Proteus, ya que este permite trabajar de manera real, además de que admite correr el código de arduino, por ello:

1.

Con la lógica del funcionamiento de la trampa de mosquitos propuesta y con el conocimiento para poder programarla, se comenzó por generar el código en el IDE propio de Arduino.

2.

Antes de pasar el código desarrollado al circuito físico, se simuló en el software ISIS Proteus el diagrama del circuito y se compilo el código para hacer pruebas en esta plataforma virtual Revista Científica

37


(simulación). En la Figura 15 se muestra diagrama del circuito y simulación en Proteus con el módulo de tiempo real de Arduino.

En la Figura 16 se muestra también el montado de los leds ultravioleta en funcionamiento para poder atraer a los mosquitos.

3.

La lógica del circuito programado es que, a determinada hora, se encienda el dispositivo; pero tomando en cuenta la disposición de tiempo en la simulación dentro de Proteus, solo se consideró en cuenta un solo minuto para demostrar su funcionalidad.

Figura 16. Leds ultravioleta.

Figura 15. Diagrama del circuito y simulación.

4.

Una vez concluido el tiempo, se suspendería el dispositivo, al mismo tiempo se cerraría la entrada de los mosquitos y se detendría el ventilador, esto teniendo en cuenta de que continuará vivo un mosquito, no se escapara. Una vez suspendida la trampa, se mostrará en la pantalla LCD la hora en tiempo real. Cabe mencionar que dentro de esta propuesta se indica que el dispositivo tendría un botón de encendido manual, así que de igual forma se puede demostrar en la simulación.

5.

Con el código ya generado y la simulación concluida, se procede a montar el circuito en una placa fenólica y se comprobaría el funcionamiento del mismo.

Resultados Una vez construido y ensamblados los componentes electrónicos, se realizaron pruebas de funcionamiento en las que al momento de conectarlo a la energía eléctrica y accionar el botón de encendido se prendieron los leds ultravioleta y se mostró en el display la hora y fecha exactas. En la Figura 15 se muestran los leds en el diagrama del circuito y simulación. 38

Revista Científica

La respiración es uno de los parámetros que tienen los mosquitos para identificar a sus víctimas, ya que existe un flujo de dióxido de carbono (CO2). Se simuló mediante un proceso químico, el cual es la fotocatálisis, que es la reacción que utiliza la luz (ultravioleta) para activar una sustancia, y para obtener el CO2 necesitamos esta reacción de descomposición en el Dióxido de Titanio (TiO2) y con el encendido intermitente del ventilador. La forma de exterminar los mosquitos, una vez atraídos por la luz ultravioleta y la emisión de dióxido de carbono de que se tiene prevista, es muy simple, se trata de un ventilador que succiona a los mosquitos y los arrastra hasta un cestillo interior, donde quedan atrapados y mueren por deshidratación. En la Figura 17 se muestra montado el ventilador.


Bibliografía

+

Organización Panamericana de la Salud (2016). Oficina Regional para las Américas de la Organización Mundial de la Salud http://www.paho.org/hq/index.php?option=com_content&view=article&id=9183&Itemid=41711&lang=es

+

CENAPRECE (2015). Enfermedades transmitidas por vector DENGUE http://www.cenaprece.salud.gob.mx/programas/interior/ vectores/dengue.html. Figura 17. Ventilador y cestillo montado.

+

Dekker, Teun y Cardé, Ring T. (2011). Moment-to-moment flight manoeuvres of the female yellow fever mosquito (Aedes aegypti L.) in response to plumes of carbon dioxide and human skin odour. The Journal of Experimental Biology 214, 3480-3494 © 2011. Published by The Company of Biologists Ltd doi:10.1242/jeb.055186.

+

Bar, María Esther (2009). http://exa.unne.edu.ar/biologia/artropodos/El%20Aedes%20aegypti%20y%20la%20transmision%20 del%20dengue.pdf

+

Cisneros, V. Fausto (1995). Control de plagas agricolas, AvocadoSource http://www.avocadosource.com/books/cisnerosfausto1995/CPA_10_PG_248-257.pdf Tabla 4. Lista de materiales. Este aparato no evita que le piquen, su función es atraerlos y eliminarlos. Una vez que el mosquito se acerca al aparato este es succionado por una turbina y pronto muere disecado por la circulación de aire.

+

Secretaría de Salud, información publicada en la Semana Epidemiológica 52 (2016). http://www.epidemiologia.salud.gob.mx/doctos/panodengue/PANORAMAS_2015/Pano_dengue_sem_52_2015. pdf

+

Trabajos a futuro Se realizaron pruebas de funcionamiento en el interior del Instituto de Salud y se lograron eliminar los mosquitos, contando en la trampa 32 en tres días. Faltan pruebas para colocarlo en áreas en el exterior y verificar su efectividad, y realizar pruebas en la entrada de una casa para verificar si los insectos acceden al interior de la vivienda. Pero si se quiere lograr una mayor efectividad en la atracción de los mosquitos, se tiene la idea de simular otra de las estimulaciones, como lo es el aliento; esta parte se lograría con el octenol, y la forma que en que se tiene planeado implementar sería de la manera siguiente: en la parte superior de la trampa se colocaría un sobre con extracto de octenol en un espacio cerrado con un ventilador pequeño que mandaría emanaciones de octenol al medio ambiente, y mediante un mecanismo abrirlo y cerrarlo por intervalos de tiempo.

Deay, Howard O. (1961). The use of Electric Light traps as an insect control. En: Response of Insects to Induced Light. U.S. D.A. ARS-20-10: 50-54.

+

O’Brien, Dennis (2010). Estudio provee nuevos conocimientos sobre cómo el mosquito encuentra un huésped, United States Department of Agriculture - Research, Education and Economics, https://www.eurekalert.org/pub_releases_ml/2010¬03/aaft-r_1030910. php

+

Islas Villegas, Rodrigo, (2016). ¿Cómo ves?, Revista de divulgación de la ciencia de la UNAM, año 18, no. 208, pag 8-16, ISSN #1870-3186.

+

Dirección General de Epidemiología (2017). http://www. epidemiologia.salud.gob.mx/doctos/avisos/2017/chikungunya/DGE_ CHIK_CASOSYDEF_SEM01_2017.pdf

Agradecimientos Agradecemos al Instituto Nacional de Salud Pública, ubicado en el estado de Morelos, por todas las facilidades prestadas para el desarrollo de este proyecto.

Revista Científica

39


ESTUDIO DEL ENSAYO DE TENSIÓN EN

FIBRAS DE ALGODÓN CON PARTÍCULAS DE PLATA

OBTENIDAS CON UN EXTRACTO DE Capsicum annum L. COMO REDUCTOR Víctor Alfredo Nolasco Arizmendi1, Celia Massiel Hernández Hernández 2, Rodolfo Salas Cepeda 3 y Carlos Iván Rodríguez Rodríguez 4

Universidad Tecnológica de Tula - Tepeji, Av. Universidad Tecnológica, No. 1000, El Carmen, Tula de Allende, Hidalgo, México, C.P. 42830. 3,4 Universidad Tecnológica de Ciudad Juárez, Av. Universidad Tecnológica, No. 3051, Colonia Lote Bravo II, Ciudad Juárez, Chihuahua, México, C.P. 32695. 1,2

nolascoarizmendi@gmail.com victoralfredo.nolasco@uttt.edu.mx

Recibido: Noviembre 2, 2016. Recibido en forma revisada: Febrero 8, 2017.

Resumen: En el presente trabajo, las partículas de plata son soportadas en fibras de algodón por el método de reducción utilizando un extracto acuoso de Capsicum annumm L., a temperaturas relativamente altas. Los materiales se caracterizaron por microscopía electrónica de barrido (SEM), se mide la resistencia mecánica por una máquina de tensión, se observa el teñido del algodón por microscopía óptica y se cuantifica plata por espectroscopia de absorción atómica (AA). Los compósitos de plata analizados por microscopía electrónica de barrido muestran que las partículas se soportan en un tiempo corto sobre las fibras de algodón. La elasticidad se evaluó en un ensayo de tensión y los compósitos de plata muestran cambios a lo largo de la reacción, hasta un 10 % en promedio de pérdida de elasticidad. Los compósitos analizados por microscopía óptica mostraron tonalidades debidas a las condiciones de síntesis. Los compósitos de plata se analizaron por absorción atómica para la cuantificación del elemento plata en el material y el aumento de la concentración del metal después de ocho horas de reacción; por lo tanto, estos resultados deben ayudar a comprender el papel del soporte de metales en textiles y las consecuencias sobre sus propiedades mecánicas para fines industriales.

Aceptado: Mayo 22, 2017.

+ 40

Revista Científica

Palabras clave: Compósito, algodón y plata.


Abstract: In the present work, silver particles are supported on cotton fibers by reduction method using an aqueous extract of Capsicum annumm L. at relative high temperature. The materials were evaluated by electron scanning microscopy (SEM), tensile test by a texture analyzer equipment, optical microscopy, and atomic absorption spectroscopy (AA). The silver composites analyzed by scanning electron microscopy where the particles are supported in short time on cotton fibers. The elasticity was evaluated in a tensile essay and the silver composite have a change in a long time of reaction, until 10 % of elasticity in average in silver composites. The composites were analyzed by optical microscopy and showed color according with the synthesis conditions, the composite has a yellow dyeing. Silver composites were analyzed by atomic absorption for quantifying silver element in the material and metal concentration increase after 8 h of reaction, in most of the cases. Therefore, these results should help to comprehend the role of the supporting of metals on textiles and consequences on their mechanical properties for future industrial purposes.

+ Keywords: Composite, cotton and silver. Introducción La plata ha ganado gran interés en la actualidad gracias a que se le ha logrado reducir a niveles micro, submicro y hasta nanométrico, lo cual muestra ciertas propiedades que ha nivel macro no se le ven reflejadas, como los cambios de tonalidades que sufren, las fuertes propiedades antimicrobianas que poseen y el cambio que genera en algunos soportes respecto a su elasticidad, tema que ha tomado gran interés hoy en día. Gracias a las diferentes investigaciones realizadas en este campo, se conocen diversos métodos físicos y químicos que son utilizados para llevar a cabo la reducción del nitrato de plata, precursor de las partículas mencionadas en el presente trabajo, siendo muchos de ellos de muy alto costo (físicos) o algunos otros involucran agentes reductores sintéticos (químicos), como NaBH4 o citrato de sodio, por mencionar algunos, además de que se utilizan estabilizantes dentro de estas reacciones, como por ejemplo PVP (Zhang, Kang, Saquing, Aindow y Erkey, 2005). Dado que en los métodos químicos la mayoría de los reactivos utilizados son nocivos para el humano y el ambiente; se han buscado técnicas que incluyan el uso de compuestos con origen biológico para que sean más eco-amigables, esto se da en algo que conocemos como biosíntesis (Zhang, Kang, Saquing, Aindow y Erkey, 2005). Un material compuesto a microescala es definido como un material que tiene una estructura donde al menos una de sus fases tiene una o más dimensiones de esta magnitud, como es la longitud, anchura o grosor. Tales materiales incluyen materiales policristalinos con cristales de tamaño micrométrico; los materiales micrómetros, granulares o materiales porosos con tamaños de grano en el intervalo de micrómetros o de tamaño nanométrico pueden estar dispersos dentro de una matriz porosa, partículas o nanopartículas metálicas soportadas (Zhang, Kang, Saquing, Aindow y Erkey, 2005). En la actualidad, las partículas con alta área superficial pueden ser soportadas sobre los diferentes materiales, estos soportes se utilizan ampliamente como catalizadores para transformaciones químicas. La superficie de las partículas juega un papel importante en sus propiedades catalíticas; los átomos de la superficie son químicamente más activos en comparación con los de mayor tamaño, ya que por lo general tienen un menor número de átomos adyacentes y sitios insaturados o más enlaces colgantes (Zhang, Kang, Saquing, Aindow y Erkey, 2005). Cuanto menor sea el cristal, mayor es la contribución de la energía su-

perficial a la energía general del sistema, los soportes de área de superficie elevada son candidatos ideales para la dispersión de partículas metálicas de valencia cero para crear un material catalítico con una excepcional y alta actividad catalítica. La investigación de estos materiales ha recibido mucho interés debido a que hay varias formas de sintetizar partículas soportadas, como lo son la impregnación, la deposición-precipitación, co-precipitación, la reducción sonoquímica, impregnación química de vapor, sol-gel y microemulsión usando agentes estabilizantes orgánicos (Zhang, Kang, Saquing, Aindow y Erkey, 2005). Sobre cualquiera de las partículas se puede llegar a controlar las dimensiones, incluyendo el tamaño de partícula y la distribución o concentración de metales en los materiales compuestos, aunque sigue siendo el principal problema de estos métodos, como por ejemplo, los métodos tradicionales de impregnación, deposición-precipitación y co-precipitación son métodos que utilizan soluciones líquidas en el medio de procesamiento, lo cual no solo podría causar aglomeración de las partículas, sino también el colapso de los soportes frágiles debido a la alta superficie de tensión de las soluciones líquidas (Zhang, Kang, Saquing, Aindow y Erkey, 2005). El uso de entornos porosos con tamaños de poro definidos son utilizados como soportes para algunos tipos de partículas, esto nos permite la generación de sitios de adsorción específicos, creando una partición entre el exterior y la estructura interior de los poros. También, tiene la ventaja adicional de la inhibición de crecimiento de las partículas a un tamaño en particular, así como la reducción de la agregación de partículas (White, Luque, Budarin, Clarka y Macquarrie, 2009). El algodón es una fibra natural que consiste en celulosa como una unidad de repetición, los textiles de algodón se han vuelto populares porque son muy cómodos y absorben el sudor, desafortunadamente proporcionan un excelente ambiente para que los microorganismos crezcan dentro de la humedad que llegan a retener; por lo tanto, han surgido actualmente numerosos productos químicos se han usado para la mejora de la actividad antimicrobiana en los textiles de algodón, entre los que encontramos a la plata, que ha sido ampliamente utilizada en diversos campos por sus efectos biocidas fuertes, que por diversas investigaciones se sabe que es eficaz contra casi 650 tipos de bacterias. Esta propiedad, en las últimas décadas, ha tenido un mayor interés pues es considerado como un buen agente antibacteriano, no tóxico y capaz de esterilizar distintos tipos de fibras textiles (Nelson, Marcato, De Souza, Álvez y Esposito, 2007; Chen y Chiang, 2008; Pevelshtein, Applerot, Perkas, Guilbert, Mikhaibu y Gendanken, 2008). La plata ha tenido un gran auge gracias a distintas síntesis a las que ha sido sometida para la formación de partículas, como por ejemplo el tratamiento de iones con extracto de Capsicum annumm L., el cual se trata de una biosíntesis; este proceso se realiza de manera rápida, ya que las proteínas contenidas en el Capsicum annumm L. tienen grupos amina que juegan un papel muy importante, pues son los encargados de reducir y controlar la formación de las partículas, además de que controla su estructura y el aumento de tamaño de las mismas; las proteínas cambian su estructura después de la reacción de reducción, ya que no podemos dejar de lado que el Capsicum annumm L. contiene también polisacáridos, aminoácidos, vitaminas, etc. que tienen igual importancia que las proteínas dentro de este proceso. La estructura de las partículas sintetizadas por este método puede ser tanto policristalina como monocristalina, dependiendo del tiempo que duren las reacciones que solo pueden darse con este biorreductor (Shikuo, Yuhua, Anjian, Xuerong, Lingsuang, Li y Qingfeng, 2007). Revista Científica

41


Otra de las propiedades que provee la reducción de la plata hasta su nivel de partícula es la superhidrofobia, que podemos encontrar presente actualmente en textiles con composición de algodón y que se genera a partir de la reducción de [Ag(NH3)2] con glucosa, dando como consecuencia el revestimiento uniforme de las fibras formando alrededor de ellas un aislante, que además de no dejar pasar el agua tiene propiedades antimicrobianas que fueron probadas contra las bacterias Gram-negativas, de Escherichia coli, dando un resultado prometedor con el que se llega a pensar en sus aplicaciones futuras de este textil multifuncional (Xuea, Chena, Yina, Jia y Ma, 2011). Anteriormente se menciona que el método de bioreducción es la alternativa más factible de estos momentos, pues podría ser ampliamente utilizado para la preparación de biocompósitos de distintos metales, no solamente de plata, para verificar el cambio al pasar de su forma original a una forma mucho más pequeña, como son las nanopartículas. Este proceso tiene grandes ventajas, como que se puede realizar a temperaturas y presiones ambiente, además de que se puede trabajar un pH neutro sin que se vean afectadas las reacciones. Se conocen algunos ejemplos ya estudiados como son: la remediación de metales tóxicos usando levadura y bacterias, la síntesis de diversos materiales inorgánicos usando organismos o diferentes células bacterianas y con los extractos de plantas, lo que hace a este proceso bastante ecoamigable (Shikuo, Yuhua, Anjian, Xiuzhen, Liang-bao y Chuanhao, 2007). El tema del soporte de metales en los textiles ha generado distintos trabajos de investigación, como el método de reducción química donde se pueden sintetizar partículas en el orden de los micrómetros, las cuales cambian de tamaños y morfologías por las condiciones de reacción, una de las variables que más influyen en estos cambios es la cantidad de ácido ascórbico en la solución acuosa donde se lleva a cabo la reducción, ya que esto conlleva al cambio de la morfología de los cristales formados en el material obteniendo formas poliédricas y dendritas que le dan al material aplicaciones interesantes como catalizadores y hasta dentro de la electrónica (Martínez-Castañón, Niño Martínez, Logola-Rodríguez, Patiño M-Marín, Martínez Mendoza y Ruiz, 2009). Encontramos otros tipos de soportes como son el nylon y el poliéster, no solamente el algodón, todos estos soportes pueden llegar a tener propiedades antimicrobianas gracias a la reducción de plata en ellos; al igual que el algodón, estos textiles cambian sus propiedades mecánicas, por ejemplo, es bien conocido que el poliéster llega a aumentar su resistencia al ensayo de tensión, en el caso del algodón es menor este efecto; otro ejemplo es que los textiles distintos al algodón pueden formar también compósitos, aunque no tienen la misma adhesión que este (esto se verifica con el módulo de Young) que puede cambiar si se agregan ciertos reactivos químicos que afectarán el rendimiento de sus propiedades (Paiva Júnior, De Carvalho, Fonseca, Monteiro y D’ Almeida, 2004; Graupner, 2008; El-Tahlawy, El-Bendary, Elhendawy y Hudson, 2005). Estos textiles con distintas características han atraído considerablemente la atención por sus posibles y extensas aplicaciones en diversos campos; mientras tanto, seguirá esta investigación para intensificar los reportes de las propiedades conocidas y posiblemente encontrar nuevas aplicaciones y propiedades (June Kang, Choi, Kim, Kyoungcheol, Dung Kyun, Dae Hong, Seong-Hyeon, Yung Woo y Yong Hyup, 2011). En el presente trabajo se presenta un método eco-amigable conocido como bio42

Revista Científica


síntesis, el cual es utilizado para llevar a cabo el soporte de partículas de plata en fibras de algodón, utilizando como biorreductor químico para los iones de plata un extracto acuoso de Capsicum annum L. La metodología permite la impregnación de las partículas de plata en tiempos desde cinco minutos hasta ocho horas afectando las pruebas de tensión de los compósitos analizados cuando la síntesis es llevada a cabo a mayor tiempo.

Metodología Se utiliza como precursor metálico la solución de plata iónica Ag+1 que se obtiene a una concentración de 10-2 M de nitrato de plata (AgNO3) en agua destilada, en un matraz aforado. La obtención del extracto acuoso Capsicum annum L., que se inicia realizando el lavado con agua destilada; una vez hecho esto se extraen trozos de una medida aproximada de 5 mm2 que se agregarán a un vaso de precipitado con 99% de peso de agua, para llevar esta solución hasta una temperatura de extracción a 97°C. Dejar en ebullición por un tiempo de cinco minutos, una vez transcurrido este tiempo filtrar y dejar enfriar hasta temperatura ambiente. Se preparó una medida de 100 cm de fibra de algodón, donde se soportaron las partículas de plata, se añadió éste a un vaso de precipitado donde se llevó a cabo la reducción al realizar la mezcla en relación 1:1 con el precursor metálico y el extracto obtenido, dando como resultado la obtención de los compósitos de plata deseados después de ocho horas que se había previsto duraría la experimentación, sacando muestras a los 5 min, 30 min, 1 h y 8 h. Una vez que se tenían los compósitos finales se llevaron a caracterización por microscopia electrónica de barrido en un equipo JEOL modelo: JSM-6010PLUS/LA, también se llevaron a microscopia óptica con magnificación 500X, además se les realiza una prueba de tensión en una máquina CT3 Brookfield, con 1g fuerza de resolución. Las muestras se analizaron en un espectrofotómetro SPECTRaa 200 MARCA Varian® equipado con sistema SIPS 20 para dilución automática de la solución estándar y construcción de la curva de calibración. La mezcla de gases utilizada fue de aire/ acetileno.

Resultados y discusión El extracto de Capsicum annuum L., permite la formación y la obtención de partículas de plata debido a la presencia de moléculas reductoras en el mismo, además de la impregnación de las partículas metálicas. La luz realiza una interacción con las partículas soportadas la cual resulta en las tonalidades amarillas que presenta el compósito de plata y que depende de la forma, el tamaño y la composición de las partículas. Se obtienen compósitos de plata por bioreducción con Capsicum annuum L., y se caracterizan las muestras para obtener su elasticidad y la dispersión de la plata en fibras de algodón. Las partículas de plata son soportadas debido al oxígeno que presenta la estructura química del algodón en su celulosa, ya que puede presentar una carga negativa que lo hace óptimo para la deposición vía electrostática en la fibra textil de partículas de plata. A continuación se muestran el textil con las partículas de plata soportadas y el Capsicum annuum L., a una magnificación de 500X hechas por microscopía óptica.

Figura 1. A) Muestra de Capsicum annum L., B) Algodón impregnado con plata utilizando Capsicum annuum L. como reductor.

La Figura 2A y la Figura 3A muestran la caracterización del compósito realizada por microscopía electrónica de barrido, donde se exhibe el análisis elemental de los hilos de algodón con plata, presenta pequeñas partículas distribuidas a lo largo de la fibra textil, el mapeo elemental indica que puede haber zonas donde se deposite una mayor cantidad de plata, como se muestra en la Figuras 2B y la Figura 3B 2C. También se muestra la gráfica esfuerzo-deformación que presenta el hilo una vez que se somete al procedimiento para impregnar a las partículas de plata, donde se pierde alrededor de un 10 % en el módulo de elasticidad del compósito de plata en un 9% a los 5 min y hasta un 10% transcurridas 8 horas de reacción. El módulo de elasticidad equivale para el algodón sin plata de 95.12, para el algodón llevado a una síntesis de 5 min de 86.58, para el tratamiento a 30 min de 88.45, para el tiempo de 1 h de 85.22 y para el tiempo de ocho horas el equivalente al modulo de elasticidad de 83.13. El soporte de plata en fibras de algodón puede afectar a la elasticidad del material en cuanto mayor tiempo se encuentre en la bioreducción con el extracto de Capsicum annuum L., por lo que un tiempo óptimo en la obtención del compósito es decisivo para conservar sus propiedades mecánicas intactas. El módulo de elasticidad equivale a la pendiente calculada en la curva esfuerzo deformación mostradas en la Figura 2C y la Figura 3C, la cual presenta una inclinación ligera de la recta en la zona de elástica.

Figura 2. A) Fibras de algodón con plata a cinco minutos de reacción utilizando Capsicum annuum L., B) Mapeo elemental de las fibras con plata, C) Curva esfuerzo-deformación para el compósito.

Revista Científica

43


horas se logra soportar 1.95 ppm de Ag. Por lo que una mayor cantidad de plata soportada es observada y podría tener efectos considerables en la inhibición de microorganismos patógenos en aplicaciones microbiológicas, ya que entra más cantidad de microbicida se tenga, será mejor el efecto antimicrobiano que el compósito tenga (Xuea, Chena, Yina, Jia y Ma, 2011).

Conclusión Figura 3. A) Fibras de algodón con plata a 8 h de reacción utilizando Capsicum annuum L., B) Mapeo elemental de las fibras con plata, C) Curva esfuerzo-deformación para el compósito.

A los hilos obtenidos se les realiza una cuantificación por absorción atómica del elemento plata, donde una muestra de 0.07 g del compósito fue digerida en H2SO4 concentrado durante dos horas en ebullición y una digestión a temperatura ambiente de 24 horas. El equipo realiza una curva de calibración en automático con un estándar de plata y después se toman unos mililitros de la muestra de algodón digerida para realizar la cuantificación; al terminar, el algodón presenta 0.00 ppm de plata a los 5 minutos de reacción el algodón tiene 1.28 ppm de Ag y transcurrido un tiempo de ocho

Bibliografía

+

White, Robin J.; Luque, Rafael; Budarin, Vitaliy; Clarka, James H. y Macquarrie, Duncan J. (2009). Supported metal nanoparticles on porous materials, Methods and applications. Chem. Soc. Rev., 38, 481-494. DOI: 10.1039/B802654H.

+Zhang, Ying ; Kang, Dafei ; Saquing,

Carl ; Aindow, Mark y Erkey,Can (2005). Supported platinum nanoparticles by supercritical deposition. Ind. Eng. Chem. Res., 44, 4161-4164. DOI 10.1021/ie050345w.

+Xuea, Chao-Hua; Chena, Jia; Yina,

Wei; Jia, Shun-Tian y Ma, Jian-Zhong (2011). Superhydrophobic conductive textiles with antibacterial property by coating fibers with silver nanoparticles. Applied Surface Science, 258(7), 2468–2472. DOI 10.1016/j. apsusc.2011.10.074.

+Martínez-Castañón, G.A.; Niño-Martí-

44

Revista Científica

Se demuestra que se puede soportar plata en forma de partículas sobre las fibras de algodón al transcurrir un tiempo de ocho horas utilizando reductores de origen biológico, que son amigables con el ambiente y que no son nocivos para el humano. Se presenta una cantidad mayor de plata soportada en las fibras de algodón al transcurrir el tiempo durante el proceso de bioreducción. La pérdida de elasticidad cambia las propiedades mecánicas del soporte, esto se da por el proceso de impregnación de las partículas, perdiendo hasta un 10% de la elasticidad en el compósito de plata en un tiempo determinado.

Símbolos

nez, N.; Loyola-Rodríguez, J.P.; Patiño-Marín, N.; Martínez-Mendoza, J.R. y Ruiz, Facundo. (2009). Synthesis of silver particles with different sizes and morphologies. Materials Letters, 63(15), 1266–1268. DOI 10.1016/j.matlet.2009.02.061.

+

Shikuo, Li; Yuhua, Shen; Anjian, Xie; Xuerong, Yu; Lingguang, Qiu; Li, Zhang y Qingfeng, Zhang (2007). Green synthesis of silver nanoparticles using Capsicum annuum L. extract. Green Chemistry, 9, 852858. DOI: 10.1039/b615357g.

+

Shikuo, Li; Yuhua, Shen; Anjian, Xie; Xuerong, Yu; Xiuzhen, Zhang; Liangbao, Yang y Chuanhao, Li (2007). Rapid, room-temperature synthesis of amorphous selenium/protein composites using Capsicum annuum L extract. Nanotechnology, 18 (40), 1-9. DOI: 10.1088/09574484/18/40/405101.

+Nelson, Durán; Marcato, Priscyla D.;

De Souza, Gabriel I. H.; Alves, Oswaldo L. y Esposito, Elisa (2007). Antibacterial Effect of Silver Nanoparticles Produced by Fungal Process on Textile Fabrics and Their Effluent Treatment. Journal of Biomedical Nanotechnology, 3, 203–208. DOI: 10.1166/ jbn.2007.022.

+

Chen, Chuh-Yean y Chiang, Chen-Li (2008). Preparation of cotton fibers with antibacterial silver nanoparticles. Materials Letters, 62, 3607–3609. DOI: 10.1016/j.matlet.2008.04.008.

+

Perelshtein, I.; Applerot, G.; Perkas, N.; Guibert, G.; Mikhailov, S. y Gedanken, A. (2008). Sonochemical coating of silver nanoparticles on textile fabrics (nylon, polyester and cotton) and their antibacterial activity. Nanotechnology, 19(24), 1-6. DOI: 10.1088/0957-4484/19/24/245705.

+

Paiva Júnior, C.Z.; De Carvalho, L.H; Fonseca, V.M; Monteiro, S.N y D’Almeida,


J.R.M (2004). Analysis of the tensile strength of polyester/hybrid ramie– cotton fabric composites. Polymer Testing, 23 (2), 131135. DOI: 10.1016/S0142-9418(03)00071-0.

+

Graupner, Nina (2008). Application of lignin as natural adhesion promoter in cotton fibre-reinforced polylactic acid (PLA) composites. Journal of materials science, 43, 5222-5229. DOI: 10.1007 / s10853-008-2762-3.

+

El-Tahlawy, Khaled F.; El-Bendary, Magda A.; Elhendawy, Adel G. y Hudson, Samuel M. (2005). The antimicrobial activity of cotton fabrics treated with different crosslinking agents and chitosan. Carbohydrate Polymers, 60(4), 421–430. DOI: 10.1016/j. carbpol.2005.02.019.

+

June Kang, Tae; Choi, Ajeong; Kim, Dai-Hong; Kyoungcheol, Jin; Dong Kyun, Seo; Dae Hong, Jeong; Seong-Hyeon, Hong; Yung Woo, Parky y Yong Hyup, Kim. (2011). Electromechanical properties of CNT-coated cotton yarn for electronic textile applications. Smart Materials and Structures, 20, 015004-015012. DOI: 10.1088/0964-1726/20/1/015004.

7

Revista Científica

45


EL FENÓMENO DEL

Emprendedurismo EN LAS MUJERES MORELENSES

Luis Eduardo Ménez Bahena1, Alejandro Reyes Velázquez2 y Alejandra Fernandez Hernandez3

Universidad Politécnica del Estado de Morelos, Boulevard Cuauhnahuac, No. 566, Colonia Lomas del Texcal, Jiutepec, Morelos, México, C.P. 62550. 1,2,3

lmenez@upemor.edu.mx

Recibido: Noviembre 2, 2016. Recibido en forma revisada: Marzo 17, 2017. Aceptado: Mayo 22, 2017.

46

Revista Científica

Resumen: De acuerdo al Instituto Nacional del Emprendedor (INADEM), en 2013, las mujeres representaban el 19% del total de los emprendedores en México. La cifra había registrado un aumento importante, considerando que en 1995 eran 2.5 millones de mujeres y para esa fecha el número era de cuatro millones de emprendedoras. Sin embargo, no se trata de un dato inesperado, la evolución del papel de la mujer en la sociedad se ha manifestado en su interés por insertarse en la fuerza laboral y el emprendimiento representa una de las mejores alternativas para realizarlo. El presente trabajo de investigación tiene como objetivo correlacionar las características emprendedoras de dos poblaciones de mujeres. Por un lado se tiene a las participantes (beneficiarias) del programa estatal: “Empresas de la Mujer Morelense”, de la Secretaría de Desarrollo Social (SEDESO), que es un grupo considerado como vulnerable; por otra parte a las alumnas de la Licenciatura en Administración y Gestión (LAG) de la Universidad Politécnica del Estado de Morelos. El programa estatal mencionado forma parte de una estrategia del Gobierno del Estado de Morelos (cuyo inicio se da en el año 2012), y tiene como objetivo fortalecer las capacidades de los grupos vulnerables. Específicamente, apoyar a las mujeres jefas de familia mediante proyectos productivos que, a propuesta suya, les permita emprender y aprovechar nuevas oportunidades de autonomía y desarrollo económico. El otro punto, se trata de la educa-


ción formal del programa educativo de Administración y Gestión de una universidad que basa su proyecto educativo en el Modelo de Educación Basado en Competencias. A través del análisis de las dos poblaciones mencionadas, se conoce de las características distintivas de ambos grupos para contrastarlas y poder generar mejores estrategias, pertinentes y oportunas que permitan mejorar el impacto de los programas sociales y educativos relativos al emprendimiento. La investigación se realiza mediante la aplicación de un conjunto de cuestionarios a ambos segmentos mencionados. Los resultados son el fruto de la correlación efectuada entre los grupos seleccionados y se generan conclusiones y recomendaciones aplicables a los sujetos de estudio.

+ Palabras clave: Emprendedor, edad, sexo, formación universitaria y experiencia laboral.

Abstract: Entrepreneurship plays an important role as a catalyst for innovation and social welfare within an economy. However, the study of how our universities can encourage this spirit is a point insufficiently treated. In this paper, the focus is on determining what additional training to college and prior to obtaining the title can be enhanced from university education to promote entrepreneurship work experiences. This requires a population of 379 students studying administration and management in the quarter 2015/2016 were in the last semesters of their studies, using a sample of 190 students is analyzed. Analysis using binary logistic regression results that generally confirm expectations are obtained. This is, conducting training activities complementary university education and pre-completion of studies work experience is relevant in explaining entrepreneurial propensity. Men and women, however some peculiarities that distinguish present them.

+ Keywords: Entrepreneur, age, sex, university education and work experience. Introducción Para entender la igualdad de oportunidades entre hombres y mujeres con éxito en la constitución de una nueva empresa, hay que considerar que la situación social está influenciada por aspectos culturales que regulan la relación entre hombres y mujeres. En el contexto de globalización de los procesos financieros, económicos, comerciales, ambientales, políticos, sociales y culturales, las dos últimas décadas se han caracterizado por la irrupción de las mujeres en el mundo público, y en particular en actividades productivas. Como se señala en el documento elaborado por la Comisión Económica para América Latina y el Caribe (Cepal) 2006, la creciente participación laboral de las mujeres, sus logros educativos, las consiguientes modificaciones de las relaciones familiares y su importante aunque insuficiente acceso a los procesos de toma de decisiones, son los logros que transforman el escenario en el que se está construyendo la igualdad real entre mujeres y hombres. La incorporación masiva de las mujeres al ámbito público fue descrita por algunas investigadoras (Kanter, 1977) como la revolución social silenciosa más importante del siglo XX. En las últimas décadas, han existido cambios importantes en la condición laboral de la mujer en el estado de Morelos; sin embargo, persisten los retos y desafíos a nivel municipal, ya que su participación dentro de las actividades productivas todavía es muy escasa. Según un informe de la CEPAL (2006), casi la mitad de las mujeres mayores de 15 años carece de ingresos propios, el número de hogares monoparentales encabezados por las mujeres se ha incrementado, el aporte económico de las mujeres permite que muchos hogares superen

la condición de pobreza. Las mujeres tienen una menor participación en la población económicamente activa y siguen ganando menos que los hombres por trabajos equivalentes. Por otra parte, se reafirma la necesidad de formular políticas e incentivos económicos dirigidos a garantizar el trabajo decente a mujeres sin ingresos propios, en igualdad de condiciones que los hombres, para asegurar en la región la autonomía y el ejercicio de sus plenos derechos y alienta su participación en sectores de trabajos creativos, innovadores y que superen la segregación laboral sexista. ¿Qué y cuánto se conoce del aporte que realizan las mujeres dentro de las actividades productivas? ¿Dónde están? ¿Quiénes son? ¿Cuáles son las características distintivas que aportan las mujeres en diferentes emprendimientos? ¿Cuáles son los obstáculos más frecuentes que enfrentan a la hora de iniciar y desarrollar una actividad emprendedora? El propósito de esta investigación es brindar un marco general del análisis sobre la realidad de la actividad emprendedora de las mujeres del estado de Morelos en sus distintas características -Pyme y micro- que permita acercar algunas hipótesis sobre el comportamiento diferenciado de la actividad emprendedora en el estado, identificando obstáculos y facilitantes para las mujeres; reconocer las variables relevantes a considerar para nuevos estudios e investigaciones que contribuyan a mejorar los diagnósticos sobre la situación actual de las mujeres en las actividades productivas y contribuir al diseño y propuestas de políticas públicas que posibiliten estimular estas actividades.

Revisión de la literatura En primer término se habla del emprendimiento, cuya historia se remonta al año 1755 con el economista francés Richard Cantillón, quien definió al emprendedor como “agente económico que compra medios de producción a determinado precio, a fin de combinarlos y crear un nuevo producto”. Tiempo después, el también economista francés J.B. Say agregó que el emprendedor es un líder que atrae a otras personas para formar organizaciones productivas. Un siglo más tarde, Alfred Marshall, economista británico, resaltó la importancia de los emprendedores en los procesos productivos. Existen muchas y variadas definiciones del emprendedor, dependiendo del punto de vista que se trate, ya sea económico, político, operativo o pragmático. No obstante, una definición genérica debida a Anzola (2003), es la siguiente: “emprendedor es el que hace que las cosas sucedan”. Existe mucha bibliografía sobre las características deseables que debe tener el emprendedor, tales como virtudes, valores, habilidades y actitudes, entre las que señalan la honestidad, solidaridad, responsabilidad, excelencia, objetivos claros, fe en sus proyectos, dedicación plena, tomar riesgos, energía, actualización continua de sus conocimientos, ética y conciencia ambiental, capacidad para hacer relaciones personales y poder de comunicación. Djankov (2006), en un estudio sobre las características que identifican a los emprendedores, llega a las siguientes conclusiones: no hay diferencia en el nivel educativo entre los emprendedores y los que no lo son:

• La familia y amigos influyen en el emprendedor. • Los emprendedores tienen mayor motivación para ganar dinero, alcanzar el éxito y son más ambiciosos; desean libertad política. •

Tienen mayor disposición al trabajo y más confianza en otras personas. De acuerdo a Sánchez-Apellániz (2003), el nivel de mujeres empresarias en Andalucía no es muy alto, quedando la mayoría en educación primaria o con estudios superiores. Las que poseen estudios universitarios suelen Revista Científica

47


ser las más jóvenes, quienes laboran, preferentemente, en el sector servicios. Sus principales obstáculos para la creación de empresas son el financiero, la falta de cultura empresarial, la falta de formación, el considerar la actividad empresarial una tarea difícil y con pocas recompensas y la poca propensión a tomar riesgos. En Gran Bretaña, un estudio realizado con emprendedores que asistieron a un curso para pequeños negocios, Moss y Saunders (1987) encuentran algunas similitudes entre hombres y mujeres, como el tiempo que toma para emprender su negocio, ambos se apoyan en su experiencia, educación y acceso a financiamiento para el arranque. Recientes estudios realizados sobre actividades emprendedoras centran su atención en la importancia del acceso a los recursos, tales como el capital financiero y la información; sin embargo existen otros factores denominados “disposicionales” (Allen, 2008), relacionados con la condición social, el medio, lazos afectivos y los sociales, a partir de los cuales los individuos deciden iniciar un emprendimiento. Las diferencias de género también son un factor significativo y hasta ahora muy poco estudiado a la hora de analizar las diferentes variables que permitan arribar a aproximaciones para comprender mejor la actividad emprendedora. Las mujeres del estado de Morelos enfrentan barreras mucho más complejas en la participación de la economía formal que sus contrapartes en países desarrollados—escasas políticas y programas de apoyo y estímulo a la actividad emprendedora, exceso de normativas y procedimientos, falta de acceso al crédito—y además existen diferencias entre ellas en los diferentes países de América Latina y el Caribe. Por ello, a la hora de diseñar programas de apoyo a la actividad productiva, es necesario tener en cuenta las realidades que atraviesa cada contexto en particular en lo referido a factores macroeconómicos, como así también las condiciones institucionales, de infraestructura, cuestiones normativas, crediticias y financieras de los diferentes países, ya que un mismo programa puede tener diferentes impactos y resultados en diferentes países. Como señala Montaño (2005), el concepto de autonomía de las mujeres es importante como medida para evaluar el logro en el proceso de empoderamiento y superación de la exclusión social. Conocer en qué medida las mujeres son capaces de decidir autónomamente su partición en el mercado, en la política, en la vida pública, es imprescindible para analizar los logros en la equidad de género. La posibilidad de las mujeres de optar por un trabajo remunerado se encuentra limitada por la responsabilidad de compatibilizar el mundo público con el privado, el trabajo remunerado en el mercado y el no remunerado en la esfera privada. La posibilidad de trabajo independiente y el potencial de los emprendimientos, ha sido planteada desde los distintos ámbitos como una oportunidad que les permite mayores posibilidades de manejo del tiempo y a su vez generación de ingresos propios. ¿Qué posibilidades brinda a las mujeres la actividad emprendedora? ¿Les ofrece realmente una alternativa a los obstáculos y condicionantes que todavía persisten en el mercado laboral o simplemente reproduce las simetrías que persisten bajo una forma diferente? ¿Ofrece un medio por el que puedan mejorar su calidad de vida (sobre todo en relación con otros compromisos) o sencillamente se incrementa su carga de trabajo? ¿Existen estímulos suficientes en términos de políticas públicas para incentivarlas a que desarrollen sus propios emprendimientos o los obstáculos son tanto o más importantes que los que existen dentro del mercado laboral formal? En los últimos años se observa una participación más activa de las mujeres en actividades productivas independientes, es escaso el conocimiento que se posee sobre el heterogéneo universo de mujeres que se desempeñan dentro del sector no asalariado en el estado de Morelos. Por otra parte, existen diferentes clasificaciones y definiciones desde el punto de vista económico, de gestión, estadístico, que intentan analizar las especificidades de las actividades productivas teniendo en cuenta la necesidad de diferenciar las características de las empresas y de las personas involucradas y sus ocupaciones. A los efectos de identificar las 48

Revista Científica


realidades y aportes de las mujeres dentro de estas actividades, la investigación centrará el análisis en emprendedoras y micro emprendedoras; esta última categoría asociada fundamentalmente al “sector informal”. Pero, ¿qué se sabe de las emprendedoras del estado de Morelos? La llegada de mujeres a las pequeñas y medianas empresas, ya sea como fundadoras o como socias, ha provocado interés en distintos ámbitos por conocer sus características, formas de acceso, tipo de emprendimiento que desarrollan y sobre todo el aporte que pueden realizar al crecimiento productivo de los municipios del estado de Morelos donde actúan. Hasta el momento, es escasa la información y conocimiento en profundidad que se dispone sobre sus realidades dentro de actividades emprendedoras, que posee múltiples variantes y muchas veces resulta complejo obtener información sobre ellas. Hasta el momento la situación y características particulares y distintivas de las mujeres emprendedoras ha sido poco explotada en el estado de Morelos, en parte debido a su escasa participación dentro de actividades productivas y por otra parte, porque la mayoría de los estudios sobre el tema enfocan su atención en aspectos referidos a los procesos y a las características de las empresas en sí mismas, sin tener en cuenta las especificidades de género.

Metodología El propósito principal de esta investigación es brindar un marco general de análisis sobre la realidad del fenómeno emprendedor de las mujeres del estado de Morelos en sus distintas características -Pyme y micro- que permita acercar algunas hipótesis sobre el comportamiento diferenciado de la actividad emprendedora en los diferentes municipios de la entidad, identificando obstáculos y facilitantes para las mujeres; reconocer las variables relevantes a considerar para nuevos estudios e investigaciones que contribuyan a mejorar los diagnósticos sobre la situación actual de las mujeres en las actividades productivas. Las hipótesis centrales que orientan el documento son: H1: Las mujeres emprendedoras que están en cuatrimestres avanzados en su carrera presentarán un espíritu emprendedor menor a las mujeres emprendedoras que no tienen preparación universitaria. Leiva (2004), en su estudio relativo a la percepción de formación profesional recibida por estudiantes universitarios, ha encontrado que en general, la mayoría de los estudiantes opinan que la formación recibida no los capacita para ser empresarios. Peterman y Kennedy (2003), al analizar los efectos de la participación de jóvenes estudiantes que no son del área de administración y gestión, en un programa de habilidades para los negocios, para conocer la influencia que dicho programa ejerce sobre el deseo y la viabilidad de iniciar crear una empresa, encontraron que al medir su actitud antes y después del programa se incrementó su deseo de crear un nuevo negocio y su percepción de viabilidad, mientras que en el grupo de control no hubo cambio alguno de actitud. A partir de las consideraciones anteriores, se plantea la segunda hipótesis de este estudio: H2: La formación recibida sobre creación de empresas fomenta el espíritu emprendedor de las mujeres estudiantes y no estudiantes. Los estudios realizados referentes al espíritu emprendedor, han demos-

trado la existencia de factores importantes que intervienen en su desarrollo, además de la formación. Por ello, deben ser tenidos en cuenta para controlar su efecto. Estos factores los hemos agrupado en características sociodemográficas y rasgos psicológicos, y se expondrá la justificación de su inclusión basándonos en trabajos previos que las han empleado.

Características sociodemográficas Se concretan en todos aquellos hechos reales sobre los individuos que son perfectamente verificables, tales como la edad, el género, los antecedentes emprendedores en la familia y la experiencia de trabajo. Metodológicamente todas estas características socio demográficas son un instrumento útil para medir las diferencias individuales. Son variables fijas no susceptibles de ser modificadas y su medición sirve para conseguir ciertos efectos en el comportamiento del individuo, por lo que serán analizadas y las utilizaremos como variables de control.

EDAD Para Veciana (1989), en estudios realizados respecto a la edad, la persona que toma la decisión de convertirse en empresario suele tener entre 25 y 40 años. En Estados Unidos un tercio de los nuevos empresarios son menores de 30 años. Más del 60% de los emprendedores entre los 18 y 29 años afirman desear poseer su propio negocio y cerca del 80% de los que querrían ser emprendedores están entre los 18 y los 34 años de edad (Kuratko y Hodgetts, 2004). Dado que se ha argumentado que los individuos de mayor edad se ven mermados en sus capacidades físicas y mentales o puedan estar menos capacitados para generar nuevas ideas y aprender nuevos comportamientos, y que son los jóvenes que carecen de cargas familiares y compromisos los que mayormente tienen la tendencia a crear su propia empresa, la variable edad debía ser controlada en el estudio.

SEXO Debido a los obstáculos que tienen y a los distintos niveles socioeconómicos de donde provienen las mujeres emprendedoras, no constituyen un grupo homogéneo, pero hay algo en común, que las empresas que crean no pueden ser analizadas aisladamente del entorno económico y sociocultural en el que se desenvuelven (González, 2001), ya que los valores y actitudes sociales influyen en cierta medida en las condiciones de creación y desarrollo de las empresas creadas, gestionadas y dirigidas por ellas. Rubio, Cordéon y Agote (1999), en su estudio, encontraron que un 47.2% de los hombres habían pensado seriamente en crear su propia empresa contra un 32% de las mujeres, corroborando la idea de que los hombres manifiestan una mayor propensión a la creación de empresas en comparación con la población femenina. Asimismo, Arribas y Vila (2004) encontraron que el 44% de los hombres tienen la iniciativa de crear una empresa contra el 30.9% de las mujeres. Crant (1996), al estudiar la relación entre las diferencias individuales y las intenciones de comportamiento hacia carreras empresariales, encuentra también altas intenciones empresariales de los hombres en comparación con las mujeres.

ÁMBITO DE DESARROLLO El crecimiento económico que crea oportunidades de negocio también puede crear más posibilidades emprendedoras, subrayando además que si la economía de una nación se expande y hay más demanda de mercancías y servicios, se reflejará la probabilidad de que alguien tenga la oportunidad Revista Científica

49


de iniciar un negocio (Dyer, 1994). Por otro lado, las actuaciones de las Administraciones Públicas son determinantes para potenciar el emprendizaje y el desarrollo local ya que el contexto puede influir en las facilidades para la creación del tejido empresarial. Por tanto, a través de esta variable se trata de controlar si existen distintas oportunidades económicas y de desarrollo personal en los entornos rurales, de pequeña y de gran ciudad que permitan a las personas desarrollar diferentes actitudes emprendedoras.

ANTECEDENTES EMPRESARIALES FAMILIARES En México, la tradición familiar es un factor muy importante en el que se suscita un ambiente propicio para el desarrollo de nuevas ideas y negocios (Benavides y Sánchez, 2004). La observación permite comprobar que buena parte de los empresarios suelen descender de familias en la que algunos de sus miembros son autoempleados o empresarios. Este hecho se repite en todas las investigaciones. El porcentaje oscila entre el 40% y el 60% según Veciana (1989) y Leiva (2004). En diversos trabajos se ha comprobado que los encuestados, cuyos padres eran propietarios de pequeñas empresas a las que le dedicaban tiempo completo, muestran más altas preferencias por el autoempleo y están más inclinados a desarrollar una idea empresarial, reflejando la menor preferencia por ser empleado en una gran empresa (Scott y Twomey, 1988, Crant, 1996; Rubio, Cordón y Agote, 1999).

PREVIA EXPERIENCIA En el trabajo realizado por Peterman y Kennedy (2003) sobre las influencias en las percepciones de los estudiantes hacia la creación de empresas, encontraron que el 80% de los estudiantes encuestados ya poseían la experiencia previa, lo cual originó que existiera un deseo percibido de dichos estudiantes hacia el emprendimiento. Similares cifras maneja Leiva (2004) en su estudio para detectar la motivación emprendedora entre los estudiantes universitarios, quien encontró que aquellos que tienen experiencias laborales previas tienen mayor preferencia a crear su propia empresa. En la misma línea, Scott y Twomey (1988) manifiestan que la experiencia laboral es un factor crucial que ayuda a moldear las aspiraciones profesionales. Encontraron en su estudio que un tercio de los estudiantes con experiencia laboral dijeron tener ideas empresariales propias frente a una décima parte de aquellos que nunca habían trabajado. Esto es explicado por la teoría de la empresa como incubadora, pues la habilidad propia que define la figura del emprendedor se forma por medio de una experiencia de trabajo y personal. La experiencia previa de los emprendedores juega un papel importante a la hora de tomar una decisión al respecto, ya que, cualquier trabajo realizado puede servir como antecedente al futuro emprendedor.

Rasgos psicológicos Los estudios sobre la personalidad del individuo y su conducta hacia la creación de empresas han enfatizado que ciertos factores psicológicos estimulan a las personas a crear una empresa, aunque la definición del emprendedor a través de las características y rasgos ha sido criticada por algunos autores como Gartner (1989). De cualquier forma, la teoría de los rasgos de personalidad del empresario defiende que este tiene ciertas características de personalidad propias que los diferencia de otras personas, ya que el crear una empresa no es un evento aislado sino que es algo que se relaciona con su vida personal, aunque como afirman Singh y De Noble (2003) es difícil comparar estudios porque serían precisas medidas más universales de personalidad. Brockhaus, (1982), Brockhaus y Horwitz (1986), Scherer, 50

Revista Científica

Brodzinky y Wiebe (1991), Bird (1989) y Shein (1990) plantean que las personas que tienen un elevado control interno, alta necesidad de logro, capacidad para asumir riesgos y una alta tolerancia a la ambigüedad, serán más propicios a involucrarse en una actividad empresarial. Estas serán las cuatro características psicológicas consideradas en este trabajo de investigación.

CONTROL INTERNO Para que los emprendedores se sientan motivados por conseguir sus metas de negocio deben tener un control de las decisiones que toman para conseguir dichas metas. La percepción que una persona tiene sobre la fuente de su destino se conoce como Locus de Control o Control Interno (Robbins, 1999). El Locus de Control Interno de los empresarios es mayor que el de la población en general, ya que otras personas que creen que el resultado de sus acciones no depende de sus decisiones ni de sus esfuerzos, difícilmente podrán decidirse a crear y dirigir una empresa, como han encontrado Mescon y Montanari (1981) y posteriormente Korunka, Frank, Lueyer y Mugler (2003). Entre los autores que han estudiado el Control Interno, además de otros rasgos, se encuentran Veciana (1989), Entrialgo, Fernández y Vásquez (1999), Korunka, Frank, Lueyer y Mugler (2003), Moriano, Sánchez y Palaci (2004), Mescon y Montanari (1981), Morris (1998), Dyer (1994), Miller y Tolouse (1986), Brockhaus y Nord (1979), Rotter (1966), Robinson, Stimpson, Huetner y Hunt (1991).

NECESIDAD DE LOGRO La necesidad de logro es concebida como el deseo que tienen ciertas personas para mejorar el resultado de sus acciones y sentirse responsables de las mismas. Se ha relacionado con la probabilidad de convertirse en fundadores y de estar motivados para alcanzar el éxito. Mc Clelland (1961) es el autor de referencia y a partir de su trabajo muchos autores lo han considerado en sus estudios como Veciana (1989), Entrialgo, Fernández y Vázquez (1999), Lee y Tsang (2001), Mescon y Montanari (1981), Hornaday y Aboud (1971), Dyer (1994), Miller y Tolouse (1986), Gupta y Govindarajan (1984), Hornaday y Bunker (1970).

PROPENSIÓN AL RIESGO Una persona que arriesga se puede definir como aquella que está orientada en aprovechar las oportunidades en contextos inciertos, lo cual está estrechamente relacionado con el concepto de emprendedor. Entre los autores que han estudiado el riesgo en los emprendedores se encuentran Entrialgo, Fernández y Vázquez (1999), Arrivas y Vila (2004), Cano, García y Gea (2004), Morris (1998), Miller y Tolouse (1986), Carland, Carland y Aby (1989), Brockhaus y Nord (1979).

TOLERANCIA A LA AMBIGÜEDAD La tolerancia a la ambigüedad es una característica especialmente necesaria para la toma de decisiones en la incertidumbre. Tolerancia a la ambigüedad, intuición y creatividad, están íntimamente ligadas (Veciana, 1989). Por lo tanto, teóricamente las personas que más toleren la ambigüedad son las que obtienen resultados superiores en su misión y en la búsqueda del crecimiento (Entrialgo, Fernández y Vázquez (1999). En un estudio sobre el perfil empresarial y la participación en el capital hecho con fundadores, propietarios y directivos, realizado por Entrialgo, Fernández y Vázquez (1999), se menciona que los empresarios necesitan tener un alto grado de tolerancia a la ambigüedad para que tomen decisiones acertadas en un am-


biente de incertidumbre, proponiendo en su hipótesis que la tolerancia sobre la ambigüedad explica el esquema de participación en el capital y que los fundadores son más propensos a tolerar mejor la ambigüedad que el resto de los empresarios. Otros autores que han considerado en sus trabajos la tolerancia a la ambigüedad son Veciana (1989), Cano, García y Gea (2004), Morris (1998), Dyer (1994), Carland, Carland y Aby (1989), Guptan y Govindarajan (1984).

La fórmula utilizada fue la siguiente:

En donde:

Figura 1. Modelo de análisis.

Las variables dependiente e independiente, las variables de control y las relaciones son la representación del modelo en la Figura 1.

Diseño de la investigación En este punto se pretende establecer un marco metodológico que sirva de apoyo y sustente el estudio empírico, y que permita llevar a cabo el contraste de las hipótesis planteadas, así como definir los procedimientos necesarios para la obtención de la información que permita dar una explicación del estudio realizado. En primer lugar, se plantea la población y muestra de las mujeres estudiantes de la carrera de Administración y Gestión de la Universidad Politécnica del Estado de Morelos y de las mujeres beneficiadas del programa “Empresas de la Mujer Morelense” de la Secretaría de Desarrollo Social (SEDESO) para llevar a cabo el estudio empírico. El segundo apartado se refiere a las fuentes de información y base para la elaboración de la encuesta a aplicar. El tercer apartado hace una descripción de la forma que midieron las variables algunos investigadores en estudios anteriores y la forma en que fueron medidas las variables del modelo presentado. Por último, en el cuarto apartado se recopila el tratamiento de la información así como las técnicas estadísticas empleadas para el análisis de los datos.

Población y muestra Debido a las características específicas señaladas con anterioridad y la necesidad de realizar un contraste empírico, se requiere la selección de un conjunto de personas que reúnan ciertos criterios de clasificación que sean consistentes con el presente trabajo. En este caso, la población elegida para llevar a cabo el presente estudio fueron las estudiantes de la carrera de Administración y Gestión de tercero, sexto y noveno cuatrimestres de la Universidad Politécnica del Estado de Morelos, en el periodo académico mayo-agosto 2016, y las beneficiadas del programa “Empresas de la Mujer Morelense” a cargo de la SEDESO. Se procedió a realizar el cálculo del tamaño de la muestra definida en forma aleatoria simple que represente a dicha población, con el propósito de reducir el tamaño del error estándar en las predicciones.

N = Es el tamaño de la población, siendo un total de 190 alumnas matriculadas y 190 mujeres emprendedoras, resultando una población de 380 personas. n = Tamaño de la muestra a estudiar. P y Q = 1 – P son desconocidos, y es precisamente lo que tratamos de estimar para calcular el tamaño muestral. Por lo tanto, se considera el caso de máxima indefinición: P = Q = 0.5. λ = Es el valor de la distribución normal para un nivel de significación (α) prefijado: para un α = 0.05 que supone un nivel de confianza del 95%, λ = 1.96 Para un α = 0.1 que supone un nivel de confianza del 90%, λ = 1.64. ε = Es el error permitido, suelen manejarse valores del 2% o 3%. Como se asume el supuesto de máxima indefinición, no hay diferencia entre estratos, por lo que la situación es análoga al muestreo aleatorio simple, por tanto, calculamos el tamaño de la muestra con la expresión para muestreo aleatorio simple. Con un error del 3% y un nivel de confianza del 95%, el tamaño muestral que corresponde es n = 190 mujeres. Se procedió a realizar el muestreo aleatorio estratificado, para que nos determine el número de encuestas por cada cuatrimestre, arrojando los resultados que se mencionan en la última columna con el número representativo en cada cuatrimestre, que componen el total de la muestra, tal y como se observa en la Tabla 1.

Tabla 1. Relación de la matrícula y muestra total. Fuente: Elaboración propia con información proporcionada por el área de Servicios Escolares y SEDESO. Es importante señalar que el resultado que arroja la Tabla 1, referente al sexo, es de 380 emprendedoras, encuestándose a 95 mujeres UPEMOR y 95 mujeres SEDESO, lo que nos da una muestra representativa de 190. Por lo tanto, se procede a la presentación de la ficha técnica del presente estudio (Tabla 2).

Tabla 2. Ficha técnica del estudio.

Revista Científica

51


Fuentes de informacion Una vez definida la población y muestra, el siguiente paso fue elegir las fuentes de información y los instrumentos utilizados para recabarla. Se utilizaron fuentes primarias, diseñando para el fin específico de la investigación una encuesta aplicada directamente a la muestra de estudiantes y mujeres emprendedoras de SEDESO. Para su elaboración se realizó una búsqueda de trabajos publicados con relación a variables sociodemográficas, psicológicas, de formación y el espíritu emprendedor. Las preguntas analizadas fueron seleccionadas, depuradas y adaptadas al entorno académico estudiantil, pues algunas procedían de cuestionarios aplicados a empresarios.

Medidas de las variables A continuación se menciona la forma de medición de cada una de las variables del trabajo de investigación.

El espíritu emprendedor Peterman y Kennedy (2003), en su estudio, examinan los efectos de la participación en un programa de educación empresarial, sobre las intenciones, el deseo y viabilidad de iniciar un negocio por parte de los estudiantes que iniciaban un programa emprendedor en la misma institución, aplicando preguntas al efecto valoradas en una escala de Likert de 1 a 5. Misma escala que la empleada por Mitchell y Knudsen (1986) para medir con una cuestión la actitud de estudiantes universitarios hacia la creación de empresas. Por su parte, Rubio, Cordón y Agote (1999) utilizan también un cuestionario para medir el espíritu emprendedor de los estudiantes, incorporando una serie de preguntas que son valoradas en escala de Likert 1 a 5 (Nada deseable-Totalmente deseable); posteriormente, asignaron el valor de cero a los casos que puntuaban entre los valores 1 y 3 (bajo deseo), y con 1 a los que señalaban entre 4 y 5 (alto deseo), para después obtener qué diferencias eran significativas.

d)

Estaría dispuesto a invertir mis ahorros para tener mi propia empresa. Considera el riesgo que corre el futuro emprendedor, de tal forma que él mismo tendrá la disposición de realizar un esfuerzo económico bajo tales circunstancias. Para construir y validar la variable dependiente espíritu emprendedor, se realizó un análisis factorial de componentes principales con los cuatro ítems. El análisis factorial es una técnica de análisis multivariante que tiene dos aplicaciones fundamentales (Miquel, Bignée, Levy, Cuenca y Miquel, 1993). Una es simplificar un conjunto de datos reduciendo para ello el número de variables sin una gran pérdida de información; en nuestro caso, se redujo a una variable. Y la otra aplicación es identificar la estructura o dimensionalidad subyacente de los datos. Antes de proceder a la elaboración del análisis factorial, se realizó un estudio sobre la fiabilidad que poseen estas cuestiones para valorar la consistencia interna y que nos proporciona el coeficiente de fiabilidad Alfa de Cronbach, en el que se obtuvo un valor de 0.934. Al ser un valor alto, nos indica que hay una gran consistencia interna entre las variables de la escala. Una vez realizado y aceptado que estas cuestiones son fiables, se procedió a la realización del análisis factorial. Para alternar los factores se utilizó el método de rotación Varimax, ya que teóricamente las variables de diseño analizadas están relacionadas entre sí. Del análisis factorial realizado, se obtuvo un solo factor con auto valores mayores que 1, que explican el 83.5% de la varianza. En la Tabla 3 se muestran los resultados. Los valores obtenidos en la prueba de esfericidad de Bartlett permite rechazar la hipótesis nula y da como resultante un chi-cuadrado alto, considerando los seis grados de libertad. La varianza explicada por nuestro único factor es de 83.54%, resultado muy satisfactorio que nos permite aceptar como bueno el factor creado.

Sin embargo, las referencias principales empleadas fueron las preguntas utilizadas en los estudios de Brockhaus (1980) y Cano, García y Gea (2004). Se elaboraron cuatro preguntas que reflejan el deseo, la intención de crear su propia empresa, y el grado de esfuerzo que está dispuesto a soportar con tal finalidad, en términos de tiempo invertido y esfuerzo realizado y de ahorros comprometidos en el proyecto. Los ítems debían valorarse con una escala Likert con valores entre 1 y 4, de tal manera se tiene:

a) Pienso algún día tener mi propio negocio. La cual refleja la actitud que tiene el estudiante para realizar su objetivo en determinado momento.

b)

La idea de tener mi propio negocio frente a trabajar por cuenta ajena me resulta atractiva. Esta pregunta muestra la intención que se tiene para llevar a cabo la realización de una actividad propia, sin tener que depender de una organización.

c)

Estaría dispuesto a hacer un gran esfuerzo y dedicar el tiempo necesario para crear mi propia empresa. Representa la disposición y dedicación que tendrá el estudiante para atender las necesidades para llevar a cabo su proyecto.

52

Revista Científica

Tabla 3. Resultados del análisis de componentes principales.

FORMACIóN En el cuestionario se ha incorporado una pregunta acerca del cuatrimestre en el que el estudiante se encuentra matriculado. Dado que se tiene el problema de trabajar con alumnos de tres cuatrimestres diferentes, se tuvo que homogenizar la medida codificando los cuatrimestres con 1 para aquellos alumnos matriculados en el tercer cuatrimestre, con una actitud emprendedora poco influida por el desarrollo de su carrera; con 2 para aquellos alumnos que están matriculados en el sexto cuatrimestre, como el nivel in-


termedio de sus estudios, y con un tres para aquellos alumnos matriculados en noveno cuatrimestre. Respecto a la segunda hipótesis, para medir la formación específica sobre creación de empresas, se preguntó directamente si el alumno había tomado alguna materia sobre creación de empresas, cuál era su duración y si se encuentra matriculado en la materia. La variable se midió a través del número de horas cursadas.

LA EDAD En el estudio, al igual que en los precedentes sobre el tema, la edad es medida en años, aunque nuestra población limita el campo de variabilidad de esa variable.

EL SEXO Al igual que en los estudios precedentes Korunka, Frank, Lueger y Mugler (2003) Arribas y Vila (2004); Rubio, Cordón y Agote (1999); Crant (1996), el sexo se midió a través de una variable dicotómica.

ÁMBITO DE DESARROLLO Se preguntó en el cuestionario dónde pasó su infancia el estudiante; en una gran ciudad, pequeña ciudad o en un pueblo/ámbito rural.

ANTECEDENTES FAMILIARES Como en los estudios previos de Crant (1996), Scott y Twomey (1988), Leiva (2004) y Rubio, Cordón y Agote (1999) se preguntó al estudiante si tiene familiares empresarios o profesionales, tales como el padre, la madre, el hermano u otros familiares directos.

EXPERIENCIA PREVIA En algunos trabajos se ha estudiado la variable experiencia previa para conocer su influencia con el espíritu emprendedor, dicha variable es medida de acuerdo al número de años que ha trabajado el encuestado (Cano, García y Gea, 2004). En otros estudios hacen una pregunta para responder con un “si” o con un “no” (Scott y Twomey, 1998; Peterman y Kennedy, 2003). Para este estudio se optó por emplear el número de años de experiencia laboral declarada.

CONTROL INTERNO Se aplicó una escala Likert 1 – 10 sobre diversos ítems, que fueron tomados de la escala Entrepreneurial Attitude Orienation (EOA) de Robinson (1991), habiéndose hecho una adaptación puesto que era dirigido a empresarios y en el presente estudio se aplica a mujeres universitarias y emprendedoras SEDESO. TOLERANCIA A LA AMBIGÜEDAD Los ítems que miden la tolerancia a la ambigüedad han sido adaptados de los trabajos de Lorsch y Morse (1974) y de Gupta y Govindarajan (1984). Al igual que en el anterior rasgo, fue empleada una escala de 1 a10.

RIESGO En cuanto a la medición de la propensión al riesgo en el presente trabajo, se han realizado preguntas con ítems elaborados en escala Likert 1 – 10, en donde 1 indica que está totalmente de desacuerdo y hasta 10 que indica que

está totalmente de acuerdo. Los ítems fueron basados en el estudio de Cano, García y Gea (2004).

NECESIDADES DE LOGRO La medición de la necesidad de logro en el presente estudio, se ha realizado por medio de la aplicación de preguntas seleccionadas basadas en la escala “Entrepreneurial Attitude Orientation” (EAO) de Robinson (1991), tras una adecuada adaptación dadas las características de la población a la que se dirige nuestro estudio, puesto que es dirigida a mujeres universitarias, ya que fue aplicada a empresarios por el mencionado autor. Los ítems utilizados para medir la necesidad de logro en el estudio realizado por Robinson (1991), fueron realizados en escala de 1 – 10. En el presente estudio se utilizaron ítems en una escala Likert 1 – 4, en donde 1 indica está totalmente en desacuerdo y 4 que está totalmente de acuerdo. Se utilizó el análisis factorial, con el método de componentes principales, con carácter confirmatorio y exploratorio, porque nos ha permitido desechar ítems que no aportaban mucho a los cuatro rasgos establecidos a priori a partir del cuestionario de personalidad utilizado una vez depurado este, rechazando las preguntas que distorsionaban el análisis. El resultado se muestra en la Tabla 4 y la Tabla 5.

Tabla 4. Resultado del análisis de componentes principales de los rasgos.

Tabla 5. KMO y prueba de Bartlett y varianza explicada. La varianza explicada para los cuatro factores es del 71% lo que permite admitir como buenos los factores creados.

Revista Científica

53


TRATAMIENTO DE LA INFORMACION Para la tabulación y elaboración de los análisis estadísticos se utilizó el SPSS para Windows (Statical Packge for Social Science) en su versión 22.0.

dos, curso de creación de empresas, necesidades de logro, tolerancia a la ambigüedad y riesgo. En cambio, las variables experiencia laboral y necesidad de logro no han presentado una relación estadísticamente significativa.

Resultados En primer lugar, se realizó un análisis de correlación entre las variables del estudio, cuyo resultado está recogido en la Tabla 6. Posteriormente, se efectuó un análisis de regresión lineal múltiple (Tabla 7). El valor F (5.253) es significativo (p<0.01), es decir, nos indica que las variables independientes predicen de manera satisfactoria la variable dependiente. Del análisis de regresión se puede observar que las variables que resultan significativas para explicar la variable dependiente espíritu emprendedor son: familiares empresarios, ámbito en el que han vivido, cursos toma-

En relación a la primera hipótesis del estudio, esta queda contrastada, ya que la variable curso matriculado tiene influencia significativa con el espíritu emprendedor, con un valor p < 0.05. Como se había predicho, se ha obtenido un coeficiente beta negativo, lo que debe interpretarse como que la actitud emprendedora de los estudiantes declina a medida que estos avanzan en su ciclo académico y se aproximan al contacto con la realidad laboral. Las presiones personales y familiares hacia la búsqueda de una fuente rentas segura puede explicar esa evolución negativa en el espíritu emprendedor de los jóvenes estudiantes. Sin embargo, los resultados obtenidos obligan a hacer autocrítica, ya que

Tabla 6. Análisis de correlación entre las diferentes variables. ** La correlación es significativa al 0.05. * La correlación es significativa al nivel 0.01.

Tabla 7. Análisis de regresión lineal. 54

Revista Científica


la universidad no está cumpliendo con su papel de incubadora de ideas de negocio y de incentivar la actitud emprendedora entre sus estudiantes. Otros estudios han encontrado también que las universidades están fallando en la motivación de los emprendedores. Como señalan Galloway y Brown (2002), algunos estudios de proyectos concretos para elevar el espíritu emprendedor entre los estudiantes, tales como el programa de graduados en empresa de la Universidad de Stirling (Fletcher, 1999), han mostrado cifras poco esperanzadoras de start-ups de alta calidad entre los graduados, ya que se han enfocado más a incrementar las competencias en negocios que a aumentar la conciencia de los emprendedores y motivarles para el desarrollo de ideas creativas y comercializables. Por lo que se refiere a la segunda hipótesis, también se ve confirmada por los resultados obtenidos. La variable relacionada con los cursos sobre creación de empresas que ha recibido el estudiante contribuye significativamente a explicar el espíritu emprendedor con un p valor <0.05. Este resultado es coincidente con el estudio realizado por Peterman y Kennedy (2003), aunque no con Leiva (2004) en el sentido de que, en su estudio, la mayoría de los alumnos opinan que la formación recibida respecto a las materias cursadas sobre emprendedores no los capacita para ser empresarios, aunque estos autores solo recogen distribuciones de frecuencias. Una implicación práctica directa de los resultados obtenidos en el estudio sería que es preciso seguir avanzando a través de medidas concretas para desarrollar y canalizar el espíritu emprendedor de las mujeres estudiantes y emprendedoras de SEDESO. Otros resultados interesantes obtenidos son que tener familiares próximos empresarios es un claro incentivador del espíritu emprendedor, ya que se obtuvo un coeficiente positivo con un p valor <0.01, lo que confirma los postulados de la teoría del rol familiar. En cuanto a los aspectos relacionados con el perfil psicológico de la mujer estudiante y la mujer emprendedora, tres de los rasgos considerados son claramente significativos con un p valor <0.01: la necesidad del logro, la tolerancia a la ambigüedad y la propensión al riesgo; sin embargo, no hemos obtenido la misma evidencia con el rasgo control interno, cuyo coeficiente es positivo, pero no estadísticamente significativo.

Conclusiones La creación de empresas representa una de las bases de progreso más relevantes de la sociedad actual. Las empresas surgen siempre acompañadas de la figura de una o más personas que mediante su esfuerzo, empuje y creatividad constituyen un valor importante en el proceso de creación de riqueza. Estas personas se han convertido en un destacado objeto de estudio para los investigadores, quienes tratan de encontrar en ellas todas las características personales más comunes que las motivan. Existen todavía muchas incógnitas por descifrar en relación con la influencia de las características individuales hacia el fenómeno emprendedor sobre la creación de empresas. La descripción sobre los comportamientos, habilidades y actitudes del ser humano, casi siempre ha sido acompañada de intentos por conocer los orígenes causales de tales conductas.

actividades requiere conocimientos especializados y de alto nivel. Sin embargo, aunque el espíritu emprendedor puede surgir desde cualquier rincón del aula universitaria, su fomento y realización dependerá de las condiciones de las universidades y apoyos que se reciban. En este trabajo se ha estudiado si tales condiciones se están produciendo realmente en la Universidad Politécnica del Estado de Morelos, para lo cual se ha analizado la evolución del fenómeno emprendedor de las mujeres universitarias de la carrera de Administración y Gestión y de las mujeres emprendedoras de SEDESO. Los resultados obtenidos son concluyentes en tanto que el fenómeno emprendedor declina en las mujeres estudiantes desde los primeros años de sus estudios hasta que llega el momento de su incorporación al mercado laboral. Todo parece indicar que los conocimientos aportados incrementan sus competencias de gestión, pero les orientan hacia salidas laborales más conservadoras, como son el trabajo por cuenta ajena, y no les motivan hacia el autoempleo. Parece que la teoría de la marginación encuentra apoyo dado que la capacitación, y el consiguiente incremento de valor para el mercado laboral está actuando como desincentivo de la opción de la creación de la propia empresa. No obstante, la formación específica en creación de empresas debe ser positivamente valorada, ya que las estudiantes y emprendedoras de SEDESO que han recibido este tipo de formación manifiestan una actitud más favorable hacia el autoempleo. sin embargo, somos conscientes de que también podría presentarse un problema de causalidad inversa, ya que es posible que los estudiantes con mayor inclinación al autoempleo hayan buscado profundizar en su formación hacia la creación de empresas en mayor proporción que los demás estudiantes. Por otro lado, los estudiantes con familiares directos empresarios han presentado actitudes más positivas hacia la actividad empresarial, y ciertos rasgos psicológicos como la necesidad de logro, la tolerancia a la ambigüedad y la propensión al riesgo, medidos a través de un test de personalidad, cuyos ítems se han operativizado a través de un análisis factorial, se han presentado como determinantes de la actitud emprendedora. Derivado de las limitaciones reconocidas en este trabajo de investigación, se ha considerado una posible ampliación del mismo a través de varias futuras líneas de investigación. Se considera que se puede profundizar en el estudio del perfil psicológico del emprendedor, examinando nuevos o distintos rasgos de personalidad, y contrastando la teoría de los rasgos psicológicos con la de los valores personales, para tratar de establecer la capacidad explicativa de cada una de ellas y si estas son complementarias. Dado que la población considerada es limitada a una carrera y al caso específico de una única universidad, sería interesante tratar de ampliar el contexto del estudio a otras carreras y otras universidades, incluso en diversos entornos geográficos, para poder conocer si los resultados son generalizables. Finalmente, sería interesante plantear un estudio longitudinal para ver cómo varía el espíritu emprendedor en los mismos estudiantes a lo largo de su carrera, en lugar de realizar el análisis de corte transversal con estudiantes diferentes.

En el ámbito de la universidad podemos encontrar personas con enorme potencial para emprender, que por su alta capacitación sus empresas podrían tener mayor probabilidad de supervivencia, especialmente si el objeto de sus Revista Científica

55


Bibliografía

+

ALLEN, I. (2008). “2007 Report on Women and Entrepreneurship”, Global Entrepreneurship Monitor (GEM), The Center for Women Leadership, Babson College, Global Entrepreneurship Research Association (GERA). http://www.gemconsortium.org

+

ANZOLA, SÉRVULO (2003). Evento “El impacto de la cultura emprendedora”. De: http://produccionintelectual.nur.edu/ archivos/emprendedurismo.pdf

+

ARRIBAS, F. I. Y VILA, G. J. (2004). “La actitud emprendedora del universitario Valenciano”, en Roig, S.; Ribeiro, D.; Torcal, R.; De la Torre, A.; Cerver, E. (2004): “El emprendedor innovador y la creación de empresas de I+D+I”. Servei de Publicacións Universitat de Valencia, cap. 12, pp. 201-212.

+BENAVIDES, M. Y SÁNCHEZ, I.

(2004). “El estudiante universitario como emprendedor: un análisis cualitativo desde la perspectiva de los diferentes agentes implicados”, en Roig, S.; Ribeiro, D.; Torcal, R.; De la Torre, A.; Cerver, E. (2004): “El emprendedor innovador y la creación de empresas de I+D+I”. Servei de Publicacións Universitat de Valencia, cap. pp. 24, 403-419.

+

BIRD, B. J. (1989). “Entrepreneurial behaviour”, Glenview, IL; Scout, Foresman.

+BROCKHAUS, R. H. Y NORD, W. R.

(1979). An exploration of factors affecting the entrepreneurial decisions personal characteristics vs. environment conditions”, Proceedings of the National Academy of Management, pp. 364-368.

+

BROCKHAUS, R. H. (1980). “Risk taking propensity of entrepreneurs” Academy of Management Journal., vol. 23 (3), pp. 509-520.

+

BROCKHAUS, R. H. (1982). “The psychology of the entrepreneur”, en Kent, D.; Sixton, D.; Vesper, K. (Eds), Encyclopedia of entrepreneurship, Englewood Cliffs, NJ: Prentice Hall.

+

BROCKHAUS, R. H. Y HORWITZ, P. (1986). “The psychology of the entrepreneur”, en Sixton, D. L.; Smilor, R. W. (Eds.),

56

Revista Científica

The art and science of entrepreneurship, pp. 25- 48. Cambridge, MA: Ballinger.

+

CANO, C. J.; GARCÍA, J. Y GEA, A. B. (2004). “Actitudes emprendedoras en los estudiantes universitarios”, en Roig, S.; Ribeiro, D.; Torcal, R.; De la Torre, A.; Cerver, E. (2004): “El emprendedor innovador y la creación de empresas de I+D+I”. Servei de Publicacións Universitat de Valencia, cap. 9, pp. 143-160.

+

CARLAND, J. W.; CARLAND, A. C. Y ABY, C. D. (1989). “An assessment of psychological determinants theory of entrepreneurship” International of small business management, vol. 7 (4), pp. 23-34.

+

CEPAL (2006). “La Transformación productiva 20 años después. Viejos problemas, nuevas oportunidades”, Santiago de Chile.

+COLE, A. H. (1959). “Business enter-

prise in its social setting.,: Harvard University Press. Cambridge, Mass.

+

CONCHA, A.; ÁLVAREZ, C. Y SÁEZ, E. (2004). “Programa de formación de emprendedores en la Universidad de Concepción” en Roig, S.; Ribeiro, D.; Torcal, R.; De la Torre, A.; Cerver, E. (2004): “El emprendedor innovador y la creación de empresas de I+D+I”. Servei de Publicacións Universitat de Valencia, cap. 18, pp. 311-322.

+

COOPER, A. C. Y DUNKELBERG, W. C. (1987). “Entrepreneurial research: old questions, new answers and methodological issues”, American Journal of Small Business, vol. 11 (3), pp. 11-21.

+

CRANT, J. M. (1996). “The proactive personality scale as a predictor of entrepreneurial intentions”, Journal of Small Business Management, vol. 34 (3), pp. 42-49.

+

DJANKOV, S. (2006). Entrepreneurship in China and Russia Compared, Journal of the European Economic Association. Vol. 4 No. 2-3, pp. 352-365.

+

DYER, W.G. (1994). “Toward a theory of entrepreneurial careers”, Entrepreneurship Theory and Practice, vol. 19 (19), pp. 7-21.

+ENTRIALGO, M.; FERNÁNDEZ, E.

Y VÁZQUEZ, C. J. (1999a). “El perfil em-

presarial y la participación en el capital: un estudio para el empresario español”, Revista Europea de Dirección y Economía de la Empresa, vol. 8 (3), pp. 81-92.

+

ENTRIALGO, M.; FERNÁNDEZ, E. Y VÁZQUEZ, C. J. (1999b). “Las características del propietario / directivo de la PYME como factores determinantes de su comportamiento emprendedor”, Boletín de estudios económicos, vol. LIV (168), pp. 405-424.

+

FLETCHER, M. (1999). “Promoting business Star-ups: a new strategic formula”, University of Strathclyde, Glasgow.

+

GALLOWAY, L. Y BROWN, W. (2002). “Entrepreneurship education at University: a driver in the creation of high growth?”, Education and training, vol. 44 (8/9), pp. 398-405.

+

GARTNER, W. B. (1989). “Who is an entrepreneur? Is the wrong question”, Entrepreneurship Theory and Practice, vol. 13 (4), pp. 47-68.

+

GONZÁLEZ, M. O. (2001). “Actitudes y motivaciones hacia el trabajo y la creación de empresas según el género”, Boletín económico de ICE, No. 2709.

+

GREBEL, T.; PYKA, A. Y HANUSCH, H. (2001). “An evolutionary approach to the theory of entrepreneurship”, Industry and innovation, vol. 10 (4), pp. 493-514.

+

GUPTA, A. K. Y GOVINDARAJAN, V. (1984). “Business unit strategy, managerial characteristics and business unit effectiveness at strategy implementation”, Academy of Management Journal, vol. 27 (1), pp. 25-41.

+

HAIR, J. F.; ANDERSON, R. E.; TATHAM, R. L. Y BLACK, W. C. (1999). “Análisis multivariante” Prentice Hall Iberia, Madrid.

+

HORNADAY, J. A. Y BUNKER, C.S. (1970). “The nature of entrepreneur”, Personnel Psychology, 24 (11), pp. 47-54.

+

HORNADAY, J. A. Y ABOUD, J. (1971). “Characteristics of successful entrepreneurs” Personnel Psychology, vol. 24 (2), pp. 50-60.

+

HORNADAY, R. W. (1992). “Thinking about entrepreneurship: A fuzzy set approach”, Journal of Small Business Ma-


nagement, vol. 30 (4), pp. 12-23.

+JO, H. Y LEE, J. (1996). “The relationship

between an entrepreneur’s background and performance in new venture”, Technovation, vol. 6 (4), pp. 161-171.

+KANTER, R. (1977). “Men and Women in

Corporation”.New York. Basic Books.

+

KIRZNER, I. M. (1973). “Competition and entrepreneurship”, The University of Chicago Press.

+

KISH, L. (1995). “Survey sampling”, John Willey and Sons, New York.

+

KORUNKA, C.; FRANK H.; LUEGER, M. Y MUGLER, J. (2003). “The entrepreneurial personality in the context of resources, environment, and the start up process - A configurational approach”, Entrepreneurship Theory and Practice, vol. 28 (1), pp. 23-42.

gación de mercados” McGraw Hill, Madrid.

+MILLER, D. Y TOLOUSE, J. M. (1986).

“Chief executive personality and corporate strategy and structure in small firms”, Management Science, vol. 32, (11), pp. 1389-1409.

+MITCHEL, T. F. Y KNUDSEN, B. R.

(1986). “Instrumentality theory prediction of students’ attitudes towards business and their choice of business as an occupation”, Academy of Management Journal, vol. 16 (1), pp. 41-52.

+MONTAÑO, S. (2005). “Movimientos

Sociales. El Feminismo”. Proyecto regional de Análisis Político y escenarios Prospectivos en América Latina. (PEPEP-RBLAC-PNUD). Buenos Aires.

+MORIANO, J. A.; SÁNCHEZ, M. L. Y PA-

M. (2004). “Entrepreneurship”, 6th edition, Thompson, South Western.

LACÍ, F.J. (2004). “Un estudio descriptivo sobre los emprendedores en España, la República Checa y Bulgaria”, en Roig, S.; Ribeiro, D.; Torcal, R.; De la Torre, A.; Cerver, E. (2004): “El emprendedor innovador y la creación de empresas de I+D+I”. Servei de Publicacións Universitat de Valencia, cap.10, pp. 161-178.

+LEE, D. Y. Y TSANG, E. W. K. (2001).

+MORRIS, M. (1998). “Entrepreneurial

+KURATKO, D. F. Y HODGETTS, R.

“The effects of entrepreneurial personality, background and network activities on venture growth”, Journal of Management Studies, vol. 38 (4), pp. 583-602.

+LEIVA, J. C. (2004). “Estudio exploratorio

de la motivación emprendedora en el ITCR, en Roig, S.; Ribeiro, D.; Torcal, R.; De la Torre, A.; Cerver, E. (2004): “El emprendedor innovador y la creación de empresas de I+D+I”. Servei de Publicacións Universitat de Valencia, cap.19, pp. 323-339.

+

LORSCH, J. W. Y MORSE, J. J. (1974). “Organisations and their members: a contingency approach”, Harper y Row, New York.

intensity: sustainable advantages for individuals organizations and societies”, Quorum Books, Westport, CT.

+

MOSS Y SAUNDERS, C. (1987). “The Asset Vulnerability Framework: Reassessing Urban Poverty Reduction Strategies”, World Bank, Washigton.

+

PETERMAN, N. E. Y KENNEDY, J. (2003). “Enterprise Education: Influencing Students’ Perceptions of Entrepreneurship”, Entrepreneurship Theory and Practice, vol. 28 (2), pp. 129-144.

+ROBBINS, S. P. (1999). “Comportamiento

+MCCLELLAND, D. C. (1961). “La so-

organizacional”, Prentice Hall, 8a. Edic. México.

+

ROBINSON, P. B. Y SEXTON, E. A. (1994). “The efect of education and experience of self-employment success”, Journal of Business Venturing, vol. 9 (2), pp. 141-156.

ciedad ambiciosa”, Ediciones Guadarrama, Madrid.

MESCON, T. S. Y MONTANARI, J. R. (1981). “The personalities of independent and franchise entrepreneurs, an empirical analysis of concepts”, Journal of enterprise management, vol. 3 (2), pp. 413-417.

+

MIQUEL, S.; BIGNÉE, E.; LEVY, J.; CUENCA, A. Y MIQUEL, M. J. (1997). “Investi-

+

+ROBINSON, P. B.; STIMPSON, D. V.;

HUEFNER, J. C. Y HUNT, H. K. (1991). “Anattitude approach to the prediction of entrepreneurship”, Entrepreneurship Theory and Practice, vol. 15 (4), pp. 13-31.

+

ROTTER, J. B. (1966). “Generalized expectancies for internal versus external control of reinforcement”, Psychological Monographs, Whole No. 609.

+

RUBIO, E. A; CORDÓN, E. Y AGOTE, A. L. (1999): “Actitudes hacia la creación de empresas: un modelo explicativo”, Revista Europea de Dirección y Economía de la Empresa, vol. 8 (3), pp. 37-51.

+

SÁNCHEZ-APELLÁNIZ, M. (2003). “Políticas de igualdad de oportunidades entre hombres y mujeres en la junta de Andalucía”. España: Instituto Andaluz de Administración Pública.

+

SCOTT, M. Y TWOMEY, F. (1988). “The longterm supply of entrepreneurs: students’ career aspirations in relation to entrepreneurship”, Journal of Small Business, vol. 26 (4), pp. 5-13.

+

SCHEIN, E. H. (1990). “Carer anchors: Discovering your real values”, University Associates. San Diego, CA.

+

SCHERER, R.; BRODZINKY, J. Y WIEBE, F. (1991). “Examining the relationship between personality and entrepreneurial carer preference”, Entrepreneurship and development, vol. 3 (2), pp. 195-206.

+

SINGH, G. Y DE NOBLE, A. (2003). “Views on self-employment and personality: An exploratory study”, Journal of Development Entrepreneurship, vol. 8 (3), pp. 265-281.

+

STUART, R. W Y ABETTI, P. A. (1990). “Impact of entrepreneurial and managerial experience on early performance”, Journal of Business Venturing, vol. 5, pp. 151-162.

+

THOMPSON, P. (1986). “Characteristics of the small business entrepreneur in Canada”, Journal of Small Business and Entrepreneurship, vol. 4 (1), pp. 5-11.

+

VECIANA, J. M. (1989). “Características del empresario en España”, Papeles de economía española, núm. 39/40.

+

YUSUF, A. (1995). “Critical success factors for small business: perceptions of South Pacific entrepreneurs”, Journal of Small Business, vol. 23 (2), pp. 68-63.

Revista Científica

57


LOS INGRESOS ORDINARIOS D E L M U N I C I P I O S I N A LO E N S E :

SU IMPACTO EN EL DESARROLLO REGIONAL

Julio César Rodríguez Valdez1, Raúl Portillo Molina2 y Luis Roberto López Cárdenas3

Universidad de Occidente, Unidad Guasave. Avenida Universidad, s/n, Fraccionamiento Villa Universidad, Guasave, Sinaloa, México, C.P. 81048. 1,2,3

jcrvaldez@prodigy.net.mx raulportillomolina@gmail.com l_lopez_cardenas@hotmail.com

Resumen: Hoy en día, el país atraviesa por grandes retos, económicos, sociales, financieros y de otras índoles, México cuenta con 2 mil 440 municipios, Sinaloa, la unidad de análisis con 18. La investigación consiste en hacer una medición de la eficacia o ineficacia con que opera la potestad que otorga la Constitución Política Mexicana a esta esfera jurídica, en materia de recaudación fiscal propia, y compararla con las aportaciones y participaciones federales, hallazgos que justifica el nivel de atraso de algunos ayuntamientos, la entrevista a los directores de ingresos de los principales municipios del estado, el análisis de la base de datos del Instituto Nacional de Estadística y Geografía (INEGI), así como la aplicación de la estadística inferencial no paramétrica por medio de la chi cuadrada x2 para probar la hipótesis nula, se llega a la conclusión del porqué del rezago en que se encuentran varios ayuntamientos del estado.

+

Palabras clave: Ingresos propios, participaciones y aportaciones federales, esfuerzo fiscal y desarrollo.

Recibido: Octubre 31, 2016. Recibido en forma revisada: Enero 27, 2017. Aceptado: Mayo 22, 2017.

58

Revista Científica


Abstract: Our country today is experiencing great challenges, economic, social, financial and other indoles, Mexico has 2,440 municipalities in the country, Sinaloa, the analysis unit 18; the research is to make a measurement of the effectiveness or ineffectiveness with operating the power granted by the Mexican Constitution to the legal sphere, in terms of own tax revenue and compare it with the contributions and federal contributions, findings that justify the level of backwardness some municipalities, the interview principals income of the main municipalities in the state, the analysis of the database of the National Institute of Statistics and Geography (INEGI), and the application of inferential statistics nonparametric through chi cuadrada x2 to test the null hypothesis, it is concluded why the lag in which there are several municipalities in the state.

+ Keywords: Own income, participations and federal contributions, tax effort and development. Introducción Los avances en la autonomía municipal se traducen como detonantes para el fortalecimiento de la hacienda pública. No obstante, los municipios en México dependen en gran medida de las transferencias y participaciones de los niveles de gobierno, Federación y estados. Se busca examinar la estructura de los ingresos de cinco de los municipios más importantes de Sinaloa en el periodo de 2010 al 2012 y comparar los ingresos directos con aquellos que provienen de los convenios de coordinación fiscal. Por medio de la investigación de la base datos del estado y del Instituto Nacional Geografía e informática (INEGI), se hará el análisis e interpretación de los resultados e inferirá con los juicios de las entrevistas de funcionarios del gobierno; con el estudio, se pretende determinar si existe desequilibrio y vulnerabilidad que impida el desarrollo regional municipal y las formas de abatirlo. Fijación de objetivos: Analizar el impacto de los ingresos directos municipales y las participaciones y aportaciones federales del municipio sinaloense.

- -

Describir la correlación que existe entre las transferencias y participaciones que emanan de la Federación y los ingresos ordinarios.

-

Hacer pruebas estadísticas no paramétricas de la relación entre ingresos propios y del gobierno central.

Marco teórico La legalidad tributaria de los impuestos municipales emana desde la misma Carta Magna, facultando y asignando responsabilidades a los tres niveles de gobiernos para el cumplimiento de su función pública. El artículo 115 Constitucional es el precepto legal que contempla más ordenanzas a favor del municipio mexicano, en este se señalan las obligaciones y derechos que se le han conferido. La fracción IV del 115, lo faculta para administrar libremente su hacienda, la cual se formará de los rendimientos de los bienes que les pertenezcan, así como de las contribuciones y otros ingresos que las legislaturas establezcan a su favor (Congreso de la Unión, 2015). La legalidad de la diversidad de tributos existentes en el tercer nivel de gobierno, procede al darle facultades para percibir las contribuciones que establezcan los estados sobre la propiedad inmobiliaria, de su

fraccionamiento, división, consolidación, traslación y mejora, así como las que tengan por base el cambio de valor de los inmuebles. En ese mismo esquema, el artículo 31 de la Constitución Política Mexicana “De las obligaciones de los mexicanos”, en su fracción IV, señala la obligación de “contribuir para los gastos públicos, así de la Federación, como del Distrito Federal o del Estado y Municipio en que residan, de la manera proporcional y equitativa que dispongan las leyes”. En tanto, en su artículo 73, “De las facultades del Congreso”, concede al Congreso de la Unión, en su fracción VII, “…imponer las contribuciones necesarias a cubrir el presupuesto” (Congreso de la Unión, 2015).

Hipótesis y variables La hipótesis planteada en el presente proyecto es: El fortalecimiento y el esfuerzo fiscal de los ingresos directos municipales, u otras fuentes detonan el desarrollo regional.

Siendo las variables independientes el fortalecimiento y esfuerzo fiscal de ingresos directos u otras fuentes y variables dependientes la promoción del desarrollo regional.

Metodología de la investigación La investigación documental es un procedimiento científico, un proceso sistemático de indagación, recolección, organización, análisis e interpretación de información o datos en torno a un determinado tema. Al igual que otros tipos de investigación, este es conducente a la construcción de conocimientos (Morales, 2003). Por lo anterior, esta investigación se caracterizará por ser un trabajo sistemático, objetivo, producto de la lectura, análisis y síntesis de la información producida por el INEGI, en su apartado de Finanzas Públicas Estatales y Municipales del 2010 al 2012, con la finalidad de emerger una nueva información con el sello de los autores. Esta investigación no tiene como premisa la de aprobar u objetar los montos asignados a cada entidad federativa, mucho menos a los gobiernos locales. El fin que se persigue es el de analizar las cifras mostradas y describir el comportamiento de los conceptos de ingresos de cada nivel de gobierno, enfocando el estudio a los municipios del estado de Sinaloa. Entonces, lo anterior permite señalar que se retomará el enfoque de investigación documental expositiva debido a que se indagará sobre la variación de los ingresos mostrados en el periodo de 2010 a 2012. Sin embargo, al retomar el uso de las herramientas de la estadística descriptiva, como la tabulación simple, tabulación cruzada, la chi cuadrada x2, la estadística no paramétrica, para probar las hipótesis nulas, marcan la pauta para poder señalar que el enfoque de esta investigación es cuantitativo, no experimental y descriptivo, este último por describir una situación dada, en este caso el comportamiento de los ingresos ordinarios del municipio mexicano y la importancia para el desarrollo regional. En los estudios cualitativos la recolección de los datos consiste en ingresar al ambiente que dé respuesta a los objetivos previamente trazados, por medio de entrevistas, cuestionario no estructurado, observación, etc., para obtener la información que requiera la investigación.

Revista Científica

59


Creswell, citado en Hernández, Fernández y Buptista (2010), señala que la muestra en los enfoques cualitativos es “tentativa” y que se sujeta a la evolución de la investigación, el presente trabajo de investigación se desprende de dicha precisión al destacar con claridad, cuáles son los objetivos y el alcance de la misma, se requiere informantes de fuentes primarias donde se genera la información del comportamiento de los ingresos propios de los principales municipios del estado de Sinaloa: Culiacán, Mazatlán, Ahome, Guasave y Salvador Alvarado; por ello, se pretende entrevistar a los directores de ingresos de los ayuntamientos señalados para obtener la información necesaria y en el apartado de la discusión contrastar con los datos encontrados en la fuente del Instituto Nacional de Estadística y Geografía (INEGI, 2010; INEGI, 2011; INEGI; 2012).

Resultados Fue necesario ir en la búsqueda de cifras de los ingresos de los municipios en Sinaloa; para ello, se utilizó la base de datos INEGI como fuente principal y confiable por tratarse de un organismo público con autonomía técnica y de gestión, de donde se obtuvo información de las Finanzas Públicas de los periodos de 2010 al 2012. La parte medular de este análisis radica en identificar los ingresos propios de los periodos antes señalados y la relación que guardan con las participaciones y aportaciones federales, de los principales municipios, para determinar el grado de dependencia económica del gobierno central, y en consecuencia mostrar la ineficacia recaudatoria en los ingresos propios de los municipios estudiados, que afecta el desarrollo regional, aunque al final de manera ponderada se determina un resultado de todo el estado.

política pública, micro o macroeconómicos. Los ingresos propios en sus diferentes conceptos cayeron en un 22.43% de 2010 a 2011, representados por $749,292,145 pesos; no obstante, para 2012, comparado con 2010, se redujo la caída a $309,557,238 pesos, representado por 9.26%, de los ingresos totales. Tabla 3.

La base de datos de INEGI presenta información importante acerca del comportamiento de los ingresos por conceptos de los años 2010, 2011 y 2012, mostrada en la Tabla 1, Tabla 2, y Tabla 3, respectivamente, y resaltados los municipios que constituyen las unidades de análisis para el trabajo de investigación, insumo necesario para hacer la comparación con los ingresos por concepto de aportaciones y participaciones federales de los mismos periodos y de los ayuntamientos mencionados. A continuación, se analizan los cuadros estadísticos en la Tabla 4, Tabla 5 y Tabla 6, que corresponden a los años 2010, 2011 y 2012, respectivamente, las cuales muestran la información relativa a las aportaciones y participaciones federales recibidas en el estado, de cada uno de los municipios. Tabla 4.

La Tabla 1 muestra los ingresos del año 2010, se resaltan los municipios con mayores ingresos y uno pequeño para el análisis, con el fin de que exista mayor representatividad. Tabla 1.

Tabla 5.

La Tabla 2 indica los ingresos por municipios en sus diferentes conceptos, en el año 2011; de igual forma, se resaltan aquellos municipios que son las unidades de análisis para inferir hacia el resto de los municipios del estado; por último, las estadísticas de ingresos del año 2012 se encuentran en la Tabla 3, consistentemente haciendo hincapié a los municipios estudiados. Tabla 6. Tabla 2.

Aun, cuando no es parte de la investigación, un dato que emerge para futuras investigaciones es el comportamiento de los ingresos propios en los años estudiados, quizás movidos por indicadores, climatológicos, de 60

Revista Científica

Con la anterior información se construyen la Tabla 7, Tabla 8 y Tabla


9, que muestran un comparativo de los ingresos propios versus las aportaciones y participaciones federales de los municipios estudiados correspondiente a 2010, 2011 y 2012, respectivamente. Tabla 7.

Tabla 8.

Tabla 9.

En el caso del municipio de Ahome, en 2010, de cada peso ingresado aproximadamente 60 centavos son de la federación, y la dependencia crece a 67 centavos para 2011. Es importante mencionar que en el año 2012, el esfuerzo fiscal atrajo mayor recaudación propia, bajando la proporción de la federación al 58%, esto ocurrió en la administración del C. Zenén Aarón Xóchihua Enciso, fue el rubro de los aprovechamientos en 2012, por alrededor de $190,369,237 pesos, lo que despejó la fórmula de la dependencia de la federación; en el trabajo de campo se entrevistó al C. Daniel García León, Director de ingresos de la actual administración, para conocer la tendencia y el comportamiento de los ingresos de ese municipio, y se encuentra que la estructura humana actual para el cobro de los tributos propios requiere de un reingeniería en todas las etapas, desde la planeación de cobro hasta la ejecución legal a los morosos del tributo, es decir el remate. Aun así, en sus propias palabras, existe eficiencia en la recaudación en la presente administración. En el municipio de Culiacán, la estadística señala que en el año 2010 de cada peso que ingresó a las arcas 52 centavos fueron del orden federal, para 2011 la dependencia económica federal crece a 58 centavos por peso y para 2012 se mantiene en 57 centavos de cada peso, lo que significa que este municipio logra un equilibrio económico al estar casi, uno a uno en cada peso, que se invierte en el gasto público. Es el municipio de mayor importancia por los ingresos recaudados. La administración pública en el periodo del análisis estuvo a cargo de varios personajes: C. Francisco Antonio Castañeda Verdugo (2010), Carlos David Ibarra Félix (2010-2011), Héctor Melesio Cuén Ojeda (2011-2012), José Manuel Osuna Lizárraga (parte de 2012) y Aarón Rivas Loaiza (2012); en la presente administración se entrevistó a la C.P. Rosa Isela Gastélum, Directora de Ingresos, con una experiencia de 18 años en la función pública, quien señala que en la actualidad la dependencia se sitúa en 48/52, es decir 48 centavos de ingresos propios contra 52 centavos de la federación, por lo que el comportamiento de los ingresos mantiene la misma tendencia de las cifras estadísticas investigadas publicadas por el INEGI. Este municipio es mayormente potenciado con la inversión, Revista Científica

61


y el desarrollo de la región es evidente; no obstante, falta mucho por avanzar y ser más eficiente en la recaudación fiscal para comprometer una fórmula más avanzada. El municipio de Guasave, una zona geográfica privilegiada por la agricultura, en el año 2010, el comportamiento de los ingresos se mantienes 38/62, lo que muestra la dependencia elevada de los ingresos federales; es decir, de cada peso ingresado 62 centavos provienen del gobierno federal. Para 2011 la dependencia económica crece a 70 centavos por peso, y solo en el año 2012 regresa a 62 centavos, parecido a 2010; cabe destacar que la administración pública del municipio en ese periodo estuvo a cargo de los C. Jesús Burgos Pinto (2010), Ramón Barajas López (20112013), no obstante en la actualidad en voz del Director de Ingresos, Arnoldo Ayón Bajo, en entrevista manifiesta, que la eficiencia recaudatoria es del 40 por ciento de la base tributaria y del 35 por ciento en la zona suburbana, aunque reconoce que existe un importante rezago de 2013 hacia atrás; la dependencia de las aportaciones federales es demasiado elevada, sin embargo, según expresa, se está haciendo un esfuerzo fiscal para subir el ingreso propio y en consecuencia aspirar a mayores recursos de la federación. De los municipios estudiados, Mazatlán es quien genera mayores ingresos propios, en 2010, 50/50, lo que significa que del gasto público en el municipio, la mitad son recursos propios recaudados y el resto provienen del gobierno central; para 2011 la eficiencia recaudatoria se reduce a 46 centavos de ingresos propios, y para 2012 en 45 centavos. En la presente administración del C. Carlos Eduardo Felton González, se entrevistó al C. Sergio Antonio Sánchez Ávila, Director de Ingresos del municipio, haciendo hincapié que solo en 2014 los ingresos por concepto de participaciones estatales y federales no rebasaron los ingresos propios que recaudo el municipio, señala que el impacto en la eficiencia recaudatoria se debe a la simplificación administrativa en el cobro de los tributos

to predial, por tratarse de un destino turístico de escala mundial.

Finalmente, el municipio de Salvador Alvarado presenta la proporción de 33/67 para el año 2010, lo que muestra una dependencia elevada de los recursos federales, para 2011 es todavía mayor la dependencia, de cada peso que ingresó, 77 centavos provienen del gobierno central y para 2012 salta a 80 centavos por cada peso de ingreso municipal, en palabras de la C. Beatriz Angulo León, Directora de ingresos del municipio, paradójicamente la cultura de pago de impuestos es elevada, en consecuencia los ingresos propios que entre los años 2013 y 2014 incrementaron en 2.28 millones de pesos; no obstante, no repercutió en la proporción ingresos propios versus participaciones federales debido a otros factores de la fórmula distributiva aplicada en el marco del Fondo Municipal de Participaciones. En sus palabras, expresa que para 2014 se contabilizaron 18 centavos como ingresos propio, lo que se traduce como un municipio altamente dependiente de los recursos federales y la cifra muy cercana a las estadísticas diseñadas por el INEGI. Se determina un ponderado por año del estado en general, solo como dato informativo que no interviene en la investigación (Tabla 10). Tabla 10.

La información revela que, en términos generales, en al año 2010, la proporción se mantiene en 45 centavos de ingresos propios; en 2011, baja drásticamente a 38 centavos de ingresos recaudados y se recompone para 2012 en 41 centavos de cada peso contabilizado en el estado, dato relevante que denota la necesidad de los ayuntamientos de hacer mejor su trabajo para eficientar el ingreso propio y hacer un esfuerzo fiscal para ir en busca de mejores participaciones y aportaciones de los gobiernos estatales y federal. Del análisis de los datos de la entrevista se crearon categorías y de acuerdo a las variables contempladas en las preguntas y objetivos de investigación, se ofrece respuesta al problema de la investigación. Analizadas, las variables de la entrevista, se procede a la codificación y captura en el programa análisis estadístico Dyane V.4.0. En las medidas de asociación o correlación, la prueba más usada para medir la asociación entre variables es la chi cuadrada o x2, la cual sirve para determinar si existe asociación entre ambas variables o varían en forma concomitante, pero sin conocer la intensidad de la relación; se calcula por medio de una tabla de contingencia o doble entrada, donde a cada dimensión le corresponde una variable lo que a su vez se divide en dos a mas categorías (Fassio, Pascual y Suárez, 2006).

municipales, incremento en las oficinas de cobro y a la amplia difusión del gobierno municipal para motivar el cumplimiento de los impuestos locales; es menester señalar que la base tributaria de la zona es de las más elevadas en cuanto a valuación de superficie para pago del impues62

Revista Científica


Tabla 2. Cuadro de códigos.

Tabulaciones simples Variable 1: ¿Cuál es la proporción que guarda el ingreso propio del municipio contra las participaciones y aportaciones federales?

De toda política pública de los gobiernos en todos sus niveles la más impopular son los impuestos, aunque existe grandes estudios de la cultura fiscal, en el estado de Sinaloa, los contribuyentes muestran interés por el cumplimiento de sus obligaciones, no obstante, aún hace falta por hacer. En Guasave y Mazatlán se muestra desinterés y castigo al gobierno por la obra pública, o escasa o de mala calidad, 40 por ciento en ambos casos, información relevante, resultado de la entrevista a los encargados de recaudar el tributo. Variable 4: ¿Cuál es la eficiencia recaudatoria de los impuestos propios a la fecha (junio 2016)?

Tabla 15. Eficiencia recaudatoria. Tabla 12. Proporción de ingresos municipales. Cabe destacar que del resultado de la entrevista, a los funcionarios públicos encargados de la Dirección de Ingresos de los cinco municipios coinciden en que solo dos ayuntamiento están casi en la proporción 50/50, es decir, de cada peso que se contabiliza como ingreso 50 centavos son ingresos propios, caso de Culiacán y Mazatlán; los otros tres, y que en la tabulación representan el 60 por ciento, son Los Mochis, Guasave y Salvador Alvarado, y este último con cifras desalentadoras 20/80. Variable 2: ¿Cuáles son los principales factores que contribuyen a ser más eficientes en la recaudación municipal?

Tabla 13. Factores principales. Cuatro de los municipios estudiados le apuestan a la concientización y a cultura fiscal como medio para ser más eficaces en el cobro de los tributos y representan el 45 por ciento cada una de esas categorías; solo un municipio, Salvador Alvarado, ve como estrategia los incentivos de pago oportuno para ser mayormente competitivo en el cobro de los impuestos, representado por el 10 por ciento de las frecuencias. Desde luego que en materia de política tributaria municipal el esfuerzo obedece también a otros factores y toma de decisiones hacia dentro de la administración pública municipal.

De los cinco municipios estudiados, los más avanzados en cuanto a eficiencia en cobro de los impuestos municipales son Culiacán, Mazatlán y Los Mochis, incluso, este último con un avance del 70 por ciento de la base de contribuyentes, Salvador Alvarado apenas con un 40 por ciento; significa entonces, que independientemente de la base gravable, cada municipio ejerce su propia autonomía para llevar a cabo la colecturía de los impuestos que le son atribuibles a cada ayuntamiento.

Tabulación cruzada Aplicando la estadística inferencial, se empleó la chi cuadrada x2 para probar la hipótesis nula o alternativa; con información del programa estadístico V.H.O., y la captura del cuestionario aplicado a los informantes. Esta prueba de significancia, en términos de Levin y Levin (2001), permite al investigador social rechazar las hipótesis nulas Ho cuando estas sean falsas; la prueba no paramétrica se ha convertido en un instrumento eficaz en la investigación social, por la comparación entre dos o más muestras de las unidades de análisis. En el caso del trabajo de investigación, se pretende asociar o correlacionar la eficacia y el esfuerzo recaudatorio de las unidades municipales, para obtener mayores ingresos federales traducidos en un mejor desarrollo regional; con lo anterior, se plantea la siguiente hipótesis nula (Ho): Ho = Los municipios con indicadores ineficaces en la recaudación de impuestos propios, no obtienen una mayor participación de ingresos federales. Tabla 16. Resultados obtenidos.

Variable 3: ¿Qué provoca en el ciudadano del municipio alejarse del compromiso del pago de los impuestos?

chi Tabla 14. Causas para el incumplimiento del pago de impuesto. Revista Científica

63


Con los resultados obtenidos, y atendiendo literalmente el sentido de la hipótesis nula, todo indica que el axioma es aceptado; en el trabajo de investigación de análisis datos recopilados del INEGI y tabulaciones simples, se obtienen evidencias, donde queda de manifiesto que el 60 por ciento de los municipios son altamente dependientes de los fondos federales (variable 1), aunque el 80 por ciento tenga un avance en la recaudación del 60 por ciento aproximado (variable 4); el resultado del chi cuadrado obtenido indica que la hipótesis nula se acepta, debido a que el valor de la prueba 0.833 es menor que el valor crítico de15.507, lo que sugiere que un municipio con baja recaudación económica no puede aspirar a mayores ingresos vía participaciones y aportaciones federales, para ser devueltos a la sociedad en calidad de gasto público.

Consideraciones finales Una apreciación general del trabajo desarrollado, radica en que señalar que las administraciones municipales del estado de Sinaloa, esfera pública de mayor contacto con los ciudadanos, tienen el gran compromiso de ser mayormente competitivas para atraer recursos desde las vertientes que la constitución les confiere y sus propios ordenamientos jurídicos; en México, están formalmente establecidos las distribuciones de las competencias del gobierno central, los estados y los municipios, lo anterior para dar vida plena al estado federal, como para que queden delineados los patrones jurídicos en que se operarán. El análisis de un trienio deja de manifiesto, con números oficiales incorporados al INEGI, la gran dependencia de los recursos federales de las esferas municipales, lo que hace que el desarrollo económico y de mejores condiciones de vida de las regiones se ralentice, provocando pobreza, rezago social, marginación, pobreza alimentaria y patrimonial. El planteamiento del problema, donde sugiere la afirmación tentativa de que a mayores ingresos ordinarios del municipio, detona el desarrollo regional, quedó de manifiesto al rechazar la hipótesis nula Ho con la prueba de la chi cuadrada, dando paso a la hipótesis alternativa sugerida en el trabajo investigado, pero por inverso. El estudio analítico y descriptivo de los ingresos contabilizados por el INEGI, del periodo 2010-2012, demuestra cuantitativamente los recursos otorgados por el gobierno central a los municipios estudiados; la entrevista personalizada a los directores de ingresos del mismos municipios corroboran la numerología analizada, por lo que se sugiere mayor esfuerzo fiscal y mayores indicadores en la fórmula de participaciones federales para alcanzar mayores recursos, y estos sean invertidos en las demandas de los ciudadanos, para lograr un desarrollo sostenido en las regiones del estado. El tema del gasto no es objeto de presente trabajo; no obstante, queda abierto a futuras investigaciones.

64

Revista Científica

Bibliografía

+

Fassio, A; Pascual, L. y Suárez, F. (2006). Introducción a la metodología de la investigación, 2ª edición. Buenos Aires: Macchi.

+

Congreso de la Unión (2015). Cámara de Diputados del H. Congreso de la Unión. Recuperado el 22 de Junio de 2015, de Constitución Política de los Estados Unidos Mexicanos: http:// www.diputados.gob.mx/LeyesBiblio/pdf/1_270515.pdf

+

Hernández, Roberto; Fernández, Carlos y Baptista, Pilar (2010). Metodología de la investigación. México. Mc Graw Hill.

+

INEGI (2010). Instituto Nacional de Estadística, Geografía e Informática. Recuperado el 26 de Mayo de 2015, de Finanzas Públicas Estatales y Municipales: http://www3.inegi.org.mx/sistemas/tabuladosbasicos/tabtema.aspx?s=est&c=27565

+

INEGI (2011). Instituto Nacional de Estadística, Geografía e Informática. Recuperado el 26 de Mayo de 2015, de Finanzas Públicas Estatales y municipales: http://www3.inegi.org.mx/sistemas/ tabuladosbasicos/tabtema.aspx?s=est&c=27565

+

INEGI (2012). Instituto Nacional de Estadística, Geografía e Informática. Recuperado el 26 de Mayo de 2015, de Finanzas Públicas Estatales y Municipales: http://www3.inegi.org.mx/sistemas/tabuladosbasicos/tabtema.aspx?s=est&c=27565

+

Levin, Jack y Levin, Williams (2001). Fundamientos de estadistica en la investigacion social. Mexico. Ed. Offset visionary.

+

Morales, O. A. (2003). Fundamentos de la Investigación Documental y la Monografía. Manual para la elaboración y presentación de la monografía”. Mérida, Facultad de Odontología de la Universidad de Los Andes.


Revista CientĂ­fica

65


Cnidoscolus chayamansa y su calidad nutricional

Laura Gloria García García1 e Ignacio García Martínez2

Grupo Brioproductos y Medioambiente. Tecnológico de Estudios Superiores de Ecatepec. Av. Tecnológico y Hank González, Ecatepec de Morelos, C.P. 55210, Estado de México, México. 1,2

dr_igm@yahoo.com.mx

Resumen: La cultura alimentaria de una nación define en forma palpable la visión propia del universo y proyecta los recursos naturales que han sido domesticados por los pobladores, estos productos son característicos de cada región geográfica y son característicos según la estación del año. Cnidoscolus Chayamansa, popularmente conocida como Chaya, es empleada en la región sureste de México como alimento por su alto valor nutricional, debido a que contiene proteínas, vitaminas, minerales, aminoácidos, ácidos grasos, flavonas y glucósidos cianogénicos. El presente trabajo, pretende dar una visión general de la importancia de Cnidoscolus Chayamansa como parte de la alimentación mexicana con potencial nutrimental y de bajo coste económico.

+

Palabras clave: Cnidoscolus chayamansa, chaya, nutrición, nutricional y propiedades nutritivas.

Recibido: Octubre 31, 2016. Recibido en forma revisada: Mayo 16, 2017. Aceptado: Mayo 22, 2017.

66

Revista Científica


Abstract: The food culture of a nation, definies palpably the own vision of the universe and proyect the natural resources that have been domesticated by the settles, these products are characteristic of each geographical region and are characteristic of the season. Cnidoscolus chayamansa, popularly known as chaya, is used in the southeast region of Mexico as food, for the high nutritional value, because it contains proteins, vitamins, minerals, amino acids, fatty acids, flavones and cyanogenic glycosides. The present work aims to give an overview of the important of Cnidoscolus chayamansa as part of the Mexican diet with nutritional potential and low economic cost.

+

Keywords: Cnidoscolus chayamansa, chaya, nutrition, nutritional and nutrient propierties.

Introducción La alimentación de una población depende de los recursos que se tengan al alcance, la geografía, el clima y la situación socioeconómica de la zona; sin embargo, las dietas evolucionan a lo largo del tiempo y son regidas por los ingresos, los precios, las preferencias personales, las tradiciones y creencias culturales. Según la Organización Mundial de la Salud (OMS), la dieta y la nutrición son factores importantes para la prevención de enfermedades no transmisibles crónicas. Entre las fundamentales causas que generan malnutrición se encuentran la pobreza y la falta de equidad (OMS, 2003). México, al igual que los países subdesarrollados, tiene una tasa elevada de crecimiento poblacional, sumado a factores climáticos y la sobre-explotación de los suelos que han puesto al extremo la seguridad alimentaria, que desde 1980 ha sido estimada y hasta ahora no ha sido abatida (Uicab-Pool y Balam-Gómez, 2014). Todo lo anterior obliga a encontrar nuevas fuentes de alimentación accesible que puedan complementar la dieta de cereales y leguminosas originarias del país. Una de las zonas más abundantes en recursos naturales es Mesoamérica; desde la antigüedad, se tiene registro de la domesticación de muchas plantas con altos valores nutricionales que son consumidas a nivel local o regional de forma tradicional, como el maíz (siendo este el de mayor consumo), frijol, calabaza, jitomate, cacao, agave y aguacate (Mera-Ovando, Alvarado-Flores, Basurto-Peña, Bye-Boetter, Castro-Lara, Evangelista, Mapes-Sánchez, Martínez-Alfaro, Molina y Saldívar, 2003; Maldonado, Pacheco, Avilés, Gallegos, López y Lara, 2015). Sin embargo, también se han domesticado y cultivado plantas útiles que, aun en estos días, no son conocidas fuera de la región en donde son cultivadas. Estas son regularmente conocidas en huertos familiares o cultivos de traspatio (Gisper Cuells, 1997), por lo tanto forman parte de la riqueza gastronómica de una región en específico, esta cocina tradicional ofrece varias ventajas en comparación con los productos industrializados modernos, todo ello agrega un valor cultural, biológico así como una relevancia para revalorizar la biodiversidad de forma sustentable (Cano y Ramos, 2015). La población mexicana no solo consume una diversa variedad de alimentos, sino que también utiliza un sinnúmero de plantas para tratar diversos malestares, lo que puede estar contribuyen-

do a la calidad de vida de la población (Maldonado, Pacheco, Avilés, Gallegos, López y Lara, 2015). Entre las plantas que han demostrado tener propiedades que pueden favorecer, tanto la alimentación como la salud del ser humano se encuentra el género Cnidoscolus. El presente artículo tiene por objeto proporcionar una visión a la importancia del consumo de Cnidoscolus Chayamansa en la alimentación de los habitantes de zonas rulares y su posible explotación.

Información etnobotánica del género Cnidoscolus Comúnmente conocida como la espinaca maya, pertenece al género Cnidoscolus de la familia Euphorbiacea que está formada por 50 especies, y 20 de ellas son endémicas de México, estando distribuidas a lo largo de las zonas tropicales y subtropicales, principalmente en regiones de selva baja caducifolia y en matorrales xerófilos del país (Jiménez-Arellanes, García-Martínez y Rojas-Tomé, 2014), cultivado en climas cálidos subhúnmedos ubicados de 0 a 1000msnm (Antonio, Esparza-Rivera, Morales, Oranday, Preciado-Rangel, Venezuela y Verde, 2015). Es un arbusto semiperenne y semileñoso que crece a una altura de entre cinco y seis metros, es una planta tolerante a condiciones ambientales adversas ya que es capaz de sobrevivir a lluvias fuertes y sequías intraestivales; requiriendo únicamente, suelos con buen drenaje para su crecimiento. Tiene hojas alternadas palmadamente lobuladas de aproximadamente 32 cm de largo y 30 cm de ancho, aunque el tamaño puede variar según las condiciones a las que crezca la planta, estas caen en tiempos de mucha sequía, posee savia lechosa y pequeñas flores blancas. Tradicionalmente Chidoscolus Chayamansa ha sido recomendada como laxante, estimulante de la circulación, mejoramiento de la digestión, efectos químio-preventivos (Kumarasamy, Nallaperumal, Natarajan y Nallamadan, 2014), diurético, endurecedor de las uñas, previene la anemia, combate la artritis, previene la descalcificación y es estimulante en la etapa de lactancia; en la medicina tradicional, el extracto acuoso de tallos, hojas y raíces es utilizado para el tratamiento de diversas enfermedades, como la obesidad, hemorroides, diabetes, disminución de en los niveles de lípidos, cálculos renales y problemas en los ojos, corazón y de acné. Regularmente es cultivada en huertos familiares o en traspatio, a menudo sembrada junto a otros cultivos. Las hojas, el pecíolo y los brotes son cosechados con fines alimenticios debido a su alto contenido en proteínas y hierro, siendo superior a las hojas de espinaca; también, es usada con fines de forraje (Ross-Ibarra, 2003; Torrico, Gabay, Suárez y Com-


pagnone, 2004; Camacho-Luis, Díaz-Cedillo y Ramos, 2009; Jimoh, Babalola y Yakubu, 2009; Aguilar, García, Hernández, Huerta, Macario y De Alba, 2010; Cifuentes y Bresanni, 2010; Miranda y Rodríguez, 2011; Sobrinho, Castro, Almeida, Tavares, Amorin y Saraiva, 2011; García-Rodríguez, Gutiérrez-Rebolledo, Méndez-Bolaina, Sánchez-Medina, Maldonado-Saavedra, Domínguez-Ortiz, Vázquez-Hernández y Cruz-Sánchez, 2014; Jiménez-Arellanes, García-Martínez y Rojas-Tomé, 2014; Rodríguez, 2015; Antonio, Esparza-Rivera, Morales, Oranday, Preciado Rangel, Valenzuela y Verde, 2015). La semilla, flores y la fruta madura son desconocidas y raras. Las flores son tubulares, blancas y unisex, las flores macho son de 6.7mm con 10 estambres, y las flores femeninas miden de 9-10mm con 3 capsulares y frutos sin semilla (Estrada, Guzmán, Marie, Suárez, Vázquez y Díaz, 2012). La Chaya es monoica, con flores masculinas y femeninas separadas, la floración es más común en los meses del verano (Ross-Ibarra, 2003).

Calidad nutricional En las últimas décadas la utilización de fuentes de proteínas de origen vegetal ha tomado gran importancia en la acuacultura, pues ha resultado ser más económica que aquellas de origen animal. En los mercados regionales se adquieren las hojas tiernas y frescas de esta planta, por su sabor agradable se consumen en una gran variedad de guisos comunes: tamales, caldo, con huevos, en tostadas, con frijoles, con carne, etc. (Rocha, 1998). Diversos estudios expresan que las hojas de Chaya poseen bajos niveles de factores anti-nutrientes, en especial glúcosidoscianogénicos (Poot-López, Gasca-Leyva y Olvera-Novoa, 2012); como se muestra en la Tabla 1, en la que se observa el alto contenido proteico.

Tabla 1. Compuestos de Cnidoscolus Chayamansa (Rocha, 1998). Además, se presentan altos niveles de aminoácidos (Poot-López, Gasca-Leyva y Olvera-Novoa, 2012) como: lisina, fenilalanina, metionina, treonina, leucina, isoleucina, valina, triptófano, arginina, histidina, triosina, cistina, ácido aspártico, serina, ácido glutámico, prolina, glicina y alanina (Rocha, 1998). Las hojas de Chaya secas pueden ser comercializadas como té, ya que conservan un alto contenido de polifenoles (Loarca-Piña, Mendoza, Ramos-Gómez y Reinoso, 2010). La Chaya ha sido objeto de diversos estudios comparativos, la composición química, en comparación con otras hojas consumibles, es notablemente superior, como se observa en la Tabla 2. Del mismo modo, en la Tabla 3, un estudio revela el comparativo en porcentaje proteico de Chaya fresca, Chaya almacenada y alimento balanceado para tilapia nilótica (Oreochromisniloticus L.).

68

Revista Científica

Tabla 2. Composición química de las hojas de Chaya respecto a otras hojas comestibles (Spell y Bressani, 2011).

Poot-López, Gasca-Leyva y Olvera-Novoa, 2012, indican que las hojas de Chaya pueden contribuir eficientemente al desarrollo de los peces cuando son usadas como un sustituto parcial del alimento balaceado, siendo la chaya un insumo viable que puede ayudar a disminuir la dependencia de alimentos balanceados en el cultivo de tilapia sobre todo en zonas marginales. También se ha considerado, en diversos estudios la elaboración de extractos proteicos para su incorporación a otros productos, debido a que químicamente se estableció que la hoja es nutricionalmente superior a otros pétalos consumidos como la espinaca y la lechuga; el contenido de HCN tóxico en las hojas de Chaya, este contenido de HCN es similar en las hojas frescas, como en los extractos, por lo que hay que cocinar las hojas para lograr su eliminación (Spell y Bressani, 2011).

Tabla 3. Composición proximal de hojas de Chaya (fresca y almacenada) y alimento balanceado (Poot-López, Gasca-Leyva y Olvera-Novoa, 2012). El valor proteico de la Chaya la hace objeto de comparación en estudios con diversos alimentos balanceados para otras especies, como se muestra en la Tabla 4. Para Iriarte-Rodríguez y Mendoza-Carranza (2007), el tratamiento con hojas de chaya requirió mayor tiempo de cultivo y la producción de biomasa muscular y las relaciones costo beneficio fueron menores, este tratamiento mostró menor mortalidad del caracol tote (P. flagallata) aunado a que el costo del alimento es más bajo de los tres expuestos. De forma tradicional, la raíz y el fruto con todo y semillas se comen cocidos, también se consume el fruto y las hojas tiernas con verduras (Cáceres, Lange, Cruz, Velásquez, Sequeda y Lima, 2009). La raíz de Chaya no es muy rica en flavonoides, compuestos fenólicos y alcaloides, sin embargo, contiene vitamina A y C (0.59 y 1.70 mg/100g respectivamente), también contiene 96 ppm de hierro, 3.50 ppm de zinc, 456.50 ppm de magnesio y 275,50 ppm de calcio (Jimoh, Babalola y Yakubu, 2009).

Tabla 4. Valores proximales de los alimentos empleados en los tres sistemas de alimentación experimentales del caracol Tote P.flagallata. (Iriarte-Rodríguez y Mendoza-Carranza, 2007).


El consumo de frutas y vegetales ha sido asociado a una menor incidencia y mortalidad por diferentes enfermedades crónica, esta protección que brindan los vegetales contra enfermedades degenerativas, como el cáncer, enfermedades cardiovasculares y cerebrovasculares, ha sido atribuida al alto contenido de varios antioxidantes. La capacidad antioxidante total de la Chaya es de 14.50, siendo superior a la Jamaica cocida y la yerba mora con 12.81 y 8.25 (milimoles de equivalentes de Troxol/g de alimento) respectivamente (Grajales, Gutiérrez, Ledezma y García, 2007).

Uso terapeútico En estudios “in vivo”, el extracto EtOh al 70% en una dosis de 1.5 g/kg el efecto hipoglucemiante es similar a la glibenclamida y diferente a la metformina, con buenos resultados y sus efectos sobre el colesterol y los triglicéridos es varible (Camacho-Luis, Díaz- Cedillo, Figueroa-Valverde y Ramos, 2009; Soni, Dixit, Irchhaiya y Alok, 2014; López-Martínez, 2015; Antonio, Esparza-Rivera, Morales, Oranday, Preciado-Rangel, Venezuela y Verde, 2015), el extracto EtOH también demostró poseer actividad antiinflamatoria y cardioprotectora (Pérez, 2015) y estudios recientes, probaron la efectividad del extracto EtOH sobre líneas de carcinoma de colon (HT-29) exhibiendo citotoxicidad moderada (Kumarasamy, Nallaperumal, Natarajan y Nallamandan, 2014). Otro estudio, demuestra la reducción de diabetes mellitus de entre un 31 a 35 %, en ratas que recibieron 100mg/kg y 250mg/kg al día, probando el incremento de la actividad glucoquinasa, hexoquinasa y glucosa-6-fosfato a nivel del hígado, indicando un incremento global

en la utilización de la glucosa y una disminución en la necrosis en el hígado (Pillai, Chidambaranathan, Nalith, Jayaprakish y Narayanan, 2012), La mayoría de las propiedades de C. Chayamansaaun no ha sido probada experimentalmente, por lo que la eficacia real sobre algunas enfermedades resulta desconocida (Bautista-Cruz, Martínez-Gutiérrez, Sánchez-Medina, Pacheco y Arnaud-Vinas, 2011).

Conclusiones La pobreza y la desigualdad pueden llevar a la desnutrición y la marginación; sin embargo, se pueden obtener nutrientes valiosos a partir de plantas endémicas de cada región, Chidoscolus Chayamansa, es una especie que ha sido investigada los últimos años, debido a todas sus propiedades, tanto alimentarias como medicinales; esta planta de origen mexicano, es una respuesta factible a los problemas de desnutrición y mala alimentación de nuestro país, a un coste accesible, de fácil propagación y extremadamente adaptable a diferentes zonas geográficas. A pesar que todas sus propiedades químicas y biológicas, no han sido descubiertas; los principios activos de los cuales se tiene registro permiten establecer el gran aporte tanto medicinal como alimenticio de Chidoscolus Chayamansa. Si bien, esta planta no resolvería los severos problemas de alimentación, si ofrecería grandes aportes en esta materia.

Revista Científica

69


Bibliografía

+

+

Iriarte-Rodríguez, F.V. y Mendoza-Carranza, M. (2007). Validación del cultivo semi-intensivo de caracol Tote (Pomacea flagallata), en el trópico húmedo. Revista Científica de la Sociedad Española de Acuicultura. 27: 16-30.

Aguilar, M; García, E; Hernández, S; Huerta, E; Macario, P. y De Alba, R. (2010). Crecimiento y productividad de Chaya (Cnidoscolus Chayamansa Mcvaugh, Euphorbiaceae) con densidad de plantación variable.Cultivos tropicales,31(4), 42-48. Antonio, G.J; Esparza-Rivera, J.R.; Morales, R.M.E.; Oranday, C.A; Preciado-Rangel, P.; Valenzuela, S.R. y Verde, S.M.J. (2015). Cnidoscolus chayamansa hidropónica orgánica y su capacidad hipoglucemiante, calidad nutraceutica y toxicidad. Revista mexicana de ciencias agrícolas,6(4), 815-825.

+

Bautista-Cruz, A.; Martínez-Gutiérrez, G.A; Sánchez-Medina, P.S. y Pacheco, R.P. y Arnaud-Vinas, M.R.(2011). The traditional medicinal and food uses of four plants in Oaxaca, México. México. Journal of Medicinal Plants Research. 5(15): 3404-3411.

+

Cáceres, A. Lange, K.; Cruz, S.; Velásquez, R.; Sequeda, L. y Lima, S. (2009). Actividad antioxidante de diez especies nativas como posibles preservantes de alimentos y fuente para el desarrollo de nutricéuticos. Guatemala. Informe Final proyecto FODECYT.

+

Camacho-Luis, A.; Díaz-Cedillo, F.; Figueroa-Valverde, L. y Ramos, M. L. (2009).Efectos inducidos por Ruta graveolens L., Cnidoscolus chayamansa McVaugh y Citrus aurantium L. sobre los niveles de glucosa, colesterol y triacilglicéridos en un modelo de rata diabética. Revista Brasileira De Farmacognosia, 19(4), 898-907.

+Cano, J.M.M. y Ramos, A.J.S. (2015). Personas de la tercera

edad de comunidades rurales y la cocina tradicional de Tabasco, México.Revista Española de Nutrición Comunitaria,21(1), 29-33.

+

Cifuentes, R. y Bresanni, R. (2010). Efecto de la humedad del suelo y la fertilización con NPK sobre la producción de biomasa y composición química de hojas de chaya (Cnídoscolus aconififolíus ssp. Aconitifolíus) en Guatemala. Revista de la Universidad del Valle de Guatemala. 22, 8-21.

+

Estrada, A.R.; Guzmán, M.G.A.; Marie, D.R.; Suárez, L.C.; Vazquez, M.A. y Díaz, C.G. (2012). Evaluation of Chaya leaf meal Cnidoscolus Chayamansa McVaugh in the diets for blue shrimp Litopenaeusslylirostris Stimpson. Journal of Animal and Veterinary Advances,11(22), 4177-4181.

+

García-Rodríguez, R.V.; Gutiérrez-Rebolledo, G.A.; Méndez-Bolaina, E.; Sánchez-Medina, A.; Maldonado-Saavedra, O.; Domínguez-Ortiz, M.A.; Vázquez-Hernández, M. y Cruz-Sánchez, J.S. (2014). Cnidoscolus Chayamansa Mc Vaugh, an important antioxidant, anti-inflammatory and cardioprotective plant used in Mexico. Journal of Ethnopharmacology, 151(2), 937-943.

+

Gispert Cruells, M. (1997). La cultura alimentaria Mexicana: fuente de plantas comestibles para el futuro. Jardín Botánico Córdoba. 5, 51-57.

70

+

Grajales, C.O.; Gutiérrez, Z.A.; Ledesma, R.L. y García, G.I.(2007). Capacidad antioxidante total en alimentos convencionales y regionales de Chiapas, México. Revista Cubana de Salud Pública, 33(1).

Revista Científica

+

+

Jiménez-Arellanes, M.A.; García-Martínez, I. y Rojas-Tomé, S. (2014). Potencial biológico de especies medicinales del género Cnidoscolus (Euphorbiacea).Revista Mexicana de Ciencias Farmacéuticas,45(4),12-19.

+

Jimoh, F.O.; Babalola, S.A. y Yakubu, M.T. (2009). Assessment of the antioxidant potential of Cnidoscolous chayamansa. Pharmaceutical Biology,47(9), 903-909.

+

Kumarasamy, K.P.; Nallaperumal, N.; Natarajan, C. y Nallamadan, J. (2014). An invitro cytotoxicity study of Cnidoscolus chayamansa McVaugh on selected cell lines. Word Journal of Pharmacy and Pharmaceutical Sciences, 3(8), 1110-1116.

+

Loarca-Piña, G.; Mendoza, S.; Ramos-Gómez, M. y Reynoso, R. (2010). Antioxidant, antimutagenic, and antidiabetic activities of edible leaves from Cnidoscolus Chayamansa Mc. Vaugh.Journal of Food Science,75(2): H68-H72.

+

López-Martínez, C. (2015).Evaluación del extracto metanólico de Chaya (Cnidoscolusssp., Euphorbiaceae) sobre la cascada de transducción de señales de la insulina en animales diabéticos. Tesis de Licenciatura. Universidad Autónoma de Querétaro, México. 61 pp.

+

Maldonado, S.H.G.; Pacheco, I.T.; Avilés, A.M; Gallegos, J.A.A.; López, R.M. y Lara, R.G. (2015). Potencial de plantas de uso común en México como fuente de compuestos fenólicos, hierro y vitamina C.Revista Mexicana de Ciencias Agrícolas,31(2), 115123.

+

Mera-Ovando, L.M.; Alvarado-Flores, R.; Basurto-Peña, F.; Bye-Boetter, R.; Castro-Lara, D.; Evangelista, V.; Mapes-Sánchez, C.; Martínez-Alfaro, M.A.; Molina, N. y Saldívar, J. (2003). “De quelites me como un taco”. Experiencia en educación nutricional. Revista del jardín Botánico Nacional, 24, 45-49

+

Miranda, L.; Cruz, D. y Rodríguez, J. (2011). Evaluación de la Toxicidad sobre Artemia Salina de extractos de Chaya, una planta nutritiva utilizada para disminuir el colesterol. 3er Congreso de Nutriología FaSP y N. Universidad Autónoma de Nuevo León, 6 de Octubre del 2011.

+

Organización Mundial de la Salud (2003). Dieta, nutrición y prevención de enfermedades crónicas: Informe de un grupo de estudio de la OMS. OMS Serie de Informes Técnicos (Ginebra), 797, 1-228.


+

Pérez González, M.Z.(2015). Evaluación de la actividad antibacteriana, antiinflamatoria de las hojas de Cnidoscolus Chayamansa y la toxicidad aguda y subaguda in vivo. Tesis de Maestría. Tecnológico de Estudios Superiores de Ecatepec. Estado de México. 95 pp.

+

Pillai, K.K.; Chidambaranathan, N.; Halith, M.; Jayaprakash, S. y Narayanan, N. (2012). Anti-hyperglycemic effect of alcoholic extracts of Cnidoscolus Chayamansa in experimental diabetes and their effects on key metabolic enzymes involved in carbohydrate metabolism. International Journal of Research in Pharmacy and Chemistry,2(1), 179-187.

+

Poot-López, G.R.; Gasca-Leyva, E. y Olvera-Novoa, M.A. (2012). Producción de tilapia nilótica (Oreochromisniloticus L.) utilizando hojas de Chaya (Cnidoscolus chayamansa Mc Vaugh) como sustituto parcial del alimento balanceado. Latin American Journal of Aquatic Research, 40(4), 835-846.

+

Rocha Estrada, A. (1998). Cnidoscolus chayamansa Mc Vaugh como fuente de proteína incorporada en dietas para Penaesstylirostris. Tesis de Maestría. Universidad Autónoma de Nuevo León. México. 65 pp.

+

Rodríguez, L.M. (2015). Etnobotánica maya: Algunas plantas de uso medicinal en estomatología.Revista ADM,72(1), 21-25.

+

Ross-Ibarra, J. (2003). Origen y domesticación de la chaya (Cnidoscolus aconitifolius Mill I. M.Johnst): La espinaca maya. Mexican Studies,19(2), 287-302.

+

Sobrinho, T.J.S.P.; Castro, V.T.N.A.; Almeida, D.M.; Tavares, E.A.; Amorim, E.L.C. y Saraiva, A.M. (2011). Phenolic content and antioxidant capacity of four Cnidoscolus species (Euphorbiaceae) used as ethnopharmacologicals in Caatinga, Brazil. African Journal of Pharmacy and Pharmacology,5(20), 2310-2316.

+

Soni, R.K.; Dixit, V.; Irchhaiya, R. y Alok, S. (2014). Potential herbal hepatoprotective plants: Anoverview. International Journal of Pharmaceutical Sciences and Research.5(3), 774789.

+

Spell, L. y Bressani, R. (2011). Preparación y caracterización química y nutricional de la proteína foliar de la Chaya (Cnidoscolus aconitifolius). Revista de la Universidad del Valle de Guatemala, 23: 54-60.

+

Torrico, F.M.; Gabay, J.; Suárez, A.I. y Compagnone, R. S. (2004). Estudio toxicológico de Cnidoscolus Chayamansa Mc Vaugh. Revista Facultad de Farmacia, 66(2), 58-66.

+

Uicab-Pool, G. y Balam-Gómez, M. (2014). ¿Qué comen y no comen los niños en Tizimín, Yucatán, México? Saberes y costumbres de las cuidadoras. Ciencia y Humanismo en la Salud,1(3), 104-115.

Revista Científica

71


H A C I A E L D E S A R R O L LO D E U N

SISTEMA EDUCATIVO MULTIMEDIA B A S A D O E N CO M P E T E N C I A S

Josefina Guerrero García1, Juan Manuel González Calleros2, Érica Vera Cervantes3, Yadira Navarro Rangel4 y Jaime Muñoz Arteaga5

Benemérita Universidad Autónoma de Puebla, Av. San Claudio y 14 sur, Ciudad Universitaria, Puebla, Pue., México, C.P. 72592. 5 Universidad Autónoma de Aguascalientes, Av. Universidad 940, Ciudad Universitaria, Aguascalientes, Ags., México, C.P. 20131. 1,2,3,4

jguerrero@cs.buap.mx Recibido: Noviembre 4, 2016. Recibido en forma revisada: Marzo 23, 2017.

+

Palabras Clave: Aprendizaje constructivista, números fraccionarios, competencias matemáticas, sistema educativo en línea y multimedia educativa.

Aceptado: Mayo 22, 2017.

72

Resumen: Las Tecnologías de la Información y la Comunicación (TIC) han impactado la vida cotidiana del hombre en las últimas décadas, y las instituciones educativas no están ajenas a este fenómeno. La educación bajo el enfoque constructivista se concibe como un proceso a través del cual se ayuda, se apoya y se dirige al estudiante en la construcción del conocimiento. La presencia y facilidad del uso de medios interactivos en la educación permiten que el ser humano aumente sus habilidades para convertir la información en conocimientos. La actual tendencia educativa está encaminada hacia la elaboración de sistemas interactivos que posibiliten a los alumnos concentrarse en el razonamiento y en la solución de problemas. Este trabajo presenta el desarrollo de un sistema educativo que ayude en el aprendizaje de las matemáticas, particularmente en el tema de los números fraccionarios, de acuerdo a los planes y programas de estudio 2011 de Educación Básica conforme la Secretaría de Educación Pública en México.

Revista Científica


Introducción Este trabajo se enfoca en el diseño y desarrollo de un Sistema Educativo Multimedia para el Desarrollo de las Habilidades basado en Competencias (actualmente con énfasis en Matemáticas), involucrando diferentes herramientas educativas dentro de nuevas formas de enseñanza, donde los nuevos planes de estudio plantean una enseñanza por competencia; es decir, el proceso de enseñanza que requiere desarrollar estrategias de aprendizaje que les permitan a los alumnos activar el pensamiento e integrar esos saberes a su desempeño cotidiano. En especial, el pensamiento matemático que fomenta el desarrollo de la imaginación y creatividad y como tal el razonamiento lógico. Enseñar a pensar y reflexionar a los alumnos potencializa sus habilidades y mejora su desarrollo intelectual. Su importancia en el desarrollo de competencias radica en que el alumno aprende a darle solución a los problemas que se le presentan, no solo en la escuela sino fuera de ella; se trata de contextualizar al alumno para aplicar los conocimientos adquiridos en su vida cotidiana. Recientemente se ha incorporado la tecnología en diversos ámbitos, especialmente en la educación se ha notado que favorece los procesos de enseñanza-aprendizaje y por esto ha sido objeto de estudio en diversos trabajos de investigación y proyectos. En el sector educativo cada cierto tiempo, se lleva a cabo una actualización en los modelos, las herramientas y técnicas de enseñanza con el fin de mejorar y facilitar el aprendizaje en los alumnos. Por tanto, los nuevos modelos educativos deben ser tomados en cuenta para el desarrollo de herramientas educativas que permitan apoyar a los docentes en la preparación de los estudiantes.

de forma eficaz en un contexto determinado y para ello es necesario movilizar actitudes, habilidades y conocimientos al mismo tiempo y de forma interrelacionada (Zabala, Vidiella, Belmonte, y Arnau 2007). En 1993 la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO, por sus siglas en Inglés), constituyó una comisión internacional sobre la educación para el siglo XXI que determinó la necesidad de formar cuatro habilidades básicas (pilares de la educación):

1.

Aprender a conocer: promover el acceso a la información, la curiosidad, la satisfacción y el deseo de conocer permanentemente.

2.

Aprender a hacer: adquirir competencias que permitan hacer frente a nuevas situaciones y que faciliten el trabajo en equipo.

3.

Aprender a ser: el progreso de las sociedades depende de la creatividad y de la capacidad de innovación de cada individuo.

4.

Aprender a vivir juntos: desarrollar el conocimiento de los demás, de su historia, de sus tradiciones y su espiritualidad, en sociedades cada vez más multiculturales y competitivas.

Posteriormente, se presentaron e interpretaron los objetivos de la Escuela Básica definidos por los emisarios de todo el mundo en la Conferencia de Jontiem (UNESCO, 2000), resumidos en la Figura 1.

La inclusión de la tecnología en la educación debe de considerarse solo como una herramienta de apoyo, pues no viene a sustituir al maestro, sino por el contrario, pretende brindarle ayuda para que el estudiante tenga más elementos, tanto visuales como auditivos, para poder enriquecer el proceso de enseñanza-aprendizaje. Este trabajo está organizado de la siguiente manera: La sección 2 muestra un resumen del estado del arte estudiado hasta este momento, la sección 3 presenta las competencias matemáticas que se han considerado para este trabajo, la sección 4 presenta el diseño del sistema desde tres perspectivas (el diseño de la base de datos, diseño de las actividades de aprendizaje y el diseño del sistema web), la sección 5 muestra la implemenatción del sistema y finalmente, la sección 6 presenta las conclusiones del trabajo.

Estado del arte En la actualidad, el enfoque que rige el proceso educativo en México es la formación basada en competencias, resultado de la combinación de diversos proyectos internacionales de educación, como el Proyecto Tuning de la Unión Europea o el proyecto Alfa Tuning Latinoamérica, dichos proyectos, son la base para orientar el currículo, la docencia, el aprendizaje y la evaluación desde un marco de calidad. El enfoque a través de las competencias se instauró en Francia a principios de los años noventa, en donde los textos equivalían a la definición de los contenidos y de las instrucciones pedagógicas. Una competencia es la capacidad o habilidad de efectuar tareas o hacer frente a situaciones diversas

Figura 1. Declaración mundial sobre educación para todos.

Acorde a Villanueva (2006), existen dos tipos diferentes de competencias que el área de las matemáticas desarrolla en las personas, las de carácter transversal (competencia interpretativa, competencia argumentativa, competencia propositiva, competencia de pensamiento lógico, competencia de pensamiento analógico, competencia de pensamiento deliberativo y competencia de resolución de problemas) y las específicas del área (competencia lógica, competencia numérica, competencia geométrica, competencia métrica, competencia algebraica y competencia estadística). Para la concepción constructivista, la educación escolar constituye una práctica social compleja que cumple dos funciones: promover el desarrollo personal de los educandos, facilitar el acceso a los saberes y formas culturales de la sociedad a la que pertenecen (Obaya Valdivia, 2000). La tendencia actual ha conducido al constructo denominado “cognición situada”; los teóricos de la cognición situada parten de la premisa de que el conocimiento es Revista Científica

73


situado, es parte y producto de la actividad, el contexto y la cultura en que se desarrolla y utiliza. Una de las estrategias para el aprendizaje significativo, centrada en el aprendizaje experiencial y situado, se enfoca en la construcción del conocimiento en contextos reales, en el desarrollo de las capacidades reflexivas, críticas y en el pensamiento de alto nivel, así como en la participación en las prácticas sociales auténticas de la comunidad; es el aprendizaje mediado por las nuevas Tecnologías de la Información y Comunicación (Díaz Barriga, 2003). En los últimos años se han empleado los videojuegos con propósitos educativos; en Wouters, Van Nimwegen, Van Oostendorp y Van Der Spek (2013) se propone que los juegos serios influencian sobre el aprendizaje de dos maneras: cambiando los procesos cognitivos y al afectar la motivación. Los investigadores cognitivos están ocupados por estudiar la motivación escolar como un cambio importante en las concepciones de aprendizaje y pensamiento. Para Zulma Lanz (2006) existe la motivación intrínseca y extrínseca. La conducta intrínsecamente motivada es aquella que se realiza por el solo interés y placer de realizarla, por el contrario, la motivación extrínseca es aquella que lleva al individuo a realizar una determinada conducta para satisfacer otros motivos que no son la actividad en sí misma, por ejemplo: obtener recompensas, premios, incentivos, reconocimiento o afecto. Los videojuegos presentan características como: interactividad, basados en un conjunto de reglas y restricciones acordadas y dirigido hacia un objetivo claro que a menudo se establece por un reto. Además, proporcionan retroalimentación constante, ya sea como una puntuación o como los cambios en el mundo del juego, para permitir a los jugadores controlar su progreso hacia la meta. Algunos de ellos también implican una actividad competitiva (contra la computadora, otro jugador, o uno mismo). Igualmente presentan una narración o el desarrollo de una historia que puede ser muy importante en un juego de ordenador (por ejemplo, en los juegos de aventura), aunque no es un requisito previo para ser un juego de ordenador (por ejemplo, juegos de acción en realidad no requieren una narrativa). Al hablar de un juego serio (ordenador), nos referimos a que el objetivo principal del juego no es entretener al jugador, lo que sería un valor añadido, sino utilizar la calidad de entretenimiento para la formación, la educación, la salud, la política pública y los objetivos estratégicos de comunicación. El software educativo multimedia se caracteriza por ser un medio que apoya el proceso enseñanza-aprendizaje, además de constituir un apoyo didáctico que eleva la calidad de dicho proceso; puede ser adaptable a las características de los alumnos y las necesidades de los docentes como apoyo al desarrollo de los temas que son objeto de estudio. Representa, además, un recurso eficaz que motiva al alumno, despertando su interés ante nuevos conocimientos, e imprime un mayor dinamismo a las clases, enriqueciéndolas y elevando así la calidad de la educación.La necesidad de incorporar los materiales multimedia en la educación se hace cada vez más latente ya que actualmente se está inmerso en la denominada sociedad del conocimiento y en el uso de las tecnologías de la información y comunicación; los alumnos demandan cambios en los procesos de enseñanza para que el aprendizaje sea significativo y resulte motivador para ellos asistir a clases dinámicas, entretenidas y contextualizadas.

74

Revista Científica

El funcionamiento de un sistema multimedia se basa en la comunicación con el usuario a través de múltiples elementos textuales y audiovisuales, como gráficos, sonido, videos y animaciones, entre otros, de forma integral e interactiva, y su función principal es informar y formar. Cuando se habla de informar se refiere a que los programas transmiten información al usuario, mientras que formar propone actividades que ayuden a los alumnos a adquirir un conocimiento y desarrollar una habilidad, además de poder llevarlo a la vida cotidiana. Durante la década de los noventas, los sistemas multimedia han entrado al campo de la educación, en dos formas diferentes: como sistemas informativos, que solo ayudan al alumno a acceder a la información y como sistemas formativos, basados en el paradigma constructivista del aprendizaje, donde el alumno, con ayuda del sistema podrá construir su propio conocimiento, que es la base fundamental del paradigma.

Competencias matemáticas Las matemáticas son un conjunto de saberes y de prácticas asociados, en una primera aproximación, al uso reflexivo de los números, de las formas y de los lenguajes que se van progresivamente completando hasta constituir un modo valioso de analizar situaciones variadas. Permiten estructurar el conocimiento que se obtiene de la realidad, analizarla y lograr una información nueva para conocerla mejor, valorarla y tomar decisiones. La mayor complejidad de las herramientas matemáticas es que permiten utilizar el tratamiento de una gran variedad de situaciones y una información más rica. Por ello, a lo largo de la escolaridad básica, el aprendizaje de las matemáticas ha de ir dirigido a enriquecer sus posibilidades de utilización. Se entienden así las matemáticas como un conjunto de cuestiones y problemas, de ideas y formas de actuar y de tecnologías simbólicas y organizativas que conllevan no sólo utilizar cantidades y formas geométricas, sino hacerse preguntas y resolver problemas, obtener modelos e identificar relaciones y estructuras, de modo que al analizar los fenómenos y situaciones que se presentan en la realidad se puedan obtener informaciones y conclusiones que inicialmente no estaban explícitas. Las matemáticas incorporan características como la deducción, la precisión, el rigor, la seguridad, etc., pero son y aportan mucho más de lo que se deduce de estos términos. En una definición de competencia se deduce que el alumno deberá saber argumentar, cuantificar, analizar críticamente la información, representar y comunicar, resolver y enfrentarse a problemas, usar técnicas, instrumentos matemáticos e integrar los conocimientos adquiridos. La competencia matemática “consiste en la habilidad para utilizar y relacionar los números, sus operaciones básicas, los símbolos y las formas de expresión y razonamiento matemático, tanto para producir e interpretar distintos tipos de información, como para ampliar el conocimiento sobre aspectos cuantitativos y espaciales de la realidad, y para resolver problemas relacionados con la vida cotidiana y con el mundo laboral” (Competencia matemática, 2016). Acorde con Villanueva Aguilar (2016), las competencias propias de las matemáticas son:

+

Competencia lógica, donde se construyen preposiciones y se establecen valores de verdad.


+ Competencia numérica, refuerza la comprensión de los siste-

mas de número y sus operaciones asociadas.

+

Competencia geométrica, apoya el reconocimiento y orientación de formas.

+Competencia métrica, permite conocer el sistema internacio-

nal de medidas para determinar longitudes, volúmenes, capacidades y masas de los objetos.

+

Competencia algebraica, por la cual se realizan operaciones con variables.

+

Competencia estadística, implementa procedimientos para recolectar, sistematizar y analizar diferentes tipos de datos y abordad fenómenos probabilísticos.

Diseño del sistema educativo multimedia para el desarrollo de las habilidades matemáticas basado en competencias El diseño del sistema educativo autónomo está constituido por: el diseño de la base de datos, diseño de las actividades de aprendizaje y el diseño del sistema web.

Diseño de las actividades de aprendizaje Se diseñaron diferentes tipos de clases que son impartidas al estudiante, es importante la estructura de estas clases, debido a que a través de ellas se dará en el alumno la absorción del conocimiento. Se encuentran estructuradas de manera que el alumno se vea inmerso en ambientes lo más cercanos a la realidad, para que pueda darse la relación de los conocimientos previos con los que está por aprender. Al ingresar al sistema de multimedia autónomo lo primero que muestra al alumno es el tema de la clase; al terminar de leer y comprender la idea, se ingresa a la actividad, ésta se debe resolver en base a conocimientos adquiridos anteriormente. El sistema muestra gran flexibilidad al dar opción de regresar a consultar nuevamente la clase antes de realizar las actividades, así como saltarse la clase para pasar a la actividad directamente. El sistema almacena en la base de datos el estado actual del estudiante, con respecto a las actividades realizadas, de tal forma que al ingresar nuevamente al sistema se podrá continuar con el estado actual, es decir, en la actividad en donde se quedó la última vez que ingresó al sistema.

Tipos de clases Las clases pueden ser de cuatro tipos:

+

Debate de tema: se maneja la información en forma de debate, se muestran cuatro ideas de supuestos compañeros virtuales, que ayudarán al alumno a construir una idea completa del tema; se trata de imitar un salón de clases real, en el que los compañeros de aula aporten ideas y con eso el alumno logre llegar a un concepto general y completo.

+

Imagen del tema: se muestra la clase con una serie de imá-

genes conocidas o ejemplos cotidianos cuyo objetivo es ejemplificar el concepto que se trata de enseñar para lograr una mejor comprensión del tema; se intenta de que al alumno le sea fácil recordar estas imágenes o las relacione con algo que ya conoce, y de esta forma se logre el aprendizaje de lo que está analizando.

+

Aplicación de concepto: maneja los dos puntos anteriores, de forma tal que muestra imágenes sobre el tema y la explicación o la idea relacionada con la imagen, esto con el fin de que el alumno comprenda más claramente lo que se le está enseñando.

+

Video relacionado con el tema: aprendiendo desde un video donde se explican o aplican los conceptos que el alumno necesita aprender; se editaron los videos con conceptos específicos para que sea una herramienta más que le sirva de apoyo al alumno al complementar sus conocimientos.

Tipo de actividades a resolver por el alumno Al término de cada tema, el alumno deberá responder la actividad relacionada, gracias a esto, se obtienen los resultados necesarios para conocer el progreso de su aprendizaje. Estas actividades hacen énfasis en el proceso intelectual que se encuentra especificado para cada idea principal y además son la base del diagnóstico académico, así que las preguntas se presentan de la manera más clara posible, para que el alumno no tenga confusiones. En cada tipo de actividad se le presenta al alumno la información del tema y subtema que está cursando. Se diseñaron cinco tipos de actividades: Booleana, Opción Múltiple, Completar Texto, Relacionar y Arrastrar. En cada actividad es posible que el alumno se encuentre con un poco de indecisión al momento de responder a su actividad; en este caso, todas las actividades cuentan con la opción de regresar a la clase que observaron antes de dicha actividad, como ayuda para resolver dudas, sin otorgar directamente la respuesta. Una vez contestada la actividad por parte del alumno, se procede a la evaluación. En caso de que la respuesta haya sido incorrecta, el alumno recibirá en pantalla un tip de ayuda con una idea clave que le servirá para recordar los conocimientos recibidos en la clase y vincularlos, esta vez de manera correcta, con los conocimientos que el alumno ya poseía; esto se diseñó teniendo como objetivo contribuir a la aclaración del error, jugando el papel de un facilitador que otorga ayuda moderada al aprendiz. Si la respuesta fue correcta recibirá el mensaje que se lo haga saber junto con una felicitación. En caso de ser una actividad que evalúa más de una respuesta, se presenta la información de los aciertos y errores dentro del total de respuestas, otorgando el tip de ayuda en caso de haber fallado en todas sus preguntas. Al finalizar cada actividad, el alumno recibirá la información acerca de la puntuación que obtuvo en esa actividad y la puntuación obtenida hasta el momento. Cada una de las evaluaciones es registrada en la base de datos para presentarla al alumno en cualquier momento. Aunado a esto, se registra también el avance del alumno y la próxima vez que inicie sesión no tendrá que responder preguntas de temas pasados, sino que responderá la pregunta correspondiente al tema y subtema que se encuentra cursando.

Contenido temático y diagnóstico académico Se determinó el contenido temático por abordar en el sistema, la Tabla Revista Científica

75


1 muestra los contenidos del tema números fraccionarios, los cuales están organizados por niveles de complejidad. A continuación se describe uno de los métodos más sencillos para la determinación de los aprendizajes relevantes. El método consta de tres pasos:

1.Seleccionar las ideas principales o esenciales. 2.Determinar los procesos cognitivos deseables para cada idea

esencial.

3.

Señalar el tipo de aprendizaje: indispensable o esencial. Hay que tener en cuenta que la determinación de los componentes de los aprendizajes relevantes implica el análisis de sus antecedentes. Por lo tanto para cada idea esencial o indispensable se

76

Revista Científica

separa en sus componentes o antecedentes. La forma más elemental para definir las ideas esenciales consiste en plantearse la pregunta: ¿Qué debe saber o saber hacer el alumno de este nivel que aprendió en el tema en cuestión? Por lo que deberá iniciar este proceso localizando los conceptos y procedimientos principales contenidos en el tema. La Tabla 1 muestra el cuadro de decisiones para la materia de fracciones de quinto año de primaria, para la evaluación del estudiante en su calificación por puntos acumulados.


Tabla 1. Cuadro de contenidos temáticos del tema números fraccionarios.

Revista Científica

77


Evaluación final Al término de este paso, se procedió a la elaboración de las preguntas o actividades a realizar por el alumno con base al proceso intelectual que se toma en cuenta para cada una de ellas, y dependiendo del tipo de aprendizaje que cada una representa. Dentro de este proceso se le otorgó una ponderación a cada tipo de aprendizaje únicamente como ayuda para establecer el nivel en el que el alumno se encuentra, ya sea alto, medio o bajo. La ponderación mencionada se observa en la Tabla 3.

Tabla 3. Asignación de puntos por conocimientos.

Tabla 2. Cuadro de decisiones para la materia de Fracciones.

Al finalizar las actividades, el sistema muestra el nivel con el que terminó y da la opción para borrar su historial. Este nivel está determinado por la cantidad de preguntas que maneja el sistema y los puntos adquiridos con sus respuestas correctas. Los niveles de conocimientos en la materia de Fracciones se muestran en la Tabla 4.

Actividades de evaluación Para lograr que este material sea un verdadero apoyo didáctico de calidad, se presentan al usuario diversas actividades de aprendizaje sencillas que involucren los procesos cognitivos siguientes: interpretación de información, aplicar la idea principal y comprender la idea esencial de cada tema. Se diseñaron cinco tipos de actividades que se describen a continuación:

1. Booleana. En este tipo de actividad se le presenta al alumno

una pregunta en forma de oración, acompañada en algunas ocasiones de una imagen relacionada con la misma pregunta; el alumno únicamente deberá contestar si la pregunta es cierta o falsa.

2.

Opción múltiple. La estructura de esta actividad inicia con una pregunta y continúa con cuatro opciones de respuesta, de las cuales el alumno solo debe elegir una, la que considere correcta.

3. Completar texto. Esta actividad consiste en cuatro párrafos

con diferentes ideas o conceptos donde el alumno tiene la opción de completar un espacio faltante con una de las cuatro opciones presentadas.

4.

Relacionar. En este caso, el aprendiz observa una lista de cuatro ideas o conceptos del lado izquierdo, y al lado derecho observa una lista de cuatro imágenes numeradas, las cuales deberá relacionar con su respectivo concepto anotando el número correspondiente en la casilla del concepto.

5.

Arrastrar. Con este tipo de actividad se observa en pantalla una lista de ideas del lado izquierdo, junto con una secuencia de cuatro imágenes al lado derecho, imágenes las cuales el alumno debe mover con el cursor hacia el concepto que concuerde. La Tabla 5 muestra las diversas actividades de aprendizaje sencillas.

78

Revista Científica

Tabla 4. Niveles de aprendizaje.

Análisis y diseño de la base de datos Para el diseño de la base de datos, se ha empleado el modelo relacional, ya que este modelo considera la base de datos como una colección de relaciones. De manera simple, una relación representa una tabla, en que cada fila representa una colección de valores que describen una entidad del mundo real. Cada fila se denomina tupla o registro y cada columna, campo. Entre las ventajas de este modelo están las siguientes:

+

Garantiza que la duplicidad de registros, a través de campos llaves, se puede evitar.

+

Garantiza la integridad referencial; así, al eliminar un registro, elimina todos los registros relacionados con dependencia.

+

Favorece la normalización por ser más comprensible y aplicable. El diseño relacional de la base de datos permite observar de manera clara las tablas con sus atributos, las llaves primarias, las llaves foráneas y las relaciones que existe entre sí.

Análisis y diseño del sistema A partir del ciclo de vida de desarrollo de software han surgido varias propuestas, desde modelos clásicos, pasando por modelos iterativos, hasta llegar a las metodologías ágiles para el desarrollo del mismo. Dentro de esta


Tabla 5. Cuadro de decisiones para la materia de Fracciones.

variedad de opciones, tenemos que el Proceso Unificado Racional (RUP, por sus siglas en inglés) es un proceso de desarrollo de software cuyo propósito es asegurar la producción de software de alta calidad que se ajuste a las necesidades de los usuarios finales (Sommerville, 2011) En RUP se definen disciplinas o flujos de trabajo:

+

El modelado del negocio da un mejor entendimiento de la organización donde se va a implantar el software.

+ Los requerimientos establecen “qué” debe hacer exactamente el software a construir.

+

El análisis y diseño es traducir los requisitos a una especificación que describe cómo implementar el software.

+

En la implementación se incluyen las clases y objetos en ficheros fuente, binarios, ejecutables y demás. Además, se deben hacer los tests de unidad; el resultado final de este flujo de trabajo Revista Científica

79


es un sistema ejecutable.

+

Con las pruebas se evalúa la calidad del producto; los principales aspectos a evaluar son: fiabilidad, funcionalidad y rendimiento.

+ Entregar el software y ponerlo en marcha. + La configuración de gestión de cambios tiene como finalidad

Figura 4. Funciones que el profesor puede desempeñar.

mantener la integridad de todos los artefactos que se crean en el proceso, así como de mantener información de proceso evolutivo que se ha seguido.

+

La administración del proyecto contempla la supervisión y control de las actividades necesarias para realizar el software.

+ El ambiente es dar soporte al proyecto con las adecuadas he-

rramientas, procesos y métodos. Es decir, tener a punto las herramientas que se vayan a necesitar en cada momento, así como definir la instancia concreta de proceso unificado que se va a seguir.

Estas etapas de desarrollo del software estarán representadas con el lenguaje unificado de modelado (UML, por sus siglas en inglés) que es un lenguaje gráfico para visualizar, especificar, construir y documentar un sistema (Booch,Rumbaugh y Jacobsson, 2009). A continuación, se presentan los diagramas que dan soporte al diseño del sistema.

Figura 2. Diagrama de casos de uso del sistema.

Figura 5. Funciones que el administrador puede desempeñar.

Implementación y evaluación del sistema El sistema SEMATFRAC inicia entrando a la escuela virtual de la Facultad de Ciencias de la Computación. Al entrar al sistema este muestra las opciones para iniciar el curso directamente en el aula, o entrar a la biblioteca virtual de la BUAP (www.bibliotecas.buap.mx) para realizar alguna consulta o logearse como administrador y hacer movimientos de altas, bajas o modificaciones con las materias. Al elegir la opción AULA, el alumno podrá accesar a la materia FRACCIONES y comenzar su recorrido por el sistema.

Figura 6. Entrada al Sistema Educativo de Fracciones. El sistema educativo multimedia inicia eligiendo el rol que le corresponde al usuario, en el sistema se tienen dos opciones en dicho menú. Rol del Alumno: el usuario puede realizar las siguientes consultas y actividades:

+

Temario de clases: puede consultar todas las clases con las que cuenta el sistema.

+

Figura 3. Funciones que el alumno puede desempeñar.

80

Revista Científica

Actividades: inicia con la primera actividad o se que activa la última actividad que se realizó para continuar.

+

Evaluaciones y avances: muestra los puntos obtenidos en


cada una de las actividades concluidas.

+

Participar en el foro: el usuario puede realizar comentarios sobre la materia o crear sus propios temas.

Rol del Profesor: el usuario puede realizar las siguientes consultas y actividades:

+

Evaluaciones de los alumnos: puede consultar los avances de cada uno de sus alumnos.

+

Buscar alumnos: realiza búsqueda de algún alumno en particular.

+

Foro: al igual que los alumnos, el foro es un espacio para comentar y compartir sus ideas e inquietudes.

Figura 9. Clases por debate. Videos del tema Aprendiendo desde un video, al alumno se le explican o aplican los conceptos que necesita aprender. El sistema cuenta con videos con los conceptos específicos para que sea una herramienta que le sirva de apoyo para complementar sus conocimientos.

El alumno necesita de una cuenta y clave de acceso para poder ingresar al sistema, si es nuevo usuario deberá registrar sus datos: nombre, apellidos, alias, email y password.

Figura 10. Clases por video. Figura 7. Registro de nuevos alumnos.

Al dar click en el menú contenido se mostrará una lista del contenido temático de la materia y los subtemas, los cuales servirán de enlace para revisar las clases con los que cuenta el sistema.

Tema con imagen Se muestra la clase con una serie de imágenes conocidas o ejemplos cotidianos, cuyo objetivo es ejemplificar el concepto que se trata enseñar para lograr una mejor comprensión del tema, se intenta que para el alumno, sea fácil recordar estas imágenes o las relaciones con algo que ya conoce y de esta forma se logre el aprendizaje de los que se está analizando.

Figura 8. Lista de subtemas. Las clases pueden ser de cuatro tipos: debate del tema, ejemplos del tema con imágenes, aplicación del concepto y videos relacionados con el tema. Debate del tema Se maneja la información en forma de debate, se muestran cuatro ideas de supuestos compañeros virtuales, que ayudarán al alumno a construir una idea completa del tema; se trata de imitar un salón de clases real, en el que los compañeros del aula aporten sus ideas, socialicen, hasta llegar a un concepto general y completo del tema.

Figura 11. Clase por tema con imagen.

Revista Científica

81


Aplicación de concepto En este tipo de clase se manejan los dos conceptos anteriores, de forma tal que muestra imágenes sobre el tema y la explicación o la idea relacionada con la imagen, esto con el fin de que el alumno comprenda más claramente lo que se le está enseñando.

Actividad “opción múltiple” Se muestra una serie de cuatro imágenes, donde el alumno debe elegir una respuesta correcta y seleccionarla.

Figura 15. Actividad opción múltiple. Actividad “relacionar bloques” Se muestran cuatro distintas imágenes de las cuales debe seleccionar la que corresponde a la pregunta; en esta actividad, el alumno elige la imagen ya numerada y la escribe en la caja de texto a la que pertenece, dependiendo del concepto que se está tratando.

Figura 12. Clase por aplicación de concepto.

Mecanismos de evaluación Las actividades con las que se evalúa el aprendizaje de los alumnos son: Actividad “falso o verdadero” En esta actividad el alumno deberá contestar si la solución que se le está dando es falsa o verdadera, esta solución puede ser una imagen o una respuesta escrita y el alumno tiene la opción de elegir cuál es la que le corresponde.

Figura 16. Actividad relacionar bloques.

Figura 13. Actividad verdadero o falso. Actividad “completar frase” En esta actividad el alumno tiene cuatro frases y cuatro listas donde seleccionará dentro de estas listas, la respuesta que cree es correcta.

Figura 14. Actividad completar frase.

82

Revista Científica

Evaluar mediante constructivismo y competencias En este sistema se crearon ambientes virtuales para el aprendizaje, donde los estudiantes reciban una instrucción y al mismo tiempo son partícipes de ella jugando un rol activo para fomentar la colaboración de los mismos y enriqueciendo el acervo que el sistema ofrezca para dicho aprendizaje. Las Tecnologías de la Información y la Comunicación aplicadas a la educación y a la creación de entornos virtuales de aprendizaje dan la posibilidad de romper las barreras espacio temporales que existen en las aulas tradicionales y posibilitan una interacción abierta a las dinámicas del mundo. De tal forma que se planearon clases que incluyen un conjunto de retos que permiten a los estudiantes desarrollar sus habilidades matemáticas, y puedan identificar, analizar, elaborar, plantear y resolver problemas de manera autónoma.


En caso de que el alumno falle en sus respuestas, se determinó indicarles mediante tips de apoyo, que sus repuestas no fueron válidas; al leer estos tips, tendrán una idea para encontrar la solución correcta, no se les proporcionará la respuesta correcta, simplemente será una idea general de cuál serán los pasos a seguir, despejará sus dudas y los motivará a continuar con el curso.

La información de los movimientos del alumno es almacenada en una bitácora para consultas posteriores, es decir, se guarda un seguimiento del alumno y los movimientos realizados en sus actividades.

De esta forma pondrán en práctica sus conocimientos previos, podrán resolver problemas de manera autónoma, podrán expresar e interpretar la información matemática, además de validar los procedimientos y comparar sus resultados, así como proponer sus propios procedimientos para llegar a un mismo resultado, asimismo, la capacidad de responder a demandas complejas y llevar a cabo tareas diversas de forma adecuada. Supone una combinación de habilidades prácticas, conocimientos, motivación, valores éticos, actitudes, emociones y otros componentes sociales y de comportamiento que se movilizan conjuntamente para lograr una acción eficaz.

Figura 18. Historial seguimiento del alumno.

Figura 17. Respuestas correctas.

Los foros permiten el análisis, la confrontación y la discusión, pues en ellos se tratan temas específicos de interés para un grupo de personas. Los foros son una herramienta fundamental en cualquier entorno virtual, ya que estos ayudan a que los alumnos a que se comprometan, aporten ideas, resRevista Científica

83


pondan a otras ideas y, de esta forma, participen y aprovechen activamente el curso.

Bibliografía

+

Zabala, A.; Vidiella, A. Z.; Belmonte, L. A. y Arnau, L. (2007). Cómo aprender y enseñar competencias: 11 ideas clave (Vol. 3). Graó.

+

UNESCO (2000). Declaración Mundial sobre Educación para Todos. Documento en línea, disponible: http://www. unesco.org. Figura 19. Crear foro.

Figura 20. Participación en foros.

Los profesores también deben contar con clave de acceso, podrán consultar el contenido temático y actualizarlo, visualizar la lista de alumnos con información de sus avances.

+

Villanueva Aguilar, G. (2006). Las matemáticas por competencias. Documento en línea. Disponible en: http://dcb. fi-c.unam.mx/Eventos/Foro3/Memorias/Ponencia_67.pdf. Consulta: 10/03/2016.

+

Obaya Valdivia, A. (2000). La concepción constuctivista en la educación basada en competencias. ContactoS 36, 65-67.

+

Díaz Barriga, Arceo F.( 2003). Cognición situada y estrategias para el aprendizaje significativo. REDIE. Revista Electrónica de Investigación Educativa 5: 105-117.

+

Wouters, P.; Van Nimwegen, C.; Van Oostendorp, H. y Van Der Spek, E. D. (2013). A meta-analysis of the cognitive and motivational effects of serious games. Journal of Educational Psychology, Vol 105(2), p249-265. http://dx.doi. org/10.1037/a0031311. Figura 21. Lista de alumnos con puntaje.

Conclusiones

+

Zulma Lanz, M. (2006). APRENDIZAJE AUTORREGULADO: EL LUGAR DE LA COGNICIÓN, LA METACOGNICIÓN Y LA MOTIVACIÓN. Estudios Pedagógicos XXXII: 121-132.

+

Este proyecto denominado Sistema Educativo Multimedia para el Desarrollo de las Habilidades Matemáticas basado en Competencias surge de la necesidad actual de involucrar herramientas educativas dentro de nuevas formas de enseñanza, donde los nuevos planes de estudio plantean una enseñanza por competencia; es decir, el proceso de enseñanza requiere desarrollar estrategias de aprendizaje que les permitan a los alumnos activar el pensamiento e integrar esos saberes a su desempeño cotidiano, en especial el pensamiento matemático, que fomenta el desarrollo de la imaginación y creatividad, y como tal, el razonamiento lógico. Enseñar a pensar y reflexionar a los alumnos potencializa sus habilidades y mejora su desarrollo intelectual. Su importancia en el desarrollo de competencias radica en que el alumno aprende a darle solución a los problemas que se le presentan no solo en la escuela, también fuera de ella. Este sistema contempla, actualmente, el tema de uso de fracciones, sin embargo, el programa educativo a nivel básico es muy amplio; para ello, se está pensando en incorporar poco a poco los demás temas al sistema, iniciando con aquellos donde los alumnos presentan mayor dificultad en el entendimiento y comprensión del tema, ejemplo de ello son las multiplicaciones.

84

Revista Científica

Competencia matemática (2016). Departamento de educación. Disponible en: http://ediagnostikoak.net/edweb/ cas/item-iberados/ED09_Euskadi_Matem_EP4.pdf.

+

Villanueva Aguilar, J. (2016). Las matemáticas por competencias. Disponible en: http://dcb.fi-c.unam.mx/Eventos/ Foro3/Memorias/Ponencia_67.pdf. Fecha de consulta.

+

Sommerville, I. (2011). Ingeniería del software. Pearson Educación, México.

+

Booch, G.; Rumbaugh, J. y Jacobson, I. (2009). El lenguaje unificado de modelado. UML 2.0. Pearson, Addison Wesley, España.


Revista CientĂ­fica

85


EVALUACIÓN DE LA FATIGA EN TURNO COMPRIMIDO DE TRABAJO

EN LA

POBLACIÓN FEMENINA DE LA INDUSTRIA MAQUILADORA UTILIZANDO EL CUESTIONARIO DE YOSHITAKE

Rodolfo Ulises Rivera Landaverde1, Gilberto Orrantia Daniel2, Germán Alonso Ruiz Domínguez3 y Rogelio Acedo Ruiz4

Instituto Tecnológico de Hermosillo, Ave. Tecnológico y Periférico Poniente, S/N , Colonia Sahuaro Hermosillo, Sonora, México, C.P. 83170. 1,2,3,4

ro_rivera@ith.mx ulisesriv@yahoo.com.mx

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Enero 18, 2017. Aceptado: Mayo 22, 2017.

Resumen: La fatiga se define como una sensación general de cansancio, condiciones en las que el sujeto ya no tiene deseo alguno para seguir desarrollando el esfuerzo físico o mental requerido por la actividad. Se pretende evaluar la fatiga en operadoras que laboran un turno diurno de 10 horas en la industria maquiladora de ensamble de componentes eléctricos y electrónicos, así como la asociación de estos turnos con la productividad. Se seleccionó a 30 individuos que trabajaban en estaciones donde se presentaban síntomas de fatiga, de acuerdo a los supervisores de producción. Se agruparon en cuatro rangos de edad, 18 a 22 años, 23 a 27 años, 28 a 32 años y mayores de 33 años. Se evaluaron 20 días laborales en un periodo de 30 días. En este trabajo, la fatiga se evalúa de manera subjetiva, utilizando el cuestionario de Yoshitake. La conclusión observada fue que el rango de 23 a 27 años presenta una mayor fatiga; además, se encontró que la fatiga se incrementa al transcurrir la jornada, pero no así a medida que los días de una semana transcurren. El resultado obtenido con el cuestionario de Yoshitake fue que los síntomas que en mayor proporción se presentan, son de somnolencia y monotonía, con un 16.66% de quejas.

+

Palabras claves: Fatiga, semana comprimida de trabajo, cuestionario Yoshitake y métodos subjetivos de medición de fatiga.

86

Revista Científica


Abstract: Fatigue is defined as a general feeling of tiredness and that under these conditions the subject no longer has any desire to further develop the physical or mental effort required by the activity. It is intended to assess fatigue in operators who work the day shift of 10 hours in the maquiladora industry assembly of electrical and electronic components as well as the association of these shifts with productivity. He was selected to 30 working stations where symptoms of fatigue according to production supervisors presented. They were grouped into four age ranges, 18 to 22 years, 23 to 27 years, 28 and 32 years and older than 33 years. 20 business days were evaluated over a period of 30 days. In this paper, fatigue is evaluated subjectively, using the questionnaire Yoshitake, The observed findings was that the rank of 23 to 27 years has a greater fatigue. It was further found that fatigue increases to spend the day, but not as the days of a week pass. The result obtained with the questionnaire was Yoshitake symptoms that occur in greater proportion is that of drowsiness and monotony with 16.66% of complaints.

+ Keywords: Fatigue, compressed work week, questionnaire Yoshitake and subjec-

tive fatigue measurement methods.

Introducción Como se sabe, las maquiladoras son plantas ensambladoras que las compañías extranjeras, principalmente de los Estados Unidos de América y Japón, crearon en México con objeto de aprovechar la mano de obra barata y la cercanía al mercado estadunidense. Desde que empezaron a establecerse este tipo de inversiones, se han convertido en sinónimo de transformación económica del país. La semana de trabajo comprimida consiste en trabajar el mismo número de horas en la semana, pero en menos días, por lo que se trabajan más horas por día, con lo que se busca aumentar la duración de cada turno de trabajo. Esta es una idea atractiva para muchas personas porque se reduce el número de viajes de su casa al trabajo, además de que hay menos “tiempo de preparación”; sin embargo, se pueden presentar algunos aspectos negativos, como lo es el incremento de la fatiga, así como la reducción del desempeño. El objetivo general de esta investigación consiste en evaluar la fatiga en operadoras que laboran un turno diurno de 10 horas en la industria maquiladora de ensamble de componentes eléctricos y electrónicos, así como la asociación de estos turnos con la productividad. En este trabajo se plantea como hipótesis general que las operadoras que laboran en la industria maquiladora de Hermosillo, la semana de trabajo comprimida, específicamente el turno diurno de 10 horas, además de presentar fatiga e ir en aumento con respecto al tiempo trabajado, disminuye su productividad. La fatiga se define como una sensación general de cansancio, condición en la que el sujeto ya no tiene deseo alguno para seguir desarrollando el esfuerzo físico o mental requerido por la actividad (Masud y Fernández, 1990). Existen cinco dimensiones básicas de fatiga que pueden ser medidas, tales como: falta de energía, falta de motivación, somnolencia, malestar físico y esfuerzo físico (González Gutiérrez, Moreno Jiménez, Garrusa Hernández y López López, 2005). En la actualidad, existen diversos métodos tanto objetivos como subjetivos para evaluar la fatiga, ya sea muscular, física o mental.

La fatiga es una sensación compleja, integrada por síntomas físicos y psíquicos, que ubica a quien la percibe en un continuo que va desde sentirse bien hasta estar exhausto; constituye un sistema de evaluación de la integridad del individuo y un factor determinante en la disposición para realizar alguna tarea. En el campo de la salud en el trabajo la ubicación del estrés y la fatiga como mediadores psicofisiológicos entre el proceso de trabajo y diversos daños en la salud de los trabajadores ha abierto un conjunto de nuevas opciones para el diagnóstico y la prevención (Martínez, 2000). Desde este precepto, el estudio de ambas condiciones se transforma en un indicador confiable de los efectos inmediatos y potenciales que el proceso de trabajo tiene sobre la corporeidad y el psiquismo del trabajador. Por estos aspectos, la evaluación de la fatiga ha sido central para la salud en el trabajo, obligando al desarrollo constante de instrumentos que, a través de indicadores fisiológicos o de pruebas subjetivas, permitan estimar su intensidad y características (Barrientos Gutiérrez, Martínez Alcántara y Méndez Ramírez, 2004). Los métodos objetivos para medir la fatiga son estándares de oro, desafortunadamente algunos de ellos son limitados a laboratorio y a centros de investigación específicos, por lo cual esto restringe su uso para muchas condiciones reales de trabajo, además de que son limitados para muchos investigadores debido a sus altos costos. Por otra parte, los métodos subjetivos, como los cuestionarios y las escalas, están disponibles para todos los investigadores y se pueden aplicar en condiciones reales de trabajo con mayor facilidad, son baratos y ofrecen resultados rápidos y confiables, debido a que algunos se han validado con métodos objetivos o han sido aplicados en poblaciones muy grandes (Yoshitake, 1978; Rosa, Bonnet y Cole, 1998). Yoshitake (1978) aplicó a varios grupos de trabajadores en 250 ocasiones involucrando un total de 17 mil 789 sujetos. Las actividades de los sujetos incluyó trabajo físico y mental, en ambos turnos (día y noche) y cambio de turno de trabajo. Los trabajadores que realizaron actividades físicas se ubicaban en talleres de laminado, fábricas de papel, fundidora de hierro, refinería de aluminio, fábrica de vías de tren e imprentas de periódicos. Los trabajadores con actividades mentales laboraban como conductores de locomotoras, choferes de taxi, pilotos de helicóptero, controladores de tráfico, punzadores, empleados de banco, personal de radiodifusión, operadores de plantas de incineración, farmacias e investigadores. Rosa, Bonnet y Cole (1998) utilizaron el cuestionario de Yoshitake para medir fatiga, el cual fue validado debido a que ofreció resultados similares a pruebas objetivas. El trabajo que se realizaba en este tipo de estudio era una operación manual, en la que se utilizaban las extremidades superiores. Nishihara, Wargocki y Tanabe (2014) utilizaron el cuestionario también, para medir la fatiga al realizar tareas de oficina con diferentes cargas de contaminación. En este trabajo, la fatiga se evaluará de manera subjetiva, utilizando para ello el cuestionario de Yoshitake (1978), el cual consta de 30 preguntas que describen la fatiga, en donde los participantes respondieron “si” o “no” al momento de la entrevista. Este cuestionario se divide en tres grupos de preguntas, el primero consta de 10 preguntas relacionadas con síntomas de somnolencia y monotonía, el segundo son 10 preguntas relacionadas con síntomas de dificultad de concentración, y el tercero son 10 preguntas relacionadas con síntomas corporales o proyección de daño físico. Después de ello, se calcula la frecuencia de queja de fatiga, presentada en porcentaje, donde se divide el número de “si” contestados, entre el número de preguntas totales y el resultado multiplicado por cien. Revista Científica

87


Desarrollo La manera que se siguió para aplicar cada cuestionario, escala o prueba fue la siguiente: se seleccionaron de manera seudo aleatoria a 30 operadoras, en cuyas estaciones de trabajo se observó que se presentaban síntomas de fatiga de acuerdo a lo que indicaron los supervisores de producción, y se buscó que las operadoras que operaban en estas estaciones siempre se mantuvieran donde mismo cuando menos durante un día completo de medición. El número de operadoras (tamaño de muestra) es de 30, porque fue el número máximo de personas que se permitió estudiar por parte de la empresa. Se agruparon en cuatro rangos de edad, a dichas operadoras, teniendo que el rango número uno incluía una operadora cuya edad fluctuaba entre 18 a 22 años, once operadoras cuya edad fluctuaba de los 23 a 27 años, trece operadoras cuya edad fluctuaba entre los 28 y 32 años, y cinco operadoras las cuales eran mayores de 33 años. Sólo 20 días laborales, de un turno de 10 horas de trabajo, fueron evaluados. Hay que tomar en cuenta que esto se realizó durante un periodo de 30 días, debido a que en esta empresa se trabajan cinco días y se descansan dos días y así sucesivamente, por lo que esto se realizó hasta completar cuatro ciclos. Además, se aplicó en cuatro lapsos al día, el lapso 1 de 07:00 a 08:00 horas, el lapso 2 de 10:00 a 11:00, el lapso 3 de 13:30 a 14:30 horas, el lapso 4 entre 16:00 a 17:00 horas. En la actualidad existen diversos métodos, tanto objetivos como subjetivos, para evaluar fatiga, ya sea muscular, física o mental. En este trabajo, la fatiga se evaluará de manera subjetiva, utilizando para ello el cuestionario de Yoshitake (1978).

Como se puede ver en la Figura 1 el estadístico de prueba representado a través del nivel de probabilidad (Nivel p) del 4.134 x 10-14 % se encuentra dentro de la zona de rechazo y se puede decir que la hipótesis de que las varianzas son iguales, por lo tanto se rechaza H0. Estadísticamente aquí se encuentra que existe diferencia significativa en la fatiga media que se muestra entre los rangos de edad, por lo anterior se realiza la Prueba de Intervalos Múltiples de Duncan, para encontrar las diferencias entre los diferentes rangos de edad. Después del análisis de varianza en el que se ha rechazado la hipótesis nula, de la igualdad de las medias de los tratamientos se puede probar todas las comparaciones de las medias por pares: H0 : µi = µj, contra H1 : µi ≠ µj.

Tabla 2. Intervalos Múltiples de Duncan para los datos de fatiga según el rango de edad.

Finalmente, fue realizado el análisis de varianza (Montgomery y Runger, 2010) y en la que el resultado fue diferente se utilizaron los intervalos múltiples de Duncan (Montgomery y Runger, 2010) para identificar el grupo donde se encontraba la mayor o menor fatiga. El primer análisis de varianza fue para probar: H0 : µ1= µ2= µ3 =µ4, contra la hipótesis alternativa H1 : Algunas medias son diferentes. Donde µi representa el porcentaje de fatiga media según el rango de edad. Figura 2. Porcentaje de frecuencia de queja de fatiga media de rangos de edad.

Tabla 1. Análisis de varianza para los datos de fatiga según el rango de edad.

En la Tabla 2 se muestra que en el rango de edad 1 y 4 se presentan fatigas iguales y que en el rango de edad 2 y 3 la fatiga es diferente a cualquier otro rango. Además, se puede observar que el rango 2 presenta una mayor fatiga, le sigue en cantidad el rango 3 y por último se encuentran los rangos 1 y 4 con las menores fatigas (Figura 2). El segundo análisis de varianza fue para probar: H0 : µ1= µ2= µ3 =µ4, contra la hipótesis alternativa H1: algunas medias son diferentes, donde µi representa el porcentaje de fatiga media según la semana.

Figura 1. Distribución F para los datos de fatiga según el rango de edad. 88

Revista Científica

Tabla 3. Análisis de varianza para los datos de fatiga según la semana.


Figura 3. Distribución F para los datos de fatiga según la semana. Como se puede ver en la Figura 3, el estadístico de prueba representado a través del nivel de probabilidad (Nivel p) del 23% se encuentra dentro de la zona de no rechazo y se puede decir que no se rechaza la hipótesis de que las varianzas son iguales, por lo que estadísticamente no existe diferencia significativa en la fatiga media que se muestra entre las semanas (Tabla 3).

Figura 5. Distribución F para los datos de fatiga según los lapsos.

Como se puede ver en la Figura 5, el estadístico de prueba representado a través del nivel de probabilidad (Nivel p) de 0 se encuentra dentro de la zona de rechazo y se puede decir que se rechaza la hipótesis de que las varianzas son iguales. Por lo que estadísticamente aquí se encuentra que existe diferencia significativa en la fatiga media que se muestra entre lapsos. Por lo anterior, se realiza la Prueba de Intervalos Múltiples de Duncan para encontrar las diferencias entre los lapsos (Tabla 5).

Tabla 4. Distribución F para los datos de fatiga según la semana.

Tabla 6. Intervalos Múltiples de Duncan para los datos de fatiga según los lapsos.

Figura 4. Distribución F para los datos de fatiga según los días. Como se puede ver en la Figura 4, el estadístico de prueba representado a través del nivel de probabilidad (Nivel p) del 38% se encuentra dentro de la zona de no rechazo y se puede decir que no se rechaza la hipótesis de que las varianzas son iguales, por lo que estadísticamente no existe diferencia significativa en la fatiga media que se muestra entre los días (Tabla 4). No se encontró evidencia estadística para decir que la fatiga media que se mostró entre las semanas es diferente, tampoco se encontró evidencia estadística para decir que la fatiga media que se presentó según el día de la semana no es igual.

Figura 6. Porcentaje de frecuencia de queja de fatiga media según lapsos. En la Tabla 6 se muestra que los lapsos 1 y 2 se presentan fatigas iguales, que en el que el lapso 2 y 3 se presentan fatigas iguales, y que el lapso 3 y 4 se presentan fatigas iguales. Además se puede observar que el lapso 4 presenta una mayor fatiga, le sigue en cantidad el lapso 3 y por último se encuentran los lapsos 2 y 1 con las menores fatigas (Figura 6).

Discusión y análisis de resultados

Tabla 5. Análisis de varianza para los datos de fatiga según los lapsos.

Los siguientes resultados fueron los que se obtuvieron al realizar análisis de varianza para la fatiga, aplicando estadística descriptiva, de la lista de verificación de síntomas subjetivos de fatiga (cuestionario Yoshitake). Revista Científica

89


No se encontró evidencia estadística para decir que la fatiga media en los rangos de edad son iguales; al realizar la prueba de Intervalos Múltiples de Duncan (Montgomery y Runger, 2010) se puede decir que los rangos de edad 1 (18 a 22) y 4 (33 años en delante) se presentan fatigas iguales, que en el rango de edad 2 (23 a 27 años) y 3 (28 a 32 años) es diferente a cualquier otro rango. Además se puede observar que el rango 2 (23 a 27 años) presenta una mayor fatiga, le sigue en cantidad el rango 3 (28 a 32 años) y por último se encuentran los rangos 1 (18 a 22) y 4 (33 años en delante) con los menores índices de dicho síntoma. No se encontró evidencia estadística para decir que la fatiga media que se mostró entre las semanas es diferente, tampoco se encontró evidencia estadística para decir que la fatiga media que se presentó según el día de la semana no es igual. No se encontró evidencia estadística para decir que la fatiga media que se registró entre los diferentes lapsos es igual. Al realizar la prueba de intervalos múltiples de Duncan (Montgomery y Runger, 2010) se puede decir que en el lapso 1 (07:00 a 08:00) y 2 (10:00 a 11:00) se presentaron resultados iguales, que en el lapso 2 (10:00 a 11:00) y 3 (13:30 a 14:30) hubo igual comportamiento y que en el lapso 3 (13:30 a 14:30) y 4 (16:00 a 17:00) se observó la misma tendencia. Además se puede observar que en el lapso 4 presentó una mayor fatiga, le sigue en cantidad el lapso 3 y por último se encuentran los lapsos 2 y 1 con los menores niveles de malestar.

Tabla 8. Porcentajes de “SI” y “NO” contestados a las preguntas de dificultad de concentración.

Tabla 9. Porcentajes de “SI” y “NO” contestados a las preguntas de síntomas corporales o proyección de daño físico.

Tabla 7. Porcentajes de “SI” y “NO” contestados a las preguntas de somnolencia y monotonía. 90

Revista Científica

Tabla 10. Porcentajes de “SI” y “NO” contestados a los tres tipos de preguntas hechas en el cuestionario de síntomas subjetivos de fatiga.


De la lista de verificación de síntomas subjetivos de fatiga (cuestionario Yoshitake), se concluye que las preguntas que en mayor proporción afectaban a todas las trabajadoras, fueron la pregunta C5 ¿tiene sed?, con un 45.63% que contestaron que “Si” y con un 54.3% que respondieron que “No”; la C3 ¿siente dolor en la espalda?, con un 33.45% contestaron “Si” y en un 66.55% expresaron que “No”; la A10 ¿tiene ganas de estirarse?, un 32.23% dijeron que “Si” y el 67.77% señalaron que “No”; la C2 ¿Siente tensión en los hombros?, con un 30.77% contestaron “Si” y el 69.23% precisaron que “No”; la A5 ¿Siente usted algún malestar en el cerebro? (es decir, abotagado o que sus ideas se embarullan), un 23.95% asumieron que “Si” y un 76.05% que contestaron “No”; la A3 ¿Tiene cansancio en las piernas o las siente pesadas?, el 23.43% afirmaron que “Si” y un 76.57% que contestaron “No”; la A4 ¿A estado usted bostezando durante este tiempo? (a partir del inicio del trabajo o desde la última medición), el 21.27% concluyó que “Si” y con un 78.73% que pronunciaron “No”.

También se sugiere realizar un estudio para determinar, si al reducir la fatiga se incrementaría la productividad, además de incluir un programa de retribuciones y estímulos, esto con el fin de que la empresa no solo cumpla con el estándar requerido, sino que además logre aumentar su producción y tener mayores ganancias.

Bibliografía

+

Masud, Abu y Fernández, Jeffrey E. (May 20-23, 1990). Effects of nurse schedules on fatigue and quality. International Industrial Engineering Conference Proceedings. San Francisco, CA, USA: Pub. by IIE Norcross GA, USA. ISBN: 0898061121.

+

González Gutiérrez, José Luis; Moreno Jiménez, Bernardo; Hernández Garrosa, Eva y López López, Almudena (2005). Spanish version of the Swedish Occupational Fatigue Inventory (SOFI): Factorial replication, reliability and validity. International Journal of Industrial Ergonomics, Vol 35, 737–746. ISSN: 0169-8141.

Figura 7. Resultado de la lista de verificación de síntomas subjetivos de fatiga.

Conclusión Las diferentes conclusiones obtenidas, sobre la fatiga de las operadoras que laboran en la industria maquiladora de Hermosillo, bajo el esquema de semana de trabajo comprimida, específicamente en el turno diurno de 10 horas, fueron las siguientes: Al transcurrir las semanas 1, 2, 3 y 4 se presenta la misma fatiga, el organismo no es afectado a medida que los días de una semana pasan. La fatiga aumenta durante la jornada laboral, se presenta una mayor fatiga terminarla. En el rango de edad donde, se encontró mayor fatiga fue en el rango de 23 a 27 años, siguiéndole el de 28 a 32. De la lista de verificación de síntomas subjetivos de fatiga (cuestionario Yoshitake), se concluye que los síntomas que en mayor proporción se presentan en este tipo de trabajo son los referidos de somnolencia y monotonía, con un 16.66% de quejas, luego se manifestaron las dolencias corporales o proyección de daño físico detectadas en el 16.49% y por último, los signos de dificultad de concentración se redujeron al 7.13% de las mujeres encuestadas. De acuerdo con los resultados del cuestionario Yoshitake, lo recomendable es iniciar otra investigación para determinar el número óptimo de descansos durante la jornada y la duración de cada receso, con miras a contrarrestar la variación en la fatiga durante el día laboral y específicamente atacar con ello las causas que originan la somnolencia y monotonía. Esto, además de incluir rutinas de ejercicio para evitar las dolencias por posiciones y movimientos repetitivos. El Instituto Mexicano del Seguro Social tiene algunos documentos para abatir esta problemática.

+

Martínez, S. (2000). El estudio de la integridad mental en su relación con el proceso de trabajo. México, DF: Universidad Autónoma Metropolitana-Xochimilco; serie académicos CBS; vol. 23: 187-199.

+

Barrientos Gutiérrez, Tonatiuh; Martínez Alcántara, Susana E. y Méndez Ramírez, Ignacio (2004). Validez de constructo, confiabilidad y punto de corte de la Prueba de Síntomas Subjetivos de Fatiga en trabajadores mexicanos. Salud pública, Méx. vol.46, n.6 516-523. ISSN: 0036-3634.

+

Yoshitake, H. (1978). Three characteristic patterns of subjective fatigue symptoms. Ergonomics, Vol. 21(3), 231-233. ISSN: 0014-0139.

+

Rosa, Roger; Bonnet, Michael y Cole, Libby (March 1998). Work schedule and task factors in upper-extremity fatigue. Human Factors, Vol. 40 (1), 150-158. ISSN: 0018-7208.

+

Nishihara, Naoe; Wargocki, Pawel y Tanabe, Shin-ichi (2014). Cerebral blood flow, fatigue, mental effort, and task performance in offices with two different pollution loads. Building and Environment, Vol 71, 153-164. ISSN: 0360-1323.

+

Montgomery, Douglas y Runger, George (2010). Probabilidad y Estadística Aplicadas a la Ingeniería. USA: Limusa Wiley. ISBN: 978-9681859152.

Revista Científica

91


A P L I C A C I Ó N

D E L

MUESTREO ALEATORIO E S T R A T I F I C A D O

C O M O

TÉCNICA ESTADÍSTICA PARA EL ESTUDIO DE POBLACIONES

Francisco Alexander Rincón Molina1, Karla Lizzet Esquivel Guillén2 y Reiner Rincón Rosales3

Departamento de Posgrado. Universidad Valle de México. Blvd. Los Castillos, No. 375, Fracc. Montes Azules,Tuxtla Gutiérrez, Chiapas, México, C.P. 29050. 1,2

División de Estudios de Posgrado e Investigación, Instituto Tecnológico de Tuxtla Gutiérrez. Carretera Panamericana, Km. 1080, Tuxtla Gutiérrez, Chiapas. C.P. 29050. 3

francisco.rincon@uvmnet.edu

Resumen: El uso de las técnicas de muestreo juega un papel importante en cualquier investigación, ya que en los estudios estadísticos es importante conocer las características de una población a través del análisis de una parte de esta (muestra aleatoria) y establecer las inferencias requeridas proporcionando un grado de validez y confiabilidad, medidas en términos de probabilidad. El objetivo de esta investigación surgió como parte de las estrategias didácticas de la materia de Inferencia Estadística de la Universidad Valle de México, Campus Tuxtla, en la cual a través del uso del muestreo aleatorio estratificado se buscó inferir la cantidad de consumo mensual de bebidas gaseosas por los alumnos de las carreras del área de Negocios e Ingeniería. Esta investigación permitió que los alumnos alcanzaran competencias profesionales y a la vez conocieran la importancia de la estadística inferencial en el estudio de parámetros estadísticos.

+

Palabras clave: Inferencia estadística, muestra y muestreo aleatorio estratificado.

Recibido: Noviembre 11, 2016. Recibido en forma revisada: MArzo 21, 2017. Aceptado: Mayo 22, 2017.

92

Revista Científica


Abstract: The use of sampling techniques plays an important role in any investigation, since in statistical studies it is important to know the characteristics of a population by analyzing a part of it (random sample), and to establish the required inferences by providing a degree of validity and reliability, measured in terms of probability. The objective of this research came as part of the didactic strategies of the subject of Statistical Inference at the ‘Universidad Valle de Mexico campus Tuxtla’, in which through the use of stratified random sampling it was sought to infer the amount of monthly consumption of soft drinks by the students of the careers of the area of Business and Engineering. This research allowed the students to reach professional competences and at the same time knew the importance of inferential statistics in the study of statistical parameters.

+ Keywords: Statistical inference, sampling and stratified random sampling

Introducción La inferencia estadística tiene como propósito construir estimaciones y pruebas de hipótesis acerca de las características de una población por medio de la información contenida en una muestra. Todas las ciencias hacen uso del muestreo, ya que para todos los objetos de estudio principal es el estudio de la población. En la mayoría de las investigaciones el tamaño de la población es grande y no es posible analizarla en su totalidad por los costos elevados que esta demandaría; por ejemplo, estudiar a una población a través de 10 mil encuestas, esto sería ilógico ya que estaría fuera de presupuesto de cualquier empresa, la única manera sería a través de la obtención de una muestra, la cual permitirá estudiar e inferir solo una parte de ella, que va ser representativa al resto de la población y al final poder generalizar los resultados a toda la población. Walpole, Myers, Myers y Ye, (2012) indican que para “un problema estadístico, la muestra, junto con la estadística inferencial, permiten obtener conclusiones acerca de la población, ya que la estadística inferencial utiliza ampliamente los elementos de probabilidad”.

Inferencia estadística Los precursores de la inferencia estadística fueron Bernoulli, De Moivre y Gauss. La inferencia se puede definir como los métodos que posibilitan la estimación de una característica de una población o la toma de una decisión concerniente a una población, tan solo con base a los resultados de un muestreo. Uno de los mayores aportes de la estadística es que los datos de una muestra pueden emplearse para elaborar estimaciones y probar hipótesis acerca de las características de una población; según Díaz Mata (2013), una población es el conjunto de todos los elementos o unidades de interés para un estudio determinado. Díaz Mata (2013) menciona que la estadística anteriormente era del tipo descriptivo únicamente y que en tiempos recientes la estadística inferencial ha cobrado mucha fuerza, hasta el grado de considerarse como la única ciencia para estudiar e inferir el comportamiento de una población.

Muestra

babilísticamente uniforme, que son separados al azar y son equiprobables, todo elemento tiene la misma probabilidad de ser elegido y la selección de un elemento no depende de la elección de otro. Por otro lado, la palabra aleatorio se usa para expresar una posible carencia de orden, y el término aleatoriedad se relaciona con la carencia de tendencia o correlación (Milton y Arnold, 2004). El objetivo de una muestra es conocer una población a través del análisis de una parte de ella y establecer las inferencias requeridas proporcionando además su grado de validez y medidas en términos de probabilidad; por ejemplo, Walpole, Myers, Myers y Ye (2012) comentan que el propósito al seleccionar muestras aleatorias consiste en obtener información acerca de los parámetros desconocidos de la población. Supóngase que se desea concluir algo respecto a la proporción de consumidores de café en Estados Unidos que prefieren cierta marca de café, sería imposible interrogar a cada consumidor estadounidense de café para calcular el valor del parámetro “p” que representa la proporción de la población. En vez de esto, se selecciona una muestra aleatoria grande y se calcula la proporción “p” de personas en esta muestra que prefieren la marca de café en cuestión.

Muestro aleatorio estratificado Díaz Mata (2013) menciona que, en este tipo de muestreo se divide a la población en subconjuntos o estratos, por ejemplo, por departamento, ubicación, edad, giro industrial, etc. Queda a juicio de quien diseña la muestra. Sin embargo, los mejores resultados se obtienen cuando los elementos de cada estrato son tan semejantes como sea posible. Después de formar los estratos, se toma una muestra aleatoria simple de cada uno de ellos o por un método sistemático para cada estrato. El tamaño de la muestra para cada estrato se obtiene de manera proporcional al tamaño de la población para cada estrato. Esta técnica se aplica cuando la variabilidad de la variable de interés por lo regular es baja, por lo tanto, las estimaciones que se calculan mediante esta técnica son más precisas que las que se obtienen utilizando muestras aleatorias simples en la misma población debido a que, al ser más homogéneas las mediciones dentro de cada uno de los estratos que en la población total, se reduce el error muestral de las estimaciones. Cuando se utiliza el muestreo aleatorio estratificado, Díaz Mata (2013) menciona que “es preferible hacer que los tamaños de las muestras en cada estrato sean proporcionales a los tamaños de los estratos respecto a la población; también es posible hacer inferencias con base en muestras que no sean proporcionales a los tamaños de sus correspondientes estratos, aunque esto complica un poco la labor de ponderar (asignar pesos o importancia relativas) a los resultados de cada una de las muestras”.

Hipótesis La hipótesis que se probó fue: “la aplicación de la técnica de muestreo aleatorio estratificado permite inferir un parámetro poblacional relacionado con el consumo mensual de bebidas gaseosas en las carreras de la División de Negocios e Ingeniería de la Universidad Valle de México”.

Se entiende como muestra el subconjunto de una población que se obtiene de manera aleatoria; es decir, que son extraídos de una población proRevista Científica

93


VARIABLE DEPENDIENTE: Parámetro poblacional del consumo mensual de bebidas gaseosas. VARIABLE INDEPENDIENTE: Aplicación del muestro aleatorio estratificado.

generación de números aleatorios (Tabla 1).

La pregunta de investigación y/o supuestos de investigación fueron: A través de la técnica de muestro aleatorio estratificado, ¿se puede calcular un parámetro estadístico que permita inferir el consumo de bebidas gaseosas en las carreras de la División de Negocios e Ingeniería de la Universidad Valle de México? Tabla 1. Formato para el cálculo de muestra.

Alcance Siendo el alcance de esta investigación: Explicativo: Se pretende inferir a través del muestro aleatorio estratificado, técnica de la estadística inferencial, un parámetro poblacional acerca del consumo mensual de bebidas gaseosas de la población de estudiantes de las carreras de la División de Negocios e Ingeniería.

3.

Encuesta de práctica de muestreo aleatorio estratificado para la obtención del cálculo mensual de consumo de bebidas gaseosas (Figura 1).

Causa: Aplicación de la técnica de muestreo aleatorio estratificado. Efecto: Obtención de un parámetro estadístico poblacional. Correlacional: A través de la aplicación de un muestreo aleatorio estratificado, es posible inferir el consumo mensual de bebidas gaseosas, de la población de estudiantes de las carreras de licenciatura de las divisiones de Negocios e Ingeniería, de la Universidad Valle de México. Variable dependiente: Parámetro poblacional del consumo mensual de bebidas gaseosas. Variable independiente: Muestro aleatorio estratificado.

Instrumentos de investigación Para realizar esta investigación se utilizaron varios instrumentos de apoyo que permitieron realizar un adecuado estudio poblacional, dentro de los instrumentos utilizados se encuentran:

Figua 1. Encuesta de práctica de muestreo aleatorio estratificado.

4.

Formato para el cálculo de consumo a partir de los resultados de la encuesta, según Baca Urbina (2001).

1.

Listas de alumnos inscritos proporcionada por Servicios Escolares de cada uno de los grupos que forman parte de la División de Negocios e Ingeniería, los cuales fueron: Licenciatura en Administración de Empresas, Licenciatura en Administración de Negocios Internacionales, Licenciatura en Contaduría Pública y Finanzas, Licenciatura en Mercadotecnia, Ingeniería Mecatrónica, Ingeniería Civil e Ingeniería en Energía y Desarrollo Sustentable.

2.

Formato para el cálculo del tamaño muestral con base a la proporción de alumnos por semestre y por carrera, mediante la

94

Revista Científica

Tabla 2. Formato para el cálculo de consumo a partir de los resultados de la encuesta.


Análisis de resultados Para obtener el parámetro estadístico de interés, el primer paso que se realizó fue obtener las listas de alumnos inscritos proporcionada por Servicios Escolares de cada uno de los grupos que forman parte de la división de Negocios e Ingeniería; posteriormente, se llenó el formato de la Figura 1 con la cantidad de alumnos por semestre y por carrera, para calcular la proporción de estudiantes y poder determinar la muestra a encuestar por cada semestre y así poder generar los números aleatorios para ubicar el número de lista del alumno a seleccionar. Una vez llevado a cabo este proceso, el siguiente paso fue aplicar la encuesta de los alumnos seleccionados, para posteriormente analizar los resultados de la encuesta en el formato de la Tabla 2. Este análisis del cálculo de consumo mensual de bebidas gaseosas a partir de los resultados de la encuesta se realizó por carrera, en la Figura 3 se registra el porcentaje de la frecuencia de respuesta del consumo en mililitros de los encuestados, así también se registra el porcentaje de respuesta relativo de la cantidad de personas por volumen seleccionado y se registra por cada porcentaje de respuesta relativo, la frecuencia mensual de consumo, para que al final se multiplique: (La población por carrera) x (% de respuesta) x (consumo en ml) x (% relativo de respuesta) x (frecuencia mensual de consumo) = mililitros consumidos por mes Con la información obtenida de cada uno de los formatos de la Tabla 2 por carrera, se procedió a realizar tres gráficas de pastel para medir la magnitud del consumo de bebidas gaseosas por División de las carreras del área de Negocios e Ingenierías y para todas las carreras de las dos áreas; y de esta manera poder obtener un parámetro estadístico que permitió medir el consumo promedio de bebidas gaseosas por carrera a través de la estadística inferencial.

Tabla 3. Cálculo del tamaño muestral con base a la proporción de alumnos por semestre de la carrera de Ingeniería en Energía y Desarrollo Sustentable.

Tabla 4. Cálculo de consumo promedio mensual de bebidas gaseosas a partir de los resultados de la encuesta de la población consumidora de Ingeniería en Energía y Desarrollo Sustentable.

Revista Científica

95


Tabla 5. Cálculo del tamaño de muestra con base a la proporción de alumnos por semestre de la carrera de Ingeniería Civil.

Tabla 6. Cálculo de consumo promedio mensual de bebidas gaseosas a partir de los resultados de la encuesta, de la población consumidora de Ingeniería Civil.

Tabla 7. Cálculo del tamaño muestral con base a la proporción de alumnos por semestre de la carrera de Mercadotecnia.

Tabla 9. Cálculo del tamaño muestral con base a la proporción de alumnos por semestre de la carrera de Ingeniería Mecatrónica

Tabla 10. Cálculo de consumo promedio mensual de bebidas gaseosas a partir de los resultados de la encuesta, de la población consumidora de Ingeniería Mecatrónica.

Tabla 11. Cálculo del tamaño muestral con base a la proporción de alumnos por semestre de la carrera de licenciatura en Administración de Empresas y Administración de Negocios Internacionales.

Tabla 8. Cálculo de consumo promedio mensual de bebidas gaseosas a partir de los resultados de la encuesta, de la población consumidora de la carrera de Mercadotecnia. Tabla 12. Cálculo de consumo promedio mensual de bebidas gaseosas a partir de los resultados de la encuesta, de la población consumidora de licenciatura en Administración de Empresas y Administración de Negocios Internacionales. 96

Revista Científica


Una vez obtenidas todas las tablas de cálculo de consumo promedio mensual de bebidas gaseosas por cada una de las carreras, es posible inferir un parámetro estadístico del total de consumo promedio de litros de bebidas gaseosas, lo cual permite medir la magnitud de consumo por división de carreras y globalmente, para ver qué carreras son las más consumidoras de bebidas gaseosas.

esta técnica ayuda a obtener un parámetro poblacional confiable. Es importante utilizar esta técnica estadística en la investigación poblacional, ya que es la única manera de poder inferir el comportamiento de una variable de estudio, asimismo permite tomar las medidas correctivas y preventivas para disminuir el consumo de bebidas gaseosas, ya que como se sabe, el consumo de estas bebidas provoca sobrepeso y obesidad, lo cual aumenta el riesgo de padecer diabetes, problemas cardíacos, infarto, cáncer, osteoporosis y otras enfermedades, asimismo causa problemas sociales y psicológicos.

Tabla 13. Gráfica de pastel del total de consumo promedio en litros de bebidas gaseosas por mes de la División de Negocios.

Bibliografía

+

Tabla 14. Gráfica de pastel del total de consumo promedio en litros de bebidas gaseosas por mes del área de Ingenierías.

Baca Urbina, G. (2001). Evaluación de proyectos (Cuarta edición ed.). México: McGRAW-HILL.

+

Díaz Mata, A. (2013). Estadística aplicada a la administración y la economía. México: Mc Graw Hill.

+

Milton, J. S., y Arnold, J. C. (2004). Probabilidad y estadística con aplicaciones para ingeniería y ciencias computacionales. México: McGraw-Hill.

+

Walpole, R. E; Myers, R. H; Myers, S. L. y Ye, K. (2012). Probabilidad y estadística para ingeniería y ciencias. México: PEARSON EDUCACIÓN. Tabla 15. Gráfica de pastel del total de consumo promedio en litros de bebidas gaseosas de las carreras de la División de Negocios e Ingeniería.

En la Tabla 15 es posible observar que la carrera con el mayor parámetro estadístico de consumo mensual de bebidas gaseosas es la carrera de Ingeniería Mecatrónica, y la de menor consumo es la carrera de Ingeniería en Energía y Desarrollo Sustentable, por ejemplo, para poder satisfacer las necesidades de los alumnos de Mecatrónica, es necesario surtir aproximadamente 430 refrescos de 600 mililitros cada mes, tomando como referencia el parámetro estadístico obtenido a través del muestreo aleatorio estratificado, asimismo tendríamos que surtir a la Universidad Valle de México, Campus Tuxtla, un total de mil 266 refrescos de 600 mililitros para satisfacer la demanda mensual de los estudiantes de las carreras de la División de Negocios e Ingeniería.

Conclusión El uso de la estadística inferencial, específicamente el muestro aleatorio estratificado, permitió obtener el parámetro estadístico del consumo mensual de bebidas gaseosas de las carreras de la División de Negocios e Ingeniería, asimismo queda probada la hipótesis de que la aplicación de Revista Científica

97


C O N T R O L

D E

TEMPERATURA

P A R A E S P A C I O S R E D U C I D O S B A S A D O E N C E L D A P E L T I E R

Luis Antonio Naranjo Rosas1, Oliver Alegría Vázquez2, José de Jesús Hernández Pino3, Rigoberto Martínez Méndez4 y José de Jesús Agustín Flores Cuautle5

Maestría en Ingeniería Electrónica, Instituto Tecnológico de Orizaba, Tecnológico Nacional de México, Oriente 9, Emiliano Zapata Sur, C.P. 94320 Orizaba,Veracruz. 4 Universidad Autónoma del Estado de México. Cerro de Coatepec s/n, Ciudad Universitaria, C.P. 50100, Toluca, Estado de México. 1,2,3,5

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Enero 9, 2017. Aceptado: Mayo 22, 2017.

98

Resumen: El uso de elementos resistivos en el control de temperatura es de uso extendido, sin embargo, este tipo de elementos no permiten reducir la temperatura cuando la señal de control es negativa. En el presente trabajo se presenta un control de temperatura utilizando como elemento activo una celda Peltier; los resultados muestran que es posible a utilizar este tipo de elementos activos, siempre y cuando el ambiente a controlar sea de dimensiones reducidas. El uso de dimensiones reducidas permite disminuir la inercia térmica del sistema, permitiendo de esta forma obtener un mejor control.

+

Palabras clave: Celda Peltier, control y temperatura.

Abstract: The use of resistive elements in temperature control is widely extended however, this type of actuators do not allow to reduce the temperature when signal control becomes negative, in this paper a temperature control is presented using a Peltier cell as an active element, results show that it is possible to use this kind of elements when controlled environment is size reduced. The use of small sizes results in less thermal inertia and therefore, a better control is obtained.

+ Keywords: Peltier cell, control and temperature. Revista Científica


Introducción Existen numerosas aplicaciones, desde el ámbito químico hasta el sector alimenticio, en las cuales es necesario controlar la temperatura (Coupland y McClements, 1997; Baggenstoss y Poisson, 2008), donde el grado de precisión con el cual se necesita manipular la temperatura es variable. Diversos elementos calefactores, ampliamente utilizados en los controles de temperatura, presentan apenas dificultades para controlar el aumento de temperatura que ellos provocan; sin embargo, esta situación se torna difícil cuando es necesario disminuir la temperatura. La forma más utilizada es mediante la circulación de un refrigerante, siendo esto particularmente útil cuando se tiene que disminuir la temperatura en un rango amplio, no obstante, cuando se requiere tener una mayor precisión en los resultados es necesario encontrar una forma de extraer de forma controlada el calor. Las celdas Peltier crean una diferencia de temperatura entre sus caras mediante la circulación de corriente eléctrica. El funcionamiento de dichas celdas puede explicarse tomando como base el efecto Seebeck (Bejan, 1993; Çengel y Ghajar, 2011); en dicho efecto, una diferencia de temperaturas aplicada a la unión de dos metales diferentes provoca la generación de una diferencia de potencial (Figura 1), esta diferencia de potencial depende principalmente del tipo de metales usados y la temperatura. Este efecto es reversible, esto es, al aplicar una diferencia de potencial en la unión entre dos metales, se genera en ellos una diferencia de temperatura, lo que se conoce como efecto Peltier (Bejan, 1993; Halliday y Resnick, 2003).

El uso de celdas Peltier se ha extendido a lo largo de los últimos años en procesos de regulación de temperatura, sobre todo cuando de refrigeración se trata, ya que ofrece una alternativa para los circuitos frigoríficos a base de compresión de vapores; sin embargo, es posible no solo extraer calor del medio que se desea controlar, sino que modificando el sentido de circulación de corriente se puede calentar dicho medio (Figura 3). Es importante mencionar que la cantidad de calor que puede suministrar está limitada por la temperatura máxima de operación de la celda Peltier.

Figura 3. Funcionamiento de una celda Peltier, cuando la corriente circula en sentido inverso. El control de sistemas que involucran la temperatura como variable a controlar, presenta como principales dificultades el impedimento para ingresar o extraer calor del sistema a controlar y la inercia térmica del propio sistema (Areny, 2004); en el presente artículo, se presenta el desarrollo de un control de temperatura utilizando como transductor una celda Peltier.

Metodología

Modelo matemático del sistema a controlar Figura 1. Representación esquemática del efecto Seebeck. En el caso de la unión entre metales, aplicar una diferencia de potencial es poco práctico para obtener una diferencia de temperatura; en primer lugar, se tiene que considerar la baja resistividad electrifica que presentan los metales, aunado a ello, la diferencia de temperatura generada entre los metales será de una magnitud reducida, debido a la conductividad térmica de los mismos. Una forma de solventar este problema es con el uso de materiales semiconductores, esto gracias a que se pueden controlar variables tales como conductividad eléctrica, caídas de voltaje, etc.; gracias a ello, se han desarrollado celdas Peltier basadas en semiconductores (Figura 2).

Para encontrar el modelo matemático del sistema a controlar, se le aplicó una función escalón, que se define como:

Donde A es una constante y en el presente caso representa el voltaje aplicado a la celda Peltier. La función escalón unitario se escogió por dos razones, la primera es porque físicamente este tipo de función representa una señal constante aplicada súbitamente al sistema, por lo cual es fácilmente implementable; en segundo lugar, en el dominio de la frecuencia, esta señal se representa como 1/s (Ogata, 2003). Aplicando este tipo de función se mide la temperatura del sistema en función del tiempo, para así obtener la respuesta de dicho sistema a la mencionada función; de esta forma, conociendo la respuesta del sistema a la función escalón unitario, es posible obtener el sistema mismo. Los datos obtenidos de esta forma se presentan en la Figura 4.

Figura 2. Funcionamiento de una celda Peltier, cuando la corriente circula en el sentido convencional. Revista Científica

99


En donde Gc(s), es un control proporcional-integral, está dado por la expresión:

y la expresión H(s)=1.

Figura 4. Respuesta del sistema en lazo abierto a la función escalón.

Con las constantes obtenidas anteriormente, así como la respuesta del sistema, se realizó una simulación en Matlab®, haciendo uso del Toolbox Simulink. La Figura 6 muestra la planta del sistema, así como el controlador propuesto utilizado, para la verificación de la correcta sintonización del controlador.

Se ajustó una función de tipo exponencial creciente a los datos experimentales, a fin de obtener una expresión analítica que permita calcular los valores necesarios para el controlador. La expresión que modela el comportamiento del sistema a la función escalón es (Ogata, 2010):

Con t el tiempo, A, y0 y x las constantes del sistema con valores de A= -9.94, y0=35.81, x=-986 Utilizando la Transformada de Laplace para obtener la respuesta del sistema se obtiene la expresión:

Figura 6. Lazo de control del sistema simulado en Matlab®.

Resultados y discusión Mediante la simulación del control PI fue posible recrear en la Figura 7, la respuesta del sistema a una función escalón, pudiéndose observar un comportamiento similar al deseado.

Resolviendo el sistema y utilizando las constantes obtenidas mediante el ajuste de la función exponencial, la respuesta del sistema se puede expresar como:

Control En el control, clásico uno de los tipos de control más recurrentes es el controlador PID; sin embargo, para aplicaciones de temperatura, la parte derivativa de dicho control suele ser muy pequeña, debido al tiempo de respuesta característico de estos sistemas. Mediante el método de lugar de las raíces (Root Locus) se diseñó un controlador de tipo PI; para el diseño de este controlador es necesario conocer el comportamiento dinámico del sistema, mejor conocido como función de transferencia, dicha función relaciona la entrada del sistema, que en este caso es un voltaje, con la salida del mismo, temperatura en este caso. La Figura 5 muestra el diagrama a bloques del lazo de control propuesto.

Figura 5. Lazo de control propuesto para el sistema de temperatura. 100

Revista Científica

Figura 7. Respuesta del sistema en lazo cerrado a la función escalón.

Es posible implementar un control PI para regular la temperatura de una celda Peltier, utilizando un puente H como etapa de potencia, que también puede ser utilizado para cambiar el sentido de la corriente que circula en la celda Peltier para conseguir una señal de control negativa, lo que representa una clara ventaja en comparación con los sistemas de regulación de temperatura convencionales en los que, cuando se presenta un error negativo,


a menos que se utilice otro actuador para reducir la temperatura, resulta en una situación complicada corregir este error. Se propone la utilización de estos materiales con el fin de lograr una regulación de la temperatura del sistema con mayor confiabilidad y precisión que los sistemas comúnmente usados para estos procesos. Es importante recalcar que, debido a las características del elemento activo utilizado, es preferible utilizarlo en espacios reducidos, esto porque la inercia térmica influye negativamente en el control del sistema, por lo cual un ambiente con un volumen menor a 1000cm3 es ideal para este tipo de aplicaciones.

Conclusiones A diferencia de los controles de temperatura convencionales, en los cuales si se presenta una señal de error negativa no es posible enviar una señal de control negativa, ya que normalmente los calefactores comunes no pueden absorber calor simplemente cambiando la polaridad de la señal de alimentación que se le aplica, en el caso de las celdas Peltier, esto es posible al cambiar la cara caliente a la cara fría, valiéndose de alternar la polarización con la que se alimenta la celda, por lo que en caso de que el sistema requiera de una señal de control negativa se podrá enviar una señal proporcional para corregir el error negativo cuando este se presente. Así que, en comparación con otros sistemas de regulación de temperatura, se asume que este control será más preciso y además deberá tener una mejor respuesta ante las variaciones externas o en general para alcanzar la estabilidad en el valor de referencia.

Bibliografía

+

Areny, R. P. (2004). Sensores y acondicionadores de señal, Marcombo.

+

Baggenstoss, J. y Poisson, L. (2008). “Coffee Roasting and Aroma Formation: Application of Different Time−Temperature Conditions.” Journal of Agricultural and Food Chemistry 56(14): 5836-5846.

+Bejan, A. (1993). Heat transfer, John Wiley & Sons, Inc. +

Çengel, Y. A. y Ghajar, A. J. (2011). Heat and Mass Transfer: Fundamentals & Applications, McGraw-Hill.

+

Coupland, J. N. y McClements, D. J. (1997). Physical properties of liquid edible oils. Journal of the American Oil Chemists’ Society 74(12): 1559-1564.

+Halliday, D. y Resnick, R. (2003). Fisica, CEA. +

Ogata, K. (2003). Ingeniería de control moderna, Pearson Educación.

+

Ogata, K. (2010). Modern Control Engineering Plus MATLAB and Simulink Student Version 2010, Pearson Education, Limited.

Los resultados de la aplicación de esta propuesta, se verán directamente afectados por la sintonización del controlador PI, y la resolución del sensor que se utilice como realimentación, entre otros factores, pero se espera una respuesta del sistema con las características y especificaciones que pudieran requerirse para un control de temperatura, que se desee que sea empleado para realizar otros experimentos.

Revista Científica

101


ELABORACIÓN DE

HORARIOS COMPUTACIÓN EVOLUTIVA M E D I A N T E

Rogelio Acedo Ruiz1, Rodolfo Ulises Rivera Landaverde2, Daniel Pérez Pérez3, César Enrique Rose Gómez4 y Julio César Flores López5

1,2,3,4,5

Instituto Tecnológico de Hermosillo, Av. Tecnológico, s/n. Col. El Sahuaro.Hermosillo, C.P. 83170, Sonora. México.

ro_acedo@ith.mx ro_rivera@ith.mx dperez@ith.mx crose@ith.mx jflores@ith.mx

Resumen: El proceso de elaboración de horarios en el Instituto Tecnológico de Hermosillo, toma demasiado tiempo; para tener listos los horarios del semestre siguiente, se requiere que el proceso inicie antes de que termine el semestre actual. Los coordinadores hacen proyecciones de la demanda esperada, las cuales algunas veces no son acertadas; cuando se tienen los datos definitivos, el tiempo es muy limitado para reprogramar los horarios de manera óptima. La elaboración de horarios en una universidad es un proceso complejo que ha sido estudiado por varios investigadores. Su dificultad estriba en que cae dentro de la categoría de los problemas NP-Completos; o dicho de otra forma, no existe un método universalmente conocido que siempre siga los mismos pasos y que funcione de manera infalible el cien por ciento de las veces. Los algoritmos genéticos encajan perfectamente en situaciones donde se conoce muy poco acerca de cómo resolver el problema, pero está disponible algún método para evaluar la solución encontrada. El presente trabajo consiste en el análisis, diseño y la implementación de un sistema que realiza propuestas de horarios de manera automática utilizando técnicas metaheurísticas evolutivas, más específicamente Algoritmos Genéticos.

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Marzo 21, 2017. Aceptado: Mayo 22, 2017.

102

Revista Científica

+

Palabras Clave: Algoritmos genéticos, elaboración automática, horarios y computación evolutiva.


Abstract: Schedule elaboration in Instituto Tecnológico de Hermosillo takes too much time; in order to have them ready for the next semester the process needs to start before the actual semester ends. Coordinators make projections of the expected demand and sometimes they are not correct; once they get the definitive data, the time to make corrections in a proper way is very limited. Automated timetable in a university is a complex process that has been studied by several investigators. It is a NP-Complete problem. There is not a known universal method to solve it. Genetic Algorithms fit perfectly in situations where it is unknown how to solve a problem but it is easy to evaluate a given solution. The present article consist in the analysis, design and implementation of a system that provides solution proposal for schedules using metaheuristic evolutive techniques, such Genetic Algorithms.

+ Keywords: Genetic Algorithm, automated timetabling, schedule and evolutive computing. Introducción En el Instituto Tecnológico de Hermosillo, como en cualquier otra institución educativa, cada semestre tienen que definirse las materias que se van a ofrecer. Estas materias, regularmente, están agrupadas en paquetes, con horario corrido, de acuerdo a las necesidades de cada generación de alumnos. Los encargados de determinar el contenido de estos paquetes son los coordinadores de carrera y los jefes de departamento. Ellos tienen que decidir cuántos grupos de cada materia abrirán, qué maestros las impartirán y qué horarios tendrán los alumnos y los maestros. Se tiene que cuidar que no se empalmen grupos y que la menor cantidad de alumnos tengan horas libres en su horario. Se tienen que respetar también los horarios que desean los maestros. Además, existen las restricciones de tipo administrativo, por ejemplo, un maestro no debe impartir más de tres materias diferentes. Por otro lado, cada docente tiene asignada una carga (un número de horas de clase a la semana), la cual no puede ser excedida. No es sencillo asignar las cargas, debido a que no todas las materias tienen el mismo número de horas por semana. No es posible esperar a que un semestre termine para comenzar a organizar los horarios para el ciclo siguiente, esto es debido a que el período es pequeño, desde que todos los maestros entregan sus listas hasta el momento de las inscripciones. Por este motivo, los coordinadores hacen proyecciones de los grupos que se necesitarán abrir para el siguiente semestre, con base a las materias que se están impartiendo y a un índice de reprobación determinado de acuerdo a su experiencia; sin embargo, los datos definitivos no los tienen hasta que terminan los cursos. La gran cantidad de variables que tiene el proceso y el hecho de que sean humanos los encargados de realizarlo, además de tomar demasiado tiempo, propicia que se cometan errores y omisiones, como por ejemplo que se programe a un docente dos grupos diferentes a la misma hora, que se abran grupos con menos alumnos de los requeridos, que se exceda la carga reglamentaria de un maestro, etcétera. Estos errores y omisiones provocan inconformidades por parte de los maestros y alumnos; además, no se aprovecha al cien por ciento a la planta docente, en ocasiones se da el caso de que los semestres empiecen con grupos descubiertos, hay contrataciones apresuradas de maestros que, entre otros detalles, merman la calidad educativa que debe brindar la institución.

Antecedentes La elaboración de horarios (timetabling/scheduling) es un problema que ha sido bastante estudiado. De acuerdo a Fang (1994), la dificultad de automatizar este proceso radica en que son problemas computacionales clasificados como NP-completos. Esto significa que no se conoce ningún algoritmo determinístico que pueda llegar a una solución en un tiempo razonable. Además, el espacio de soluciones posibles para la mayoría de los problemas en el mundo real es demasiado grande para los métodos de búsqueda tradicionales. De acuerdo a Goldberg (1989) y Horman (1989), los algoritmos genéticos encajan perfectamente en situaciones donde se conoce muy poco acerca de cómo resolver el conflicto, pero está disponible algún método para evaluar la solución encontrada. En los algoritmos genéticos no es necesario conocer el método para llegar a la solución del problema, únicamente necesitamos conocer qué características debe tener dicha solución. Para encontrar una solución se utiliza el azar y la selección, tal y como se da en la evolución natural (Koza, Bennett, Andre y Keane, 1999; Dawkins, 1996).

Algoritmos genéticos

Los pasos a seguir por el algoritmo genético son: A) Inicialización El primer paso para utilizar un algoritmo genético es parametrizar el problema en una serie de variables, donde cada variable representa a un gen. El conjunto de valores para dichas variables se concatenan en una cadena de caracteres, a la cual se le denomina cromosoma. Al comenzar el proceso se inicializa un conjunto de soluciones potenciales obtenidas al azar, y se obtiene su cromosoma correspondiente. Al conjunto de cromosomas se les llama población. Debe elegirse cuidadosamente el tamaño de la población; si es demasiado pequeño, puede que el algoritmo genético no explore suficientemente el espacio de soluciones para encontrar la mejor. Si es demasiado grande, el algoritmo tardará más tiempo del necesario para finalizar. B) GENERACIÓN Se itera cada uno de los siguientes pasos hasta que se cumpla un determinado criterio de terminación:

1) Evaluación. Debe de existir alguna manera de evaluar las

soluciones candidatas, para determinar qué tan buena solución es. Este paso dependerá de cada problema en particular. Debe existir también la manera de expresar numéricamente el resultado de la evaluación. A esta medida se le llama fitness o aptitud (en lo sucesivo se usa fitness por ser más común en la literatura).

2)

Selección. Se escoge a dos padres para generar a dos individuos nuevos. La selección puede ser proporcional al fitness, aleatoria o una combinación de ambas.

3)

Cross-over, apareamiento o cruzamiento. Los individuos nuevos se forman combinando partes de los cromosomas de sus padres.

Revista Científica

103


Cross-over de un punto. Se genera un número aleatorio menor a la longitud del cromosoma, el cual será la posición de cross-over. Los genes que se encuentran antes de dicha posición son tomados del primer padre y los genes que están después se toman del segundo padre. Cross-over uniforme. Se genera un patrón aleatorio de 1s y 0s, y se intercambian los genes de los dos cromosomas que coincidan donde hay un 1 en el patrón. O bien, se genera un número aleatorio para cada gen, y si supera una determinada probabilidad (típicamente 0.5), se intercambia entre los dos cromosomas. El cross-over es el principal operador genético, hasta el punto que se puede decir que no es un algoritmo genético si no tiene cross-over y, sin embargo, puede serlo perfectamente sin mutación (Holland, 1992).

4)

Mutación. Se produce un nuevo individuo, modificando ligeramente, al azar, a uno ya existente. La mutación asegura que todos los posibles valores para un cromosoma pueden ser alcanzados. Si un valor para un gen no se generó en la población inicial, con el cross-over no podrá generarse. La mutación opera seleccionando cualquier posición de gen y modificando su valor. En la evolución natural la mutación es un suceso poco común, sucede aproximadamente en una de cada mil replicaciones. En la mayoría de los casos las mutaciones son fatales para el individuo afectado, pero contribuyen a la diversidad genética de la especie. En un algoritmo genético tendrán el mismo papel e, igualmente, una frecuencia muy baja.

Restricciones duras, las cuales se tienen que cumplir forzosamente:

1.

En un paquete no podrán existir dos clases el mismo día a la misma hora.

2. No deben haber horas libres entre grupos. 3. Un maestro no puede dar más de una clase el mismo día a

la misma hora.

Restricciones suaves, que corresponden a preferencias:

+

Que un maestro prefiera dar clase de 08:00 a 09:00 horas, en lugar de 9:00 a 10:00 horas. Debe estructurarse el cromosoma para cumplir las restricciones. La mejor manera de hacerlo es generar una serie de números consecutivos que representarán las horas de un paquete para determinado día. Como no se sabe cuál clase debe ir primero y cuál después, se desordena la cadena aleatoriamente. Cada una de estas cadenas formará un gen, y cada uno representará un día de cada paquete dentro del horario. Para darle significado a cada cadena, ésta se coloca en una tabla plantilla. El cromosoma completo irá en el último renglón de una tabla. Los otros renglones indicarán qué paquete, qué grupo y qué día es la hora que quedó en cada columna. Cada símbolo significa una hora del día como se muestra en Tabla 1.

No es conveniente abusar de la mutación. Es cierto que es un mecanismo generador de diversidad, y, por tanto, una solución cuando un algoritmo genético está estancado, pero también es cierto que reduce el algoritmo genético a una búsqueda aleatoria. Siempre es más conveniente usar otros mecanismos de generación de diversidad, como aumentar el tamaño de la población o garantizar la aleatoriedad de la población inicial.

5)

Reemplazo. Si un nuevo individuo es mejor que el peor individuo de la población, el nuevo individuo toma el lugar del menos apto.

C) CONDICIÓN DE TERMINACIÓN El proceso termina cuando la población (o algún individuo) alcanzan una puntuación preestablecida, o cuando se alcanza un determinado número de generaciones.

Diseño de la solución propuesta

Inicialización y codificación Para el caso particular estudiado se presentan las siguientes restricciones: 104

Revista Científica

Tabla 1. Codificación del cromosoma Números hexadecimales a horas. En la Tabla 2 se muestra un cromosoma ejemplo, acomodado en la tabla plantilla para su decodificación: Ejemplo:/AB9C8/A9B8/89ACB/A89BC/9A 8B/3124/31542/1324/43251/51342// En la inicialización de la población se escogió una estructura que impidiera que se formen los resultados prohibidos de las restricciones duras número 1 y número 2. Posteriormente se deberá agregar una condición en la etapa de evaluación para monitorear los resultados prohibidos de la restricción dura número 3.


Tabla 2. Cromosoma acomodado en la tabla plantilla.

Evaluación

Todos los cromosomas (horarios) se evalúan. La evaluación consiste en verificar que las horas dentro del cromosoma, ya acomodadas en la tabla plantilla, puedan ser impartidas por el maestro que le corresponde. Por cada hora que un maestro pueda impartir, se incrementará en el valor del fitness o aptitud. Entre más alto el fitness, el cromosoma es mejor.

Selección

Se observó que el algoritmo funcionaba mejor si se seleccionaba al mejor individuo de la población como padre 1 y a cualquier otro individuo al azar como padre 2. Si se eligen siempre los dos mejores padres, al cabo de cierto tiempo todos los individuos de la población terminaban muy parecidos entre sí, lo cual restaba diversidad e impedía encontrar la mejor solución posible.

Cruzamiento

/41235/2413/23514/42351//Nuevo Individuo

Cruzamiento uniforme Para el cruzamiento uniforme se genera un número aleatorio para cada gen del cromosoma. El número aleatorio puede ser 1 o 2. Se va formando al nuevo individuo gen por gen, se va tomando la decisión sobre cuál de los dos padres aportará cada gen al nuevo individuo.

Se utilizan dos tipos de cruzamiento, el cruzamiento de un punto y el cruzamiento uniforme. El algoritmo alterna aleatoriamente entre los dos tipos de cruzamiento. Cada tipo de cruzamiento tiene 50% de probabilidades de ocurrir. Cada gen está delimitado por los caracteres “/”. Cada padre (y de hecho toda la población) tiene 10 genes en su cromosoma, para éste caso particular.

Cruzamiento de un punto El cruzamiento de un punto consiste en generar un número aleatorio entre 1 y el número de genes del cromosoma, en este caso 10. Después se toma desde el gen 1, hasta el gen del número aleatorio generado del padre 1 y los genes restantes serán los del padre 2. Esto dará como resultado un cromosoma nuevo, con características de los dos padres. Por ejemplo: Número aleatorio entre 1 y 10 = 6

Revista Científica

105


Mutación En el caso de este trabajo, intercambiar el valor de un bit o de un número hexadecimal aleatoriamente sería desastroso, se crearían resultados prohibidos y todo el esfuerzo hecho en la parte de inicialización habrá sido en vano. Para evitar crear resultados prohibidos al utilizar la mutación tradicional, se utilizó un operador especializado para aplicarlo al gen cuando este deba mutar. Este operador mantiene las condiciones iniciales de cada gen: ser una serie de números hexadecimales desordenados aleatoriamente. El operador utilizado es la transposición (Merelo, 19970). Consiste en hacer un corrimiento de los caracteres dentro del gen. Si el gen es /98AB/ una mutación-transposición, dará como resultado /8AB9/ o /B98A/. El último carácter pasará a ocupar la primera posición o viceversa.

Remplazo

Al finalizar el cruzamiento y, en su caso, la mutación, se evalúa al descendiente. Si su fitness es mayor que el del peor individuo de la población y si no existe un individuo idéntico en la población, el descendiente remplaza al individuo con peor fitness en la población.

Operador juicio final

Si aún con poblaciones grandes y aleatoriedad en la selección de los padres se presenta el estancamiento en un máximo local y la convergencia prematura (Rocha y Neves,1999), se puede recurrir al operador “Juicio Final”. Este operador solo conservará al mejor individuo de la población, de acuerdo a su fitness. El resto de la población será vuelta a generar aleatoriamente.

Resultados En la prueba 1 se utilizó el mismo horario de la tabla plantilla mostrada en la Tabla 2. Los horarios deseados por los maestros se detallan en la Tabla 3: Tabla 4. Resumen de resultados. Los resultados indican que el programa propuesto puede generar propuestas de horarios aceptables en un tiempo menor a ocho segundos, en el peor de los casos. Por cuestiones de espacio, se omiten las tablas de la segunda prueba, la cual se hizo con un horario de 137 horas, con 21 maestros involucrados y los resultados fueron del orden del 97% en un tiempo razonable de entre dos y tres minutos.

Tabla 3. Horarios maestros. Se utilizó un tamaño de la población de mil individuos y una tasa de mutación de 1 gen en cada mil. No se utilizó el operador Juicio Final. En la Tabla 4 se detallan los resultados. 106

Revista Científica

Conclusiones y trabajos futuros Los resultados indican que el programa propuesto puede generar propuestas de horarios aceptables en un tiempo razonable. Dada la naturaleza misma del problema, es muy difícil establecer una comparación con el trabajo que podría hacer una persona.


Bibliografía

+

Dawkins, R. (1999). “The Blind Watchmaker: Why the Evidence of Evolution Reveals a Universe Without Design.” W.W. Norton, 1996. Citado en: Simon John Karl Horman, “Using Genetic Algorithms to Schedule The University of New South Wales Examination Timetable.”

+

Hsiao-Lan, Fang (1994). Ph.D. Thesis. “Genetic Algorithms in Timetabling and Scheduling.” Department of Artificial Intelligence. University of Edinburgh, Scotland. Disponible en: http://citeseer.ist.psu.edu/fang94genetic.html

+

Goldberg, D. E. (1994). “Genetic Algorithms in Search, Optimization and machine learning.” 1989. Citado en: HsiaoLan Fang. Ph.D. Thesis. “Genetic Algorithms in Timetabling and Scheduling.” Department of Artificial Intelligence. University of Edinburgh, Scotland.

+

Holland, J. (2004). “Genetic algorithms.” Scientific American. Pp. 66-72. 1992. Citado en: Adam Marczyk. “Genetic algorithms and evolutionary computation.”

+

Al programa pueden implementarse las siguientes mejoras:

+

Sensibilización Puede haber casos en los que se requiere que se cumplan ciertas condiciones; por ejemplo, que una clase sea fija a cierta hora o que dos horas de clase siempre queden juntas una después de otra. En este caso, puede implementarse, por programación, dejar en todos los cromosomas estos valores fijos, y los demás resultados girarían en torno a estos.

+Herramienta de diagnóstico

Una situación hipotética de un maestro que desea dar clases de 18:00 a 19:00 horas pero en ese día únicamente hay 4 horas de clase, y las clases empiezan a las 14:00 horas, la hora más tarde que se puede programar sin dejar horas libres entre clases es a las 17:00 horas. No hay manera de acomodar a éste maestro en la hora que pidió. Es posible y conveniente desarrollar una herramienta que detecte cuando una hora de clase presenta conflicto el 100 por ciento de las veces.

+

Karl Horman, S. J. (1999). “Using Genetic Algorithms to Schedule The University of New South Wales Examination Timetable.” University of New South Wales. Disponible en: http://www.horms.org/~horms/papers/honours1/html/

+

Koza, J.; Bennett, F.; Andre, D. y Keane, M. (1999). “Genetic Programming III: Darwinian Invention and Problem Solving.” Morgan Kaufmann Publishers. Citado en: Adam Marczyk. “Genetic algorithms and evolutionary computation.” 2004.

+

Merelo Guervós, J. J. (1997). “Informática evolutiva: Algoritmos genéticos.” [En línea], [Visitado: 25 de septiembre de 2007]. Disponible en: http://geneura.ugr.es/~jmerelo/ie/ ie.ps.gz

+

Rocha, M. y Neves, J. (1999). “Preventing Premature Convergence to Local Optima in Genetic Algorithms via Random Offspring Generation.” Departamento de Informática. Universidad de Minho. Portugal.

Algoritmos para asignar maestros y aulas Una vez demostrado que los algoritmos genéticos funcionan para asignar horas de clase, el siguiente paso es elaborar algoritmos para asignar qué maestros impartirán cada materia, e igualmente uno para asignar aulas a las horas de clase.

+

Computación paralela Se puede aprovechar el poder de procesamiento de varias computadoras, cada una evolucionando una parte de la población. Utilizando el operador migración, se hacen intercambios de individuos entre las computadoras.

Revista Científica

107


E L A B O R A C I Ó N

D E

SALCHICHAS FRANKFURT NUTRITIVAS Y BAJAS EN GRASA A

B A S E

D E

CARNE DE CONEJO

Y EL REEMPLAZO DE GRASA ANIMAL POR ACEITE DE OLIVA

Casillas-Peñuelas, R.1, Quintanar-Stephano, J.2 , Masuoka-Ito, D.3, Frausto-Reyes, C.4, Romo-Bacco, C.5, Grau-Melo, R.6, Vásquez-Lara, F.7 Pascual-Amoros, J.8, Corrales-Guerrero, A.9 y Barat-Baviera, J.10

Departamento de Tecnología de Alimentos, Universitat Politècnica de València, Camino de Vera, s/n, Valencia, España C.P. 46022. 1,6,9,10

Departamento de Tecnología de Alimentos, Universidad Autónoma de Aguascalientes, Av. Universidad, s/n, Aguascalientes, Aguascalientes, México, C.P. 20230. 2,3,5

Instituto de Ciencia y Tecnología Animal, Universitat Politècnica de València, Camino de Vera, s/n, Valencia, España, C.P. 46022. 4,8

Departamento de Tecnología de Alimentos de Origen Vegetal. Centro de Investigación en Alimentos y Desarrollo, A.C. Hermosillo, Sonora, México, C.P. 83304.

Resumen: La carne de conejo es poco consumida pese a su excelente perfil nutricional. Entre las posibles estrategias para aumentar su consumo, sobre todo por la población infantil, está la elaboración de productos transformados tipo salchicha. El objetivo de este trabajo fue la elaboración de una salchicha, tipo Frankfurt partiendo de carne de conejo como materia prima y la comparación de su perfil nutricional y parámetros físico-químicos con los de salchichas elaboradas a partir de cerdo. Los resultados mostraron que las salchichas de carne de conejo presentaron un perfil nutricional mejorado (bajo contenido en grasa y alto contenido en proteínas) y unos parámetros físico-químicos (pH, color y textura) muy similares a los de las salchichas de cerdo. Estos resultados ponen en valor el uso de la carne de conejo, en la elaboración de productos cárnicos transformados.

7

racasi@correo.uaa.mx Recibido: Febrero 26, 2017. Recibido en forma revisada: Abril 7, 2017. Aceptado: Mayo 22, 2017.

108

Revista Científica

+

Palabras clave: Carne de conejo, salchichas, valor nutricional y productos elaborados.


Abstract: Rabbit meat is a poorly consumed meat despite its excellent nutritional profile. Among the possible strategies to increase consumption, especially by the child population, is the production of processed sausage type products. The objective of this work was the elaboration of a sausage type Frankfurt starting from rabbit meat as raw material, and the comparison of its nutritional profile and physical-chemical parameters with those of sausages made from pork. The results showed that the rabbit meat sausages presented an improved nutritional profile (low fat content and high protein content) and physicochemical parameters (pH, color and texture) very similar to those of pork sausages. These results put in value, the use of rabbit meat in the processing of processed meat products.

+ Keywords: Rabbit meat, sausages, nutritional value and processed products. Introducción Tradicionalmente, la calidad de la carne venía determinada por aspectos sensoriales (textura, aroma, sabor…), pero actualmente han cobrado gran importancia otros factores, como el valor nutritivo y la seguridad alimentaria (García, Domínguez, Gálvez, Casas y Selgas, 2002). Poco a poco los consumidores han tomado consciencia de la importancia de la salud y de su relación con la dieta, exigiendo productos que respondan a sus preferencias alimentarias y nutricionales (Galán, García y Selgas, 2010). La carne de conejo responde a estas demandas, ya que tiene un alto valor por sus propiedades nutricionales y dietéticas, es una carne magra, con bajo contenido en grasa (menor contenido en ácidos grasos saturados y colesterol que otras carnes) y es adaptable a todas las dietas, incluso de niños, ancianos y enfermos (Hernández, 2008; Alagón, Cervera, Arce, Pascual, Serrano, Pascual, Rodenas y Martínez, 2015). La carne de conejo es una carne blanca de buen sabor, fácil digestión, con niveles elevados en proteínas y bajos en colesterol, sodio y lípidos con mayor proporción de ácidos grasos insaturados (González Redondo, 2005; Hermida, González, Miranda y Rodríguez-Otero, 2006), además de no contener ácido úrico, siendo una carne baja en purinas (Hernández, 2007). Tiene un valor energético similar al de las carnes rojas y existen estudios que la describen como una carne con alto valor proteico y fuente de aminoácidos esenciales (Stasiewiez, Lipinsky y Cierach, 2014). La carne de conejo es sana, fácil de cocinar y adaptable a todas las dietas, ya que está particularmente indicada en dietas para niños, ancianos y enfermos (Barbado, 2004; Cavani y Petracci, 2013). La carne de conejo es una carne magra, rica en proteínas de alto valor biológico, caracterizada por su bajo contenido en grasas (Peiretti, Rotolo, Gai, Brujiapaglia y Gasco, 2013). Además, su perfil de ácidos grasos es mayoritariamente insaturados. Destaca también por su bajo nivel de colesterol (59 mg/100 g de músculo), muy por debajo del que contienen otras carnes, como el pollo (81 mg / 100 g), la de vacuno (70 mg /100 g) o la carne de cerdo (61 mg / 100g) (Tavares Pereira, Méndez Ramos, Thais Teixeira, Cardoso, Souza Ramos y Rogeiro Fontes, 2011; Licata, 2015). Es una importante fuente de minerales, tales como el fósforo y vitaminas del grupo B, como la vitamina B3 y al mismo tiempo que destaca su bajo contenido en sodio, permitiendo ser cocinada sin añadir sal (Rodríguez, 2013). Esta aporta unas 154 calorías por cien gramos consumidos, contiene un 70% de agua, entre 20% y 23% de proteínas ricas en aminoácidos, un contenido escaso de grasa del orden del 4-8%, de la que el 63% de los ácidos grasos son insaturados (es

decir, beneficiosos para la salud), 50 mg de colesterol por 100 g de carne, 18-22 mg de calcio, 210 mg de fósforo y 2,4 mg de hierro (Llona Laurrari, 2002); además, la parte composicional que forman los hidratos de carbono y la fibra en la carne de conejo es despreciable (Timova, Vizcova, Skrivanova, Chodová, Martinec y Volek, 2014; Dalle Zotte y Szendro, 2011). Los animales que son grandes corredores tienen la carne roja por la necesidad de oxigenación, pero el conejo es la excepción, pues aun siendo un gran corredor, mantiene su ritmo gracias a un complejo hormonal corticoadrenal, que hace que la carne sea totalmente blanca, solo conseguible en algunos pescados o en animales muy jóvenes o con anemia dirigida, como en el caso del cordero lechal o la ternera blanca. No existe diferenciación de calidades según las diversas porciones o cuartos de la canal (al contrario que el cerdo, pues se considera el lomo de cerdo como carne blanca, mientras que el jamón (pernil) se considera carne roja, sólo tiene diferente proporción de carne, siendo más abundante en los muslos y lomos. El mayor porcentaje de grasa en la canal del conejo se encuentra en las partes delanteras de la canal, decreciendo en las medias y siendo mínima en las posteriores. La mayor cantidad de grasa en la canal del conejo está en la zona perirenal. Según la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO, por sus siglas en Inglés) se producen anualmente alrededor de un millón de toneladas de conejo doméstico (Llona Laurrari, 2002). España ocupa el cuarto lugar a nivel mundial en producción de carne de conejo, por detrás de China, Italia y Corea del Norte. El sector cunícola ocupa el quinto lugar en importancia económica dentro de la producción cárnica estatal y supone el 1.1% del volumen de carne obtenida. (FAO, 2013). Las principales zonas de producción de conejo en España son, Cataluña (15.2%), Comunidad Valenciana (6.3%), Aragón (5.3%) y Galicia (5.3%). La región del mundo donde se consume más carne de conejo es Europa Occidental (1.7 kg/habitante y año), destacando los países del Mediterráneo. En España, se consumen unos dos kilogramos de carne de conejo per cápita (González Redondo, 2005). El consumo de conejo en el mercado doméstico se ha reducido en los últimos años desde el año 2000, según los datos del panel de consumo del Ministerio de Agricultura y Pesca, Alimentación y Medio Ambiente (MAGRAMA), situándose en el 2014 en un consumo per cápita de 1.31kg/persona (aunque esto significó un aumento en el consumo del 6.3% respecto a años anteriores), a un precio medio de 5.28 euros/kg. (FAO, 2013). El principal problema del bajo consumo de la carne de conejo en España erradica en que, aunque tenga todas estas cualidades


beneficiosas, hasta ahora sigue siendo deficiente la información que la cataloga como uno de los alimentos de gran interés tanto en la nutrición como en la salud humana; además, se debe tener en cuenta que, si se piensa en su aprovechamiento, se deberá implementar técnicas que faciliten la extracción de su carne y aumenten el rendimiento de la misma, de modo que se pueda aprovechar sus ventajas comparativas desde el punto de vista de calidad sensorial, permitiendo así aumentar su valor comercial (Martínez y Vázquez, 2001). Desde el punto de vista del consumidor español, el conejo sigue siendo visto como un animal de compañía, por lo que para algunos españoles, comerse un conejo es como comerse a un miembro de la familia. Además, la carne de conejo para su consumo en fresco se suele cocinar aún adherida a los huesos, los cuales a la hora de proceder a su consumo son una gran molestia, debido a su pequeño tamaño y un peligro para los niños. Las grasas son necesarias para el cuerpo (en cierta cantidad), ya que desempeñan importantes funciones, pero no todas son iguales, por lo que es importante prestarle atención al tipo de grasa que se consume (Peiretti y Meineri, 2008). Hoy en día es frecuente la presencia de enfermedades causadas principalmente por una mala alimentación, esto es debido a que la dieta contemporánea tiende a contener una cantidad muy elevada de ciertos tipos de grasa y ser muy escasa en otros tipos. Esta falta de balance puede causar problemas de salud, debido al exceso de grasa corporal. Un consumo excesivo de grasa es un factor de riesgo importante para la salud, pudiendo afectar a través del sobrepeso y de los trastornos del metabolismo lipídico. Por otro lado existen también trastornos psicológicos y psiquiátricos, pudiendo producirse una baja autoestima y enfermedades como trastornos depresivos (Dal Bosco, Mugnai, Roscini, Mattioli, Ruggeri y Castellini, 2014; Nakyinsige, Sazli, Zulkifli, Goh, Abu Bakar y Sabow, 2014). Según diferentes estudios, la obesidad reduce la esperanza de vida en una media de 12 años y provoca, tanto de forma directa como de forma indirecta, millones de muertes y estados de enfermedad cada año. Existen numerosos trastornos asociados con la obesidad, de entre los cuales se encuentran las enfermedades cardiovasculares (hipertensión arterial, enfermedad coronaria, trombosis…), las enfermedades metabólicas (diabetes mellitus, exceso de ácido úrico), enfermedades digestivas (trastornos del hígado, vesícula biliar y páncreas), enfermedades articulares (el exceso de peso daña a las rodillas y articulaciones de la columna vertebral), enfermedades respiratorias (insuficiencia respiratoria crónica), trastornos de la fertilidad y enfermedades de la piel (Ministerio de Sanidad, Gobierno de España, 2014). Los trastornos del metabolismo lipídico vienen dados, principalmente por alteraciones en el colesterol y los triglicéridos, siendo ambas, grasas encontradas de forma natural en el cuerpo. El consumo excesivo de grasas saturadas tiene un doble efecto sobre el colesterol, actuando tanto en el colesterol-LDL y HDL (Zomeño, Juste y Hernandez, 2012; Jiménez-Colmenero, Triki, Herrero, Rodríguez-Salas y Ruíz-Capillas, 2013). Aumenta la cantidad circulante de colesterol-LDL (“malo”) favoreciendo la aparición de obstrucciones en las paredes de las arterias, provocando que el flujo sanguíneo en las mismas disminuya gradualmente, llegando incluso a taponarlas completamente, impidiendo el paso de la sangre. Junto a un aumento de la cantidad de triglicéridos se produce la arteriosclerosis, que consiste en un aumento de rigidez y pérdida de la flexibilidad de las arterias, que dificulta el riego sanguíneo. El efecto que las grasas saturadas tienen sobre el colesterol-HDL (el colesterol bueno) es que disminuye e impide la acción de este, es decir, impide la protección de la pared interna de las arterias para evitar su obstrucción. (Kouba,benatma110

Revista Científica

ne, Blochet y Mourot, 2008; Ministerio de Sanidad. Gobierno de España, 2014). Para la elaboración de las salchichas de conejo se buscó una opción para sustituir la grasa de cerdo con la que estas están elaboradas normalmente; por lo tanto, se utilizó grasa vegetal (aceite de oliva virgen extra) por sus propiedades y beneficios, los cuales provienen principalmente de la cantidad y tipo de ácidos grasos que contienen, además también son una fuente de algunas vitaminas y antioxidantes. Los aceites de origen vegetal ayudan a la salud gracias a su contenido de ácidos grasos poliinsaturados (omega 3,6 y 9), que ayudan a prevenir la acumulación de colesterol en las arterias, lo que reduce el riesgo de presentar infartos de corazón. Son una buena fuente de antioxidantes, como los carotenos y tocoferoles (cuanto más virgen sea el aceite, mayor será su contenido), estas sustancias son las que les dan el color amarillo o verde (Westland, 2001; López-López, Cofrades y Jiménez-Colmenero, 2009).

Materiales y métodos Carne de conejo: Conejos criados en el Departamento de Ciencia Animal de la Universitat Politència de València. Las canales de conejo se limpiaron, evaluaron y se deshuesaron en el Departamento de Ciencia Animal de la Universitat Politència de València. La carne deshuesada se envasó al vacío y se congeló a -20ºC hasta su procesado. Carne de cerdo: La materia prima fue comprada en un supermercado local. Principalmente, se utilizó para la elaboración de las salchichas cabeza de lomo. Preparado cárnico para salchicha cocida Frankfurt: Proporcionada por la empresa Pilarica, S.A, Paterna, España. Ingredientes: Sal (para solubilización de las proteínas miofibrilares de la carne encargadas de producir el ligado de las partículas), proteína de soja (emulsionante), especias, leche desnatada en polvo, dextrosa (espesante), polifosfato sódico E-452i (Estabilizante y corrector de la acidez, se obtiene derivado del Ácido Fosfórico E-338), fécula de patata (ligante), aroma, glutamato monosódico E-621 (Potenciador del sabor, se obtiene por fermentación bacteriana de azúcares residuales de origen vegetal y animal), ascorbato sódico E-301 (antioxidante, se obtiene del ácido ascórbico E-300 o vitamina C), citrato trisódico E-331iii (Saborizante, acidulante y corrector de la acidez que se obtiene derivado del ácido cítrico E-330), nitrito sódico E-250 (conservante) y carmín E-120 (colorante). Tripa: De tipo sintético, hecha de colágeno con un diámetro de 20 mm. Distribuida por la empresa Pilarica S.A. Aceite de Oliva: El aceite utilizado es Carbonell Virgen Extra. El aceite de oliva Virgen Extra es el aceite de mayor calidad, ya que se obtiene directamente de la primera presión en frío y cuyo nivel de acidez no debe exceder del 0.8%. El aceite Carbonell utilizado tiene un grado de acidez del 0.6%.

Preparación de las muestras Para la realización de la parte experimental de este trabajo se necesitaron cuatro tipos de muestras diferentes. Dos muestras hechas a base de carne, una de conejo (muestra CO) y otra de cerdo (muestra CE); Las dos restantes se elaboraron con carne y un 10% de aceite de oliva virgen extra, es decir,


una con un 90% carne de conejo y 10% de aceite de oliva virgen extra (muestra COA) y otra con un 90% de carne de cerdo y un 10% de aceite de oliva virgen extra (muestra CEA). La fabricación de las salchichas se llevó a cabo con una cortadora de carne Eurofred Cup 8 Tr (Barcelona, España). Cada lote de fabricación consistió en 900 gr de carne de conejo o cerdo, 200 gr de hielo por cada kg de producto y 50 gr de preparado cárnico para salchicha cocida tipo Frankfurt por cada kg. de producto. En las muestras elaboradas con carne y/o aceite (muestras CEA, COA), además de los ingredientes anteriormente citados, se añadieron 100 gr de aceite. Al añadirlos, la masa de producto aumentó, por lo que la cantidad de hielo y preparado cárnico para salchicha tipo Frankfurt que se agregó fue superior en relación con las muestras CO y CE. El proceso de elaboración que se llevó a cabo para la elaboración de los cuatro tipos de salchichas diferentes fue el mostrado en la Figura 1.

2.

Se incorpora el hielo y el preparado de aditivos y se pica hasta obtener una masa fina y bien ligada.

3. Si procede, se incorpora el aceite de oliva. 4. La temperatura de la pasta no debe exceder de 9 °C. El proceso

finaliza cuando la emulsión se muestra homogénea y no se despega de las paletas utilizadas para comprobar la correcta formación de la emulsión cárnica. Embutido: Una vez obtenida la emulsión, esta se colocó en una embutidora mecánica de pistón y regulación variable Tipo EP/1-20, de 20 kg de capacidad, y se embutieron en tripa artificial de celulosa calibre 22mm. Atado: Las salchichas se amarraron en cadena, aproximadamente cada 10 centímetros. Tratamiento térmico: Se llevó a cabo el tratamiento térmico, en este caso cocción, mediante un baño Precistern S.386, con agua a 80ºC durante 30 minutos, tiempo suficiente para que la temperatura interna alcance los 70ºC. Enfriamiento: Después de la cocción, la temperatura debe bajarse bruscamente sacando las salchichas del baño y dejándolas enfriar en agua o a temperatura ambiente. Tras el tratamiento térmico, se realizó un preenfriamiento con agua fría, con la finalidad de que la temperatura en el centro térmico se reduzca hasta los 35ºC - 40ºC. Almacenamiento: Por último, las muestras se envasaron a vacío en bolsas de polietileno, mediante una envasadora Tecnotrip, y se almacenaron en un refrigerador a 4ºC hasta el momento de la realización de los diferentes análisis.

Análisis experimentales Figura 1. Esquema del proceso de elaboración de las salchichas en el presente trabajo. Recepción de la carne: Se utilizaron como materia prima carne de conejo (para muestras CO, COA) y cerdo (para muestras CE, CEA) con poco tejido conectivo, las cuales estaban refrigeradas. Troceado: Las piezas de carne seleccionadas se cortaron en trozos pequeños, de aproximadamente 7 x 7 centímetros, y se eliminaron restos de impurezas. Seguidamente se congelaron por 24 horas para reducir la contaminación y facilitar la operación de picado. Picado y mezclado: Estas operaciones se realizan de forma simultánea en una picadora, la cual está provista de cuchillas que pican finamente la carne y producen una mezcla homogénea. Una vez se adicionaron todos los ingredientes, se mezclaron a 1500 rpm durante seis minutos en una picadora de carne Eurofred Cup 8 Tr. Al picar y mezclar se siguió el siguiente orden de agregación de los ingredientes:

1.

Carne de conejo o cerdo hasta obtener una masa gruesa pero homogénea.

Análisis actividad del agua (Aw) La actividad del agua es probablemente el parámetro más importante en el campo de la conservación de alimentos, ya que es un indicador del crecimiento microbiano y de velocidad de deterioro. En el campo de la seguridad alimentaria, conociendo la actividad de agua de un alimento, puede predecirse qué tipo de microorganismos se van a desarrollar. También es un indicador de propiedades físicas, tales como la textura, color, el sabor, la consistencia y el aroma. La importancia de la medición de estos parámetros radica en que todos los productos, ceden o absorben humedad del aire ambiente que los rodea hasta llegar al estado de equilibrio, por lo que habrán podido modificar una gran cantidad de parámetros que inicialmente tendrían unos valores, pudiendo desestabilizar o afectar a la calidad del producto. Una vez llegado al equilibrio, la actividad del agua del producto es la misma que la humedad relativa del aire que lo rodea, llamada Humedad Relativa de Equilibrio (ERH). Para la medición de la actividad del agua de las salchichas, estas se cortaron en rodajas de 20 mm, haciéndolas encajar perfectamente en la base de las cápsulas utilizadas para la medida del Aw. Se utilizó un medidor de actividad de agua (higrómetro) de la marca “Aqua Lab”, modelo 4TE, distribuido por la empresa Lab-Ferrer Decagon Devices, Inc. cuya dirección es C/Ferran el católic 3, 25200-Cervera. La medición se realiza de forma automática, llevando al aparato la muestra a una Revista Científica

111


Determinación de cenizas

temperatura de entre 24.5ºC -25ºC y tras una breve espera en la pantalla se presenta el valor de la actividad de agua del producto introducido.

Determinación de proteínas El contenido total de proteínas en los alimentos está conformado por una mezcla compleja de las mismas. Estas existen en una combinación con carbohidratos o lípidos, que puede ser física o química. Actualmente todos los métodos para determinar el contenido proteico total de los alimentos son de naturaleza empírica. Un método absoluto es el aislamiento y pesado directo de la proteína pero dicho método se utiliza solo a veces en investigaciones bioquímicas, debido a que es dificultoso y poco práctico (Francisco, 2011).

La determinación del contenido de cenizas es importante, ya que son una parte del análisis proximal para la evaluación nutricional. La determinación del contenido de cenizas sirve para obtener la pureza de algunos ingredientes que se usan en la elaboración de alimentos y para descubrir la presencia de algún adulterante inorgánico por la presencia de un alto contenido de cenizas en algún producto alimenticio. El método más común para determinar cenizas es la calcinación en mufla a temperaturas entre 500°C y 600°C. La determinación del contenido de cenizas de las salchichas tipo Frankfurt, se realizó según el método 920.153 de la AOAC (1997). Los crisoles de porcelana se introdujeron en un horno mufla (J.P. Selecta modelo 376 PE, Barcelona, España) a 550ºC, durante aproximadamente dos horas, a continuación se enfriaron a temperatura ambiente en un desecador y se pesaron en una balanza analítica (m0). En cada crisol se introdujo 1 gr de muestra, tomando nota nuevamente del peso del crisol con la muestra (m1). Posteriormente, se carbonizó la muestra en una placa calefactora, con el fin de eliminar toda humedad del producto y a continuación, los crisoles se introdujeron en el horno mufla a una temperatura de 550ºC/ 6 h. Los crisoles enfriados a temperatura ambiente en el desecador fueron nuevamente pesados (m2).

La determinación de proteínas se realizó, según el método Kjeldahl, tal y como se describe en el método 928.08 de la AOAC (1997). El análisis del contenido en nitrógeno total basado en el método Kjeldahl, consta de tres etapas: digestión, destilación y valoración. Digestión: En un tubo Kjeldahl, se introducirán 0.5 g de muestra, exactamente pesada y 3 gr de catalizador compuesto por H2SO4, CuSO4 y Se (10:1:0.1). A continuación, se adicionará 10mL de H2SO4, (98% v/v) y 5mL de H2O2 (30% v/v). Los tubos se introdujeron en una unidad de digestión Büchi B-426 (Büchi Labortechnic AG, Flawil, Suiza), donde se calentó a 450ºC hasta completar la digestión. Se consideró la digestión finalizada cuando la disolución contenida en el tubo tenga una coloración verde esmeralda. Destilación: La disolución obtenida a partir de la digestión se diluyó en frío con 50mL de agua destilada y se llevó a una unidad de destilación semiautomática Büchi B – 316, donde se añadió un exceso de hidróxido de sódico 10 N y se destiló durante 4 minutos. El amoniaco liberado durante la destilación se recogió sobre 50 mL de una disolución de ácido bórico (4%p/v). Valoración: El amoniaco recogido sobre el ácido bórico se valoró con H2SO4, 0.3 N en presencia del indicador Shiro T-Shiro (disolución de rojo de metilo al 0.2% y azul de metileno al 0.1% en alcohol etílico), hasta el viré de la disolución desde verde (medio básico) a violeta (medio ácido).

Determinación de humedad La determinación de la humedad se realizó siguiendo el protocolo establecido en la norma internacional (AOAC, 1997). Primero, se pesó en una balanza de precisión aproximadamente cinco gramos de muestra, sobre un recipiente que contiene arena de mar y una varilla de vidrio (previamente desecado, atemperado y pesado). Luego, con la varilla de vidrio, se procedió a moler la muestra con la arena de mar, para conseguir la ruptura de la estructura y facilitar la salida del agua. Posteriormente, se introdujeron las muestras en el interior de la estufa a 105ºC, un mínimo de 24 horas, tiempo suficiente para evaporar la totalidad el agua que podría contener la muestra. Para finalizar, se extrajeron de la estufa, se colocaron en el desecador para lograr el enfriamiento y se registró el peso. Este análisis se efectúa por método gravimétrico a través de la pérdida de masa por desecación en la estufa a 105ºC hasta peso constante. El porcentaje de humedad expresado en gramos de agua por 100g de muestra, se calculó mediante la ecuación:

112

Revista Científica


Análisis del pH La medida del pH informa de la calidad y estabilidad de productos. El pH de la carne depende de varios factores, entre otros, la condición post mortem del animal y el tiempo posterior de almacenamiento. Por otro lado, la acidez, el color y la capacidad de retención de agua (CRA) dependen del pH, de la concentración de proteínas (miofibrilares y sarcoplasmáticas) y de la presencia de iones (Ca, K, Na, Cl, PO4). Por lo tanto, el análisis del pH es importante, ya que está relacionado con la aptitud de la carne para obtener un correcto procesado, dándonos la emulsión cárnica óptima necesaria para la elaboración de las salchichas tipo Frankfurt. Las medidas de pH se realizaron, usando un pH metro Crison Basic 20+ con electrodo de punción (Crison 5231).

dor y sus propiedades se caracterizan por ser difíciles de definir, ya que son subjetivas. Para evaluar la textura en productos elaborados se ha establecido el método de Análisis de Perfil de Textura (TPA), el cual imita el proceso de masticación, midiendo objetivamente este parámetro (Herrero, De la Hoz, Ordoñez, Herranz, Romero de Ávila y Cambero, 2008; Igor-Hleap, 2010). Estos ensayos no solo cuantifican la textura de los alimentos, sino que también evalúan la coherencia de los procesos de fabricación. El Análisis del Perfil de Textura mide parámetros como dureza, fracturabilidad, masticabilidad, cohesividad, adhesividad, elasticidad y firmeza. Para obtener los parámetros de este análisis, el texturometro presenta de forma gráfica una curva en la cual se representa la fuerza frente al tiempo, pudiendo observar los siete parámetros texturales medibles. En la Figura 2 se indica cómo se obtienen los mismos.

Determinación de grasa Las grasas se definen como un grupo heterogéneo de compuestos hidrófobos, pero solubles en disolventes orgánicos, tales como éter, cloroformo, benceno o acetona. La determinación y estudio de las grasas en los alimentos es de gran importancia en varios aspectos, como por ejemplo, la aportación de información a las etiquetas nutricionales, determinar si el alimento reúne los requisitos de estándar de identidad, o para el estudio de los efectos de estas en las propiedades funcionales y nutricionales de los diferentes alimentos. Debido a ello su medición está incluida dentro del Análisis Químico Proximal de los alimentos. El análisis de la grasa en las salchichas se realizará mediante un método de extracción directo con disolventes orgánicos (método Soxhlet), pero antes de realizar este proceso, se llevará a cabo una etapa primordial como es el “presecado”. Esta etapa se lleva a cabo principalmente porque los lípidos no pueden ser extraídos con efectividad de los alimentos húmedos, debido a que el solvente no puede penetrar fácilmente a los tejidos húmedos del alimento; por ejemplo, el éter es higroscópico y se satura con el agua, volviéndose ineficiente para la extracción de las grasas. Hay que tener en cuenta que esta etapa no se debe hacer a altas temperaturas (>120ºC), ya que algunos lípidos se ligan a las proteínas y a carbohidratos y por consiguiente no se pueden extraer fácilmente con solventes orgánicos. Esta etapa de presecado hace que la muestra sea más fácil de moler para una mejor extracción, y en nuestro caso, también romperá la emulsión aceite-agua para que la grasa se disuelva más fácilmente en el solvente orgánico. El contenido en grasa se determinó de acuerdo con el métodos, 991.36 de la AOAC (1997) y Rizo (2015).

Figura 2. Gráfica general del análisis de perfil de textura. Dureza: Fuerza máxima que tiene lugar en el primer ciclo de compresión. Se refiere a la fuerza requerida para comprimir un alimento entre los molares o entre la lengua y el paladar (Igor-Hleap, 2010). Se expresa en unidades de fuerza, N o (kg m s²). Cohesividad: Cociente entre el área positiva bajo la curva de fuerza de la segunda compresión (Área 2) y el área bajo la curva de la primera compresión (Área 1). Se refiere a la fuerza máxima que se le aplica al alimento (deformación) antes de romperse. Es adimensional (Igor-Hleap, 2010). Adhesividad: Representa el trabajo necesario para despegar el plato de compresión de la muestra tras realizar el primero ciclo de compresión (Área 3). Se expresa en unidades de fuerza, N o (kg m s²) (Igor-Hleap, 2010). Elasticidad: Representa la altura que recupera el alimento durante el tiempo que transcurre entre el primer y segundo ciclo. Mide la ruptura que ha sufrido la estructura original por la compresión inicial. Es adimensional (Igor-Hleap, 2010). Gomosidad: Expresa la energía que se necesita para descomponer un alimento semisólido para ser tragado. Se expresa en unidades de fuerza, N o (kg m s²).

Análisis del perfil de textura (TPA) La textura es uno de los atributos primarios que, junto con el color, sabor y olor, conforman la calidad sensorial de los alimentos. Una textura apropiada es una de las características de calidad más apreciada por el consumi-

Masticabilidad: Producto de la cohesividad por la dureza. Se expresa en kg. Para el estudio de las propiedades mecánicas de las distintas muestras de salchichas tipo Frankfurt, se realizó un ensayo de corte y un ensayo de compresión. Para ambos ensayos se emplearon porciones de salchicha en Revista Científica

113


dimensiones de salchichas de dos centímetros de ancho por siete centímetros de largo, obtenidas previamente de los conejos deshuesados y procesados, colocándolas en bolsas al alto vacío aproximadamente seis salchichas por bolsa y manteniéndolas almacenadas en refrigeración (4 °C ± 2 °C), hasta el momento del análisis. Para ambos ensayos se utilizará una prensa universal TA-XT2® (Stable Micro Systems, Godalming, Surrey, UK), equipada con una célula de carga de 250 N. Los datos instrumentales se procesarán empleando el programa Texture Exponent 32 v 3.0 (Stable Micro Systems). Ensayo de corte: Para el ensayo de corte se empleará una célula o cuchilla Warner – Bratzler HDP/BS (Stable Micro Systems), penetrando a través de la muestra a una velocidad constante de 1 mm/s y cortando transversalmente la salchicha de conejo. Las curvas fuerza /distancia, obtenidas en éste ensayo, permitirán obtener los parámetros de Fuerza máxima al corte (F max). Ensayo de doble compresión: Se utilizó una prensa universal TAXT2® (Stable Micro Systems, Goadlaming, Surrey, Reino Unido) equipada con una célula de carga de 250N. En el ensayo del TPA, la prensa se equipó con un émbolo P/75, cilíndrico de 7.5cm de diámetro y fondo plano. El equipo se programó para que presionara las muestras de salchicha a una velocidad de 1 mm/s hasta que las piezas alcanzaran una deformación del 75% de su altura. Se procedió de la siguiente manera: se cortaron rodajas de salchicha de aproximadamente 2cm de grosor, realizándose una doble compresión al 75% de deformación (estrés normal) y a una velocidad del cabezal de 1 mm/s, con un tiempo de espera de cinco segundos entre las compresiones.

114

Revista Científica

Análisis sensorial El análisis sensorial de las diferentes formulaciones de salchichas, a base de carne de conejo (CO) y de carne de cerdo (CE) y con aceite de oliva (COA, CEA), se llevó a cabo mediante 30 catadores no expertos, con la finalidad de evaluar la preferencia del consumidor por el producto final. Tomando en cuenta que, al momento de realizar la cata, a las salchichas evaluadas se les asigno un código (409, 936, 458 y 133), previamente se llevó un tratamiento térmico, presentando porciones redondas de 4mm de ancho, colocando dos porciones por muestra. Seguidamente se les entregó un cuestionario en donde se les pedía los datos generales y sexo, evaluando primeramente el color, aroma, textura al tacto, apariencia, sabor, textura en boca y apreciación global. La cata se realizó con cuatro formulaciones diferentes.

Análisis estadísticos

El análisis estadístico se realizó mediante ANOVAs, para evaluar la significación de los diferentes factores en estudio, utilizando un paquete estadístico Statgraphics Centurion XV. El nivel de significación considerado fue del 95%. Cuando los factores resultaron significativos se analizaron las diferencias entre los distintos niveles mediante análisis de contraste múltiple de rango (LSD).

Resultados y discusión La Tabla 1, representa los resultados de las pruebas fisicoquímicas realizadas a las diferentes muestras, obteniendo los valores de actividad de agua (Aw) y pH junto con el contenido de proteínas, cenizas, humedad y grasa por cada 100 gramos de producto.


Medias y desviaciones estándar, las letras diferentes (a,b,c,d,e) en algunas columnas indican diferencia significativa (P < 0.05).

Medias, las letras diferentes (a,b,c,d,e) en algunas columnas indican diferencia significativa (P < 0.05).

Tabla 2. Resultados del análisis del perfil de textura.

Tabla 1. Resultados de pruebas fisicoquímica.

En la Tabla 1, se observa que la salchicha de conejo (CO), es la que tiene un mayor contenido de proteínas (17.87±0.78 g / cada 100 gramos de salchicha) y el menor contenido en grasa (4.046±1.65 g / cada 100 gramos de salchicha), lo que la convierte en la formulación con mayor valor nutricional obtenida (Calvo, 2011). El principal objetivo de esta investigación fue el desarrollo de una alternativa para el consumo de carne de conejo en un alimento convencional, como lo es una salchicha tipo Frankfurt; esta debía tener un alto valor nutritivo y ser baja en grasa, en comparación con la salchicha de cerdo convencional, lo que tras la realización de los análisis y obtención de resultados, queda corroborado. La salchicha de carne de conejo (CO) tiene una proporción en grasa mucho menor que la de cerdo (CE), la cual resultó tener un contenido en grasa de 10.908±0.42 g / cada 100 gramos de salchicha, existiendo diferencias estadísticamente significativas entre ellas, por lo que se trata de dos salchichas completamente diferentes en cuanto al parámetro medido. También se aprecia que la salchicha de conejo (CO) es la que tiene mayor proporción de humedad respecto al resto de muestras. Para las cenizas encontramos que la salchicha elaborada con carne de conejo (CO), presenta valores de (2.19±0.05 g por cada 100 gramos de salchicha), seguida de las salchichas de cerdo (CE), y la salchicha elaborada con aceite de oliva, presentó los valores más altos (CEA) con (2.45±0.02). Los valores de pH estuvieron comprendidos entre 6.03±0.02 y 6.62±0.01, siendo los valores de las salchichas de conejo (CO) y cerdo (CE) superiores a las mismas cuando a su composición se le añade aceite de oliva. Esto es debido a que el aceite tiene un carácter ácido, por lo que cuanto mayor sea su proporción en la composición de la formulación, menor será el pH de las salchichas. En los resultados se observa estas diferencias significativas, pues en el cerdo el pH de la muestra (CE) es de 6.62±0.01 y para (CEA) presentó valores de 6.03±0.02, y para las salchichas elaboradas con carne de conejo (CO) presentaron valores de (6.40±0.09), y para (COA) fueron de (6.34±0.02), respectivamente. Los resultados del ensayo de doble compresión se muestran en la Tabla 2, a través de este ensayo se realiza el Análisis del Perfil de Textura, obteniendo los valores de dureza, elasticidad, cohesividad, gomosidad y masticabilidad de las diferentes salchichas analizadas. Se aprecia a primera vista que la muestra (CO), correspondiente a la salchicha de conejo, es la que presenta valores más pequeños de dureza, elasticidad, cohesividad, gomosidad y masticabilidad.

El Análisis de Perfil de Textura refleja que, como se ha expresado anteriormente, la muestra CO es la que presenta valores más pequeños de la mayoría de los parámetros. Esto, según Ruiz-Capillas, Carmona, Jiménez-Colmenero y Herrero (2013), puede ser debido a que se produzcan cambios en las proteínas y en la estructura lipídica de los sistemas cárnicos, como consecuencia de la reformulación y uso de agentes de carga basados en matrices de polisacáridos como sustitutos de grasa animal. Por ejemplo, aumento de la estructura de hoja plegada β y aumento de las interacciones hidrofóbicas fueron observados como respuesta a la reformulación. Esta estructura proteica cambia como resultado de la reticulación de proteínas, que podría ser debido al contacto hidrófobo entre cadenas laterales de proteína alifáticos. La sustitución de la grasa de cerdo con matrices de polisacáridos que contienen aceite de oliva produce un aumento en las estructuras de hoja plegada β, acompañado por propiedades de unión de grasa, haciendo las características texturales más fuertes, específicamente dureza y masticabilidad. La principal diferencia se basa en que puede producirse por el menor contenido graso de la carne de conejo, llevando a que no se produzcan los mismos cambios que en la de cerdo, o las diferencias encontradas entre los tipos de proteínas que componen ambas carnes (Bear y Dilger, 2014). Por otro lado, el análisis de perfil de textura muestra que las salchichas con aceite de oliva al 10% tienen valores, superiores a las salchichas tanto de conejo (CO) y cerdo (CE). Los valores de dureza llegan hasta (99.87 ± 5.75 y 98.06 ± 1.20), en las salchichas con aceite de oliva (CEA y COA), mientras que el resto de formulaciones no alcanzan los 90 N. Eso indica que el aceite de oliva produce cambios en la estructura de la emulsión cárnica durante el proceso de obtención de las salchichas o durante su almacenamiento a bajas temperaturas, otorgándoles mayor dureza, tanto a cerdo como a conejo. La Figura 3 muestra el segundo ensayo, llevado a cabo en el análisis de perfil de textura. Esta representa gráficamente la fuerza necesaria para cortar las salchichas a través de una gráfica de barras donde también se incluye el error típico.

Figura 3. Ensayo de corte. Barras en las columnas muestran el error estándar (P-value<0.05). Revista Científica

115


Como se puede observar, el comportamiento de la salchicha de conejo (CO) presenta una resistencia menor al corte significativamente diferente a la salchicha de cerdo (CE). En cambio, cuando se adiciona únicamente aceite de oliva a la carne de conejo y se obtiene la salchicha de conejo (COA), el comportamiento es similar a la salchicha (CO), efecto contrario al comparar las salchichas de cerdo, ya que conforme se aumenta la cantidad de aceite de oliva en la composición de la salchicha, aumenta la fuerza al corte, presentando diferencias entre sí las salchichas (CE), haciendo más fuertes y con una consistencia mucho más sólida las salchichas (CEA) que las anteriores debido a las moléculas de grasa que interactúan con la fase proteica, hacen más dura la emulsión cárnica. Los resultados del análisis sensorial se muestran en la Figura 4. Los resultados obtenidos en la cata realizada se han conseguido a través de la puntuación en una escala de 0 a 8 de los diferentes atributos de las salchichas, utilizando una población de 30 catadores inexpertos.

Medias, las letras diferentes (a,b,c,d) en algunas columnas indican diferencia significativa (P < 0.05).

Tabla 3. Resultados del análisis sensorial. Medias de las puntuaciones. Escala 0 a 8. Las salchichas con aceite (COA y CEA), han obtenido las puntuaciones más bajas tanto en aroma como en sabor, pudiendo ser debido este fenomeno a que el aceite enmascare el sabor y el aroma de la carne, perjudicando así la aceptación de los catadores. La salchicha hecha a base de carne de conejo (CO) se diferencia significativamente del resto en los parametros anteriormente citados, siendo la que mejor puntuación ha obtenido prácticamente en todos los parámetros medidos, por lo que el componente que produce la disminución de la aceptación por los consumidores es el aceite de oliva. En el caso del conejo, este efecto es mucho más marcado que en el de cerdo, pues la apreciación global de los catadores inexpertos es la mas baja en el caso de la salchicha COA (con una diferencia estadísticamente significativa al resto de formulaciones), totalmente contraria a la aprecicación tan positiva que obtuvo la salchicha CO.

Figura 4. Representación de los resultados del análisis sensorial de las salchichas.

En la Figura 4, se aprecia que la formulación a base únicamente de conejo (CO), para el conjunto de catadores no expertos que realizaron la cata, sobresale del resto en apreciación global, aroma, sabor y textura en boca y tacto. En apariencia se observa que la que más aceptación tuvo para los catadores de la cata fue la correspondiente a la salchicha de cerdo (CE) y aceite al 10% (CEA). En líneas generales, las que menor grado de aceptación tuvieron fueron la formulación de conejo y aceite de oliva al 10% (COA) y la formulación de cerdo y aceite de oliva al 10% (CEA). Ambas salchichas de menor aceptación fueron las que contienen en su formulación aceite de oliva, es decir, tanto las salchichas (COA) como las (CEA) obtuvieron las menores puntuaciones en cuanto a sabor, aroma y apreciación global, por lo que este tipo de grasa vegetal, ya sea por sus características organolépticas o por los cambios que genera en las características de la salchicha, produce un efecto no grato al paladar sobre la apreciación del consumidor. En la Figura 4, se puede apreciar que las mayores diferencias entre las puntuaciones obtenidas por las diferentes muestras fueron en sabor, aroma y apreciación global. Tras su análisis estadistico, se muestra en la Tabla 3, si existen diferencias estadísticamente significativas entre ellas. En esta Tabla 3 también se observa numéricamente las medias de las puntuaciones obtenidas, así como las diferencias significativas de los parámetros medidos para el conjunto de salchichas, corroborando que solo existen diferencias significaivas entre las salchichas en aroma, sabor y apreciación global.

116

Revista Científica

Conclusiones Se ha comprobado que la carne de conejo es apta para su emulsificación, produciendo así una pasta con una elevada aptitud para la elaboración de productos cárnicos (Álvarez, Castillo, Garrido, Nieto y Payne, 2007), obteniendo salchichas con una textura y color parecidas a las convencionales. La cata realizada durante la investigación arrojó resultados positivos sobre la aceptación de los 30 catadores no expertos, sobre las salchichas hechas a base de carne de conejo. Por lo tanto, se ha cumplido el objetivo principal de la investigación, produciendo una salchicha tipo Frankfurt con buenas características tanto para su consumo como para su comercialización. Una vez realizados los análisis, se concluye que la salchicha de conejo tiene menor porcentaje de grasa que la de cerdo y mayor contenido en proteínas, así como un mayor contenido de agua y cenizas (sales minerales). Todos estos datos indican que si texturalmente es muy parecida, y tras la cata tuvo una buena aceptación, la salchicha hecha a base de conejo podría ser una alternativa apta para la obtención de un producto con buenas características y con un mayor valor nutritivo, que las de cerdo. Este producto hecho a base de carne de conejo puede ser consumido por todas las edades, desde niños hasta ancianos, ya que posee unas características nutricionales que se adaptan a todos los tipos de dietas. Para finalizar, se puede mencionar que la sutitucion de aceite de oliva por grasa animal, arrojó resultados sorprendentes, pudiendo llevar a cabo futuras investigaciones para el desarrollo de nuevos productos y altamente nutritivos.


Bibliografía + Alagón, G.; Cervera, C.; Arce, O.; Pascual, J.; Serrano, P.; Pascual, M.; Ródenas, L. y Martínez, E. (2015). Effect of feeding diets containing barley, wheat and corn distillers dried grains with solubles on carcass traits and meat quality in growing rabbits. Meat Science 101. Pp: 56-62. + Álvarez, D.; M. Castillo, M. D.; Garrido, S.; Bañón, G.; Nieto, P.; Díaz, F. A. y Payne (2007). Efecto de la composición y el tiempo de procesado sobre las propiedades tecnológicas y ópticas de las emulsiones cárnicas. Departamento de Tecnología de los Alimentos, Facultad de Veterinaria. Campus de Espinardo, Universidad de Murcia. pp:26. +AOAC (1997). Official methods of analysis (16th ed.). Washington: Association of Official analytical Chemists. +Barbado, José Luis (2004). Cría de Conejos. Ed. Albatros 1ª edición. Buenos Aires. Pp: 1-40. +Bear, A. y Dilger, A. (2014). Effect of fat quality on sausages processing, texture and sensory characteristics. Meat Science 96. pp: 1242-1249. +Calvo, M. (2011). Estructura de las proteínas. Bioquímica de los alimentos. +Cavani, C. y Petracci, M. (2013). Rabbit Meat processing: Historical perspective to future directions. World Rabbit Science 21. pp: 217-226. +Dal Bosco, A.; Mugnai, C.; Roscini, V.; Mattioli, S.; Ruggeri, S. y Castellini, C. (2014). Effect of dietary alfalfa on the fatty acid composition and indexes of lipid metabolism of rabbit meat. Meat Science 96. Pp: 606-609. +Dalle Zotte, A. y Szendrő, Z. (2011). The role of rabbit meat as functional food. Meat Science 88. Pp: 319-331. +FAO (2013). Base de datos. Obtenido 28-Abril-2014 .faostat3.fao.org +Galán, I.; García, M. y Selgas, M. (2010). Effects of irradiation on hamburguers enriched with folic acid. Meat Science 84. pp: 437-443. +García, M.; Domínguez, R.; Gálvez, M.; Casas, M. y Selgas, M. (2002). Utilization of cereal and fruit fibers in low fat dry fermented sausages. Meat Science 60. pp: 227-236. +González Redondo, Pedro (2005). Producción de conejos de aptitud cárnica. Cap 30, pp.379-381. +Hermida, M.; González, M.; Miranda, M. y Rodríguez-Otero, JL. (2006). Mineral analysis in

rabbit meat from Galicia (NW Spain). Meat Sci; 73 (4): pp.635–639. +Hernández, P. (2007). Carne de conejo, ideal para dietas bajas en ácido úrico. Revista Científica de Nutrición. Bol Cunicul 154 (8): pp.33-36. +Hernández, P. (2008). La carne de conejo como alimento funcional. Instituto de Ciencia y Tecnología Animal. Universidad Politécnica de Valencia. Valencia 46022. +Herrero, A.; De la Hoz, L.; Ordóñez, J.; Herranz, B.; Romero de Ávila, M. y Cambero, M. (2008). Tensile properties of cooked meat sausages and their correlation with texture profile analysis (TPA) parameters and physicochemical characteristics. Meat Science 80. pp: 690-696. +Igor - Hleap, J. (2010). Análisis de las propiedades de textura durante el almacenamiento de salchichas elaboradas a partir de Tilapia Roja. Facultad de ciencias agropecuarias. Vol 8 No. 2. +Jiménez-Colmenero, F.; Triki, M.; Herrero, A.; Rodríguez-Salas, L. y Ruiz-Capillas, C. (2013). Healty oil combination stabilized in a konjac matrix as pork fat replacement in low-fat PUFA-enriched, dry fermented sausages. Food Science and Technology 51. pp: 158-163. +Kouba, M.; Benatmane, F.; Blochet, J.E. y Mourot, J. (2008). Effect of a linseed diet on lipid oxidation, fatty acid composition of muscle, perirenal fat, and raw and cooked rabbit meat. Meat Science 80. Pp: 829-834. +Licata, M. (2015). Carne de cerdo: ventajas y desventajas de su consumo. +Llona Larrauri, J. (2002). Tratado de carne y charcutería artesana. Ed. Hegar – Monsa , Tomo I, Barcelona, pp.127-130 .

+Nakyinsige, K.; Sazili, A.Q.; Zulkifli, I.; Goh, Y.M.; Abu Bakar, F. y Sabow, A.B. (2014). Influence of gas stunning and halal slaughter (no stunning) on rabbits welfare indicators and meat quality. Meat Science 98. Pp: 701-708. +Peiretti, P.G. y Meineri, G. (2008). Effects on growth performance, carcass characteristics, and the fat and meat fatty acid profile of rabbits fed diets with chia (Salvia hispanica L.) seed supplements. Meat Science 80. pp: 1116-1121. +Peiretti, P.G.; Rotolo, L.; Gai, F.; Brugiapaglia, A. y Gasco, L. (2013). Effects of tomato pomace supplementation on carcass characteristics and meat quality of fattening rabbits. Meat Science 95. Pp: 345-351. +Rizo, A.; Mañes, V.; Fuentes, A.; Fernández-Segovia, I. y Barat, J. (2015). A novel process for obtaining smoke-flavoured salmon using water vapour permeable bags. Journal of Food Engieneering 149. pp: 44-50. +Rodríguez, Mónica (2013). Informe sobre las cualidades nutricionales de la carne de conejo. Pp: 1-2. +Ruiz-Capillas, C.; Carmona, P.; Jiménez-Colmenero, F. y Herrero, A. (2013). Oil bulking agents base on polysaccharide gels in meat batters: A Raman spectroscopic study. Food Chemistry 141. pp: 3688-3694. +Francisco, S. (2011). Determinación de proteínas por el método de Kjeldahl. +Stasiewiez, M.; Lipinski, K. y Cierach, M. (2014). Quality of meat products packaged and stored under vacuum and modified atmosphere conditions. J Food Sci Technol 51(9). pp: 19821989.

+López-López, I.; Cofrades, S, y Jiménez-Colmenero, F. (2009). Low-fat frankfurters enriched with n-3 PUFA and edible seaweed: Effects of olive oil and chilled storage on physicochemical, sensory and microbial characteristics. Meat Science 83. pp: 148-154.

+Tavares-Pereira, A.; Mendes Ramos, E.; Thaís Teixeira, J.; Pereira Cardoso, G.; Souza Ramos, A. y Rogéiro Fontes, P. (2011). Effect of the addition of mechanically deboned poultry meat and collagen fibers on quality characteristics of frankfurter- type sausages. Meat Science 89: 519-525.

+Martínez, R. y Vázquez, R. (2001). Comparación de rendimientos productivos en conejos Nueva Zelanda y Chinchilla y sus cruces para la elaboración de productos cárnicos en Colombia. Elementos 1:9–15.

+Tůmová, E.; Bízková, Z.; Skřivanová, V.; Chodová, D.; Martinec, M. y Volek, Z. (2014). Comparisons of carcass and meat quality among rabbit breeds of different sizes, and hybrid rabbits. Livestock Science 165. Pp: 8-14.

+Ministerio de Agricultura, Alimentación y Medio Ambiente (2014). Composición de la carne de cerdo. pp: 1-4

+Westland, Stephen. (2001). Teoría del color, ¿Qué es el espacio de color CIE L*a*b*?

+Ministerio de Sanidad, Gobierno de España. (2014).

+Zomeño, C.; Juste, V. y Hernández, P. (2012). Application of NIRS for predicting fatty acids in intramuscular fat of rabbit. Meat Science 91. pp: 155-159.

Revista Científica

117


IDENTIFICACIÓN DE

CONDICIONES AMBIENTALES IDEALES PARA LA EVALUACIÓN SENSORIAL DEL COLOR EN LA INDUSTRIA MANUFACTURERA

Iván Cabrera Sánchez1, David Cabrera Sánchez2, Araceli Moreno González3 y Paloma Teresita Gutiérrez Rosas4

Instituto Tecnológico de Celaya. Antonio García Cubas PTC, #600, Fovisste, Celaya, Guanajuato, México, C.P. 38010. 1,2,3,4

v8ivan_012@hotmail.com casd_0415@hotmail.com ara1mor@gmail.com teresita.gutierrez@itcelaya.edu.mx

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Enero 17, 2017. Aceptado: Mayo 15, 2017.

118

Revista Científica

Resumen:En esta investigación, se evalúan un conjunto de condiciones ambientales ideales, previamente identificadas, para el análisis sensorial del color; la evaluación se llevó a cabo mediante la aplicación de un diseño de experimentos, elaborado con el software Desing Expert, que involucra las condiciones identificadas con anterioridad y la participación de cuatro individuos, que fueron entrenados previamente para evaluar la característica del color, característica que es vital en ciertos productos. El resultado obtenido de esta experimentación, permitió establecer elementos necesarios para identificar las condiciones ambientales óptimas requeridas en la evaluación sensorial del color en la industria manufacturera, permitiendo presentar una opción alternativa de bajo costo e inversión, en comparación con los instrumentos tecnológicos de elevado costo empleados en este tipo de actividades enfocadas a esta clase de industria. Además, cabe destacar que con la aplicación de esta alternativa, las empresas le otorgarían un plus a la calidad de sus productos.

+ Palabras clave: Color, evaluación sensorial, calidad, diseño de experimentos y reducción de costos.


Abstract: In this research, are evaluated a set of ideal environmental conditions, previously identified for the sensory color analysis, the assessment was carried out through the application of design of experiments, made with the software Desing Expert, which involves the conditions previously identified and the participation of four individuals, who were previously trained to evaluate the color feature, feature that is vital in certain products. The result retrieved of this experimentation, allowed establish the necessary elements, to identify the optimal environmental conditions required in the sensory evaluation of the color in the manufacturing industry, allowing to present an alternative option of low cost and investment, in comparison, with the technological instruments of high cost used in this type of activities focused to this class of industry. Also to be noted that with the implementation of this alternative the companies would give a plus to the quality of their products.

+ Keywords: color, sensory evaluation, quality, design of experiments and cost reduction. Introducción El análisis sensorial es una disciplina muy útil para conocer las características físicas de los alimentos, así como de productos de la industria farmacéutica, cosméticos y demás productos comerciales, por medio de los sentidos. La evaluación sensorial es innata en el hombre, ya que desde el momento que se prueba algún producto, se hace un juicio acerca de él, si le gusta o disgusta, y describe y reconoce sus características de sabor, olor, textura y color, entre otras (Picallo, 2002). La importancia del color en los productos se debe fundamentalmente a la asociación que el consumidor realiza entre este y otras propiedades del producto. Se ha demostrado que en ocasiones solo por la apariencia y color del objeto, un consumidor puede aceptarlo o rechazarlo (Mondino y Ferratto, 2006). La evaluación del color del producto requiere ser realizada en la empresa antes de presentarlo al mercado; por tal motivo, la empresa debe contar con un área especializada con ciertas condiciones para llevar a cabo dicha evaluación. La investigación se enfoca en identificar y establecer las condiciones ambientales para la evaluación sensorial del color tomando en cuenta las técnicas de la ergoftalmología relacionadas con el confort visual al realizar ciertas actividades (Martínez, 2005), así como información de instituciones como la Comisión Internacional de la Iluminación (CIE) (Moulin, 2002). Las condiciones se establecen a través de un diseño de experimentos, ya que su objetivo fundamental es producir información relevante, optimizando el uso de recursos, garantizando la máxima precisión y el menor sesgo posible. Para ello, es imprescindible establecer objetivos claros, concisos y realistas. Se consideraron las condiciones ambientales que influyen en el sistema visual. Algunas de estas son: el tipo de iluminación, condiciones de la iluminación, cabina para realizar pruebas, colores adecuados para el contraste, altura y posición de las lámparas y de las muestras, etc. (ENAC,

2003). Durante el diseño de experimentos se tomaron tres factores, los cuales fueron variados a dos niveles cada uno: tipo de lámpara, color de fondo y distancia de observación. Los niveles de la distancia de observación fueron determinados tomando en cuenta, como nivel bajo, la distancia utilizada en el Sistema de Visión Artificial (SVA) de Molina Bermúdez (2015), y el nivel alto utilizando como referencia la distancia de observación utilizada en Gutiérrez Rosas, Vázquez López y López Juárez (2015). Los dos tipos de lámparas fueron empleados en tres estudios diferentes, la lámpara fluorescente en Girolami, Napolitano, Faraone y Bragheri (2013) y Gutiérrez Rosas, Vázquez López y López Juárez (2015) y la lámpara LED en Moreno (2016). Para el color de fondo, también se tomó como referencia el estudio realizado por Gutiérrez Rosas, Vázquez López y López Juárez (2015), para el color blanco y el color gris se tomó como prueba para evitar deslumbramiento al ojo del observador. Con esta investigación, se establecen las condiciones ideales que se requieren para realizar de manera correcta una evaluación de color mediante un panel sensorial, y tener condiciones que sean lo más efectivas posibles para llevar a cabo una correcta evaluación del color; de esta forma, las empresas que requieran realizar pruebas de color a sus productos puedan hacerlo de una manera más económica dependiendo del tipo del producto a evaluar (Minolta, 1993). La investigación está dirigida a empresas que no cuentan con los recursos necesarios para hacer las evaluaciones sensoriales de color de sus productos en laboratorios especializados, ya que estos son costosos por el tipo de equipo que utilizan; con esto, las empresas tendrían una forma más sencilla y económica para evaluar sus productos que así lo requieran.

Planteamiento del problema Actualmente, el éxito de un producto se debe a sus características, por esta razón, es necesario tener las condiciones adecuadas para realizar la evaluación e inspección de dichas características, que en este caso sería del color del producto. Si bien es cierto que ya existen laboratorios certificados que se dedican a realizar la evaluación de distintas características, el costo del mismo es muy elevado y esto ocasiona que se busquen otras opciones un tanto más económicas y casi igual de efectivas (Vural, 2007). Una alternativa para la evaluación del color es el análisis sensorial, es decir, evaluar el color por medio de la vista de personas calificadas. Sin embargo, existen factores que pueden modificar la percepción del color sin que estén relacionados directamente con las características físicas; por ejemplo, la distancia al objeto, así como su forma, la edad y el género del observador, estos factores afectan la intensidad con la cual se aprecian los colores (Correa, Estupiñán, García, Jiménez, Prada, Rojas y Cristancho, 2007), por lo que el objetivo de esta investigacion es establecer las condiciones ambien-

Revista Científica

119


tales ideales para la evaluacion sensorial del color.

condición ambiental es la mejor y presenta mayor fidelidad a la hora de evaluar distintos colores (Figura 2).

Descripción del método El método de trabajo empleado en esta investigación se describe en la Figura 1. Inicialmente se cuantificará la información existente, posteriormente se identificarán los elementos y condiciones ambientales necesarias para realizar una evaluación sensorial de color adecuada. Este paso es muy importante, ya que de esto dependerán todos los elementos a considerar para adecuar el laboratorio; luego, se procede a realizar la adaptación del laboratorio de investigación para que este cumpla con las condiciones especificadas, como el tipo de iluminación, posición y ubicación de las lámparas y contraste de la habitación, entre otras. Debido a que se tendrán varias opciones en cuanto a las condiciones ambientales, posteriormente se llevará a cabo la experimentación y se determinará cuál de las condiciones seleccionadas anteriormente es mejor para realizar la evaluación sensorial de color y finalmente analizar los resultados obtenidos y llegar a las conclusiones sobre las condiciones ambientales. Figura 2. Metodología para establecer las condiciones ambientales ideales.

Figura 1. Método de la investigación.

Metodología La primera actividad que se realizó es la inspección de las condiciones ambientales con las que cuenta el laboratorio de investigación; esto es de suma importancia, ya que se determinó cuáles son los recursos con los que cuenta el laboratorio y cuáles son los que le hacen falta para que cumpla con las condiciones ambientales necesarias para llevar a cabo una evaluación sensorial de color. La interrogante principal es ver si cumple o no con las condiciones ambientales requeridas, por lo que existen dos opciones “cumple” o “no cumple”; en caso de que no cumplió, se procedió al reacondicionamiento del lugar y se consideró como una pequeña demora, ya que esto dependió en parte de los encargados de mantenimiento del Instituto Tecnológico de Celaya en cuanto a la realización de las instalaciones y adecuaciones pertinentes que se les indicaron. Posteriormente una vez acondicionado el laboratorio, se pasó a la fase de experimentación, la cual consistió en realizar varias pruebas con algunas de las condiciones ambientales ya establecidas para determinar con cuál de ellas se obtienen los mejores resultados, para esto se emplearon personas que fueron evaluadas anteriormente y que cumplen con los requisitos para ser un evaluador apto. De acuerdo a esta experimentación, se analizaron los resultados obtenidos de las pruebas para llegar a la obtención de las conclusiones y se determinó con certeza cuál 120

Se debe recordar que para las empresas es de mucha importancia el hecho de poder evaluar la correcta colorimetría de sus productos, ya que de esto depende el éxito en ventas de tal producto; por lo tanto, es muy importante que se seleccione la mejor condición ambiental posible y la más accesible económicamente para que de esta forma, las empresas puedan implementar su propio sistema de evaluación sensorial del color y aplicarlo a sus productos. De acuerdo con trabajos similares, el uso de pruebas sensoriales para establecer los atributos que identifican el valor agregado de un producto consume tiempo, implica trabajo, está sujeto a errores debidos a la variabilidad del juicio humano. Sin embargo, no existen instrumentos mecánicos o eléctricos que puedan duplicar o sustituir el dictamen humano. En cambio, las respuestas sensoriales son más complejas, debido a la integración simultánea de señales múltiples, las cuales el juez asocia con su experiencia. La evaluación sensorial comprende una metodología (Figura 3) que eleva la disciplina sensorial a la categoría de ciencia (Fabres, 2009).

Figura 3. Metodología de la evaluación sensorial. Revista Científica


La luz es un elemento esencial de la capacidad de ver y necesaria para apreciar la forma, el color y la perspectiva de los objetos que se encuentran alrededor de la vida diaria. La mayor parte de la información que se obtiene a través de los sentidos se logro por la vista (cerca del 80%). Y al estar tan acostumbrados a disponer de ella, se da por supuesta su labor. Ahora bien, no se debe olvidar que ciertos aspectos del bienestar humano, como el estado mental o el nivel de fatiga, se ven afectados por la iluminación y por el color de las cosas ubicadas alrededor.

El análisis de los resultados del diseño de las corridas del diseño de experimentos se analizó con ayuda del Software Desing Expert. La Tabla 2 muestra el ANOVA resultante del análisis de los resultados obtenidos de las observaciones del color morado oscuro con diferencia de color (Delta E) de 1.

Al investigar las condiciones de iluminación adecuadas para el confort y el rendimiento visual, es apropiado estudiar los factores que afectan a la capacidad de ver los detalles. Pueden subdividirse en dos categorías: las características del observador y las características de la tarea. Características del observador. Entre ellas cabe citar: la sensibilidad del sistema visual de la persona al tamaño, el contraste y el tiempo de exposición, las características de adaptación transitoria, la susceptibilidad al deslumbramiento, la edad, las características psicológicas y de motivación.

Tabla 1. Características de las condiciones.

Características de la tarea. Entre ellas cabe citar: la configuración de los detalles, contraste del detalle con el fondo, luminancia del fondo, la especularidad del detalle. A fin de crear condiciones óptimas de iluminación en el lugar de trabajo, es importante analizar lo que se exige de la instalación de alumbrado. Lo ideal sería que la iluminación de tareas revelase las características de color, tamaño, relieve y superficie de una tarea, evitando al mismo tiempo la creación de sombras posiblemente peligrosas, brillos deslumbrantes y un entorno “difícil” para la propia tarea (Farrás, 2008). Además de los trabajos citados anteriormente, se tiene el registro de varios autores que han realizados trabajos similares, como son Hernández (2005), Lamphar (2006) y Sanz (2003).

Resumen de resultados Tras el desarrollo del proyecto de investigación, se lograron obtener resultados significativos en la selección de las condiciones óptimas para realizar una evaluación sensorial del color, estos resultados fueron alcandos después de analizar cuáles condiciones son las ideales para realizar una inspección visual en general; una vez teniendo estas condiciones ideales, se adaptó el laboratorio, para después llevar a cabo una experimentación con cuatro individuos, dos tipos de lámparas, una de tipo LED y otra fluorescente, dos tipos de fondos, y además se emplearon diferentes distancias entre el objeto evaluado y el evaluador (Tabla 1). Posteriormente se realizó un diseño de experimentos con ayuda del software Desing Expert, en el cual se vaciaron los datos obtenidos del experimento realizado. El diseño de experimentos fue un 23 (tres factores a dos niveles cada uno) con ocho corridas en total y cuatro réplicas.

Tabla 2. ANOVA. Los resultados obtenidos se muestran en la Figuras 4, 5 y 6, donde se observan cuáles son las condiciones óptimas para cada uno de los colores que fueron evaluados sensorialmente, en donde AE hace referencia a Delta E. Además, cabe aclarar que se hicieron las comparaciones entre imágenes con Delta E de 1 y Delta E de 3, donde, Delta E es la magnitud empleada para medir la diferencia de color.

Figura 4. Resultados obtenidos para el color morado oscuro AE1. Revista Científica

121


Para el color morado oscuro con una diferenciación de color de 1, se obtuvieron cinco condiciones ambientales ideales para tener una buena evaluación sensorial de ese color. Por lo tanto, son cinco opciones que se pueden elegir dependiendo de la que tenga un costo menor y obtener buenos resultados a la hora de evaluar el color.

Figura 5. Resultados obtenidos para el color: (a) Naranja claro AE1 y (b) Naranja claro AE3.

Se obtuvo solo una condición ambiental ideal para el color naranja claro AE1 por lo que se quiere de esa condición sin importar el costo que está implique. Con esta condición se obtiene una diferenciación del 122

Revista Científica

50% respecto con otros colores naranja. El color naranja claro con AE3 se evaluá perfectamente con dos condiciones diferentes, entre ellas solo varia el tipo de iluminación. Aunque con estas dos condiciones solo se puede diferenciar el color de los demás colores en un 50%. Como se observa, los colores naranjas son los más difíciles de diferenciar, ya que en las dos graficas de este color se puede observar que la diferenciación más alta fue del 50% en ambas, cuando en otros colores la diferenciación más alta es del 100%

Figura 6. Resultados obtenidos para el color: (c) Verde claro AE1 y (d) Verde oscuro AE1.


De acuerdo a los resultados obtenidos, se tiene la opción elegir entre cuatro diferentes condiciones ambientales para evaluar el color verde claro AE1; por lo tanto, se cuenta con más opciones de elegir la que más convenga de acuerdo a los costos. El color verde oscuro AE1 solo es evaluado de manera correcta con una condición ambiental la cual proporciona una diferenciación del 100%; es decir, que con esta condición se logra diferenciar el color de otros perfectamente.

Bibliografía +Correa, V.; Estupiñan, L.; García, Z.; Jiménez, O.; Prada, L. F.; Rojas, A. y Cristancho, E. (2007). Percepción visual del rango de color: diferencia entre género y edad. Med, 15(1), 7-14. +ENAC (2003). Guía para la acreditación de laboratorios de análisis sensorial. Madrid: Entidad Nacional de Acreditación. +Fabres, I. X. (2009). Estrategia de diferenciación de productos de consumo para su posicionamiento en la preferencia del consumidor. México.

Conclusiones Finalmente, después de haber analizado los datos obtenidos, se llegó a la conclusión de que la opción óptima para realizar una evaluación sensorial del color de manera correcta y efectiva es empleando un fondo gris, una lámpara tipo LED y una distancia de 60 cm entre el objeto evaluado y el evaluador. Con esto, es posible tener la oportunidad de replicarlo en alguna empresa interesada en aplicar una evaluación sensorial del color a sus productos, lo que les dará un plus de calidad lo cual es muy grato para el consumidor final. Se concluye, de igual manera, que es posible realizar una evaluación sensorial y se obtendrán resultados muy cercanos en comparación con los resultados que se pudieran obtener en laboratorios especializados, aparte de tener la ventaja de que la evaluación sensorial es menos costosa y más fácil de implementar.

+Farrás, J. G. (2008). Iluminación. En Enciclopedia de salud y seguridad en el trabajo (págs. 46.1 - 46.19). Barcelona. +Girolami, A.; Napolitano, F.; Faraone, D. y Bragheri, A. (2013). Mesurement of meat color using a computer vision system. Meat Science, 93(1), 111(8). +Gutiérrez Rosas, P. T.; Vázquez López, J. A. y López Juárez, I. (2015). Medición y discriminación del color de un producto cosmético mediante un sistema de visión artificial. IEEE. +Hernández, E. (2005). Evaluación sensorial. Bogotá: Centro Nacional de Medios para el aprendizaje. +Lamphar, H. A. (2006). Análisis de los Factores que Inciden en la Astenopía de los trabajadores de inspección visual. Ciencia y trabajo, 135-140. +Martínez, R. M. (2005). Ergoftalmología. Sociedad de Ergonomistas de México, A.C. Memorias del VII Congreso Internacional de Ergonomía, 136-147. +Minolta (1993). Precise color communication. Manual de colorímetros, 11-25. +Molina Bermúdez, D. G. (2015). Desarrollo de un sistema de inspección por visión artificial aplicado en estudios colorimétricos y de análisis dimensional de figuras geométricas Tesis de Maestría. Celaya: Instituto Tecnológico de Celaya. +Mondino, C. y Ferratto, J. (2006). El análisis sensorial, una herramienta para la evaluación de la calidad desde el consumidor. Revista Agromensajes de la facultad, 5-10. +Moreno González, A. (2016). Desarrollo de un sistema de visión artificial para la medición del color en muestras de colores de pinturas mediante redes neuronales artificiales. Tesis de Maestría. Celaya: Instituto Tecnológico de Celaya. +Moulin (2002). Guía para entender la comuniación del color. X - Rite, 9-10. +Picallo, A. (2002). El análisis sensorial como herramienta de calidad de carne y productos cárnicos de cerdo. Tandil: Mundi-Prensa. +Sanz, M. P. (2003). Iluminación en el puesto de trabajo. Centro Nacional de Nuevas Tecnologías, 1-39. +Vural, G. (2007). A non-contact computer vision based analysis of color in foods. International Journal of Food Engeneering, 3(5), 1-13.

Revista Científica

123


TRANSFORMACIóN

DE

CEPAS DE BRUCELLA

CON

UN

PLÁSMIDO VACUNAL ANTIRRÁBICO

Adriana Morán Torres1, René Abraham Cahuantzi Mejía12 y Nidia Gary Pazos Salazar3

Departamento de Microbiología, Facultad de Ciencias Química, Benemérita Universidad Autónoma de Puebla. Edificio FCQ-9, Ciudad Universitaria, Col. San Manuel, Puebla, Pue. México. 1,2,3

nidianaye@hotmail.com

Resumen: Los plásmidos vacunales codifican proteínas antigénicas de patógenos y deben ser entregados en células de mamífero. Para este fin se pueden emplear bacterias intracelulares atenuadas. En este trabajo se utilizó el plásmido pBBR4-CMV-Ggp-SV40+, que contiene el gen del principal antígeno rábico, la glicoproteína G (gpG), y el promotor de Citomegalovirus (CMV) para la expresión eucariotica, la gpG induce una respuesta protectora contra la infección. Con este plásmido se trasformaron las cepas atenuadas B. abortus S19 y B. abortus RB51, así como B. canis virB10 empleadas para vacunar bovinos y caninos contra Brucelosis. Estas cepas son intracelulares y pueden emplearse como vectores del plásmido vacunal antirrábico. Mediante electroporación se logró la transformación de estas tres cepas y se certificaron, identificando el gen de la gpG mediante la reacción en cadena de la polimerasa (PCR). Estas cepas transformadas representan un producto con potencial aplicación como vacuna contra Brucelosis y Rabia.

+

Palabras clave: Glicoproteína G, cepas vacunales atenuadas, plásmido vacunal, brucella y transformación bacteriana.

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Enero 26, 2017. Aceptado: Mayo 22, 2017.

124

Revista Científica


Abstract: Vaccine plasmids encode antigenic proteins of pathogens and must be delivered in mammalian cells. To this end attenuated intracellular bacteria can be used. In this work plasmid pBBR4-CMVGgp-SV40+ was used, it contains the gene of the main rabid antigen, G glycoprotein (Ggp), and cytomegalovirus (CMV) eukaryotic expression promoter, the Ggp induces a protective response against infection. The B. abortus S19 and RB51 attenuated strains as well as B. canis virB10 employed for bovine and canine vaccination against Brucellosis were transformed with this plasmid. These are intracellular strains and can be used as vectors for rabies vaccine plasmid. The three strains were achieved transformed by electroporation and were certified by polymerase chain reaction (PCR) identifying Ggp gene. These transformed strains are a product with potential application as vaccine against Brucellosis and Rabies.

+ Key words: G glycoprotein, attenuated vaccine strains, vaccine plasmid, brucella and bacterial transformation.

Introducción Los plásmidos vacunales son moléculas de ADN construidas artificialmente con un propósito específico, estructuralmente está constituidas de dos secciones; una sección funcional y una sección para producción; la sección funcional contiene las secuencias que él plásmido requiere para cumplir con el fin para el que se construyó, mientras la sección de producción incluye regiones que ayudan a la propagación del plásmido en las células (generalmente bacterias), que servirán para construirlo y posteriormente producirlo (Figura 1). En la sección funcional de un plásmido vacunal, se encuentran genes que codifican para las proteínas más inmunogénicas de algún agente infeccioso; además, estos genes están regulados por promotores que inducen fuertemente la expresión de la proteína en células de mamífero, entre los más utilizados están el promotor de Citomegalovirus (CMV) y el del virus 40 de simio (SV40). Después del gen se ubican secuencias estabilizadoras del proceso de transcripción de la proteína codificada. La sección de producción incluye secuencias, como el origen de replicación para bacterias, el cual ayuda a que el plásmido se propague en la progenie bacteriana una vez que la primera célula lo capta, un gen de selección que sirve para recuperar las bacterias que recibieron el plásmido (Gurunathan, Klinman y Seder, 2000).

La generación de un plásmido vacunal requiere un proceso que contempla desde la concepción de la idea hasta la aplicación práctica del plásmido y parte de una pregunta primordial, ¿cuál es el propósito de construirlo?, la respuesta determina de qué forma la molécula que se pretende generar contribuirá a mejorar una condición de salud determinada o bien los beneficios sobre las opciones que ya existen. En este sentido, los plásmidos vacunales ofrecen ventajas en comparación con las vacunas de uso humano o veterinario que se aplican actualmente y que contemplan el uso de cepas atenuadas o inactivas de patógenos o bien fracciones proteicas de los mismos. El ADN vacunal es capaz de activar los dos linajes de respuesta inmune, humoral y celular, siendo este un factor determinante en la eliminación de patógenos intracelulares, como los virus y algunas bacterias; también induce la generación de una respuesta de memoria y todo manejando únicamente la secuencia genética, lo cual evita la exposición al agente infeccioso. La comparación entre los diferentes tipos de vacunas se presenta en la Tabla 1. Otro aspecto a considerar es la manera de hacer llegar el plásmido a las células blancas, en específico a las células de la respuesta inmune. Sizemore Branstorm y Sadoff (1995) demostraron qué bacterias intracelulares atenuadas de Shigella eran útiles para entregar in vitro plásmidos reporteros, logrando la expresión de la proteína verde fluorescente; a partir de estos resultados, se valoró la utilidad de otras bacterias intracelulares para entregar plásmidos de expresión después de ser lisadas por la célula, principalmente macrófagos, aprovechando el curso natural de infección. Calderón Chamorro (2011) diseñó y construyó el plásmido pBBR4CMV-Ggp-SV40+, el cual contiene las siguientes secuencias: un sitio ORI compatible para ser aceptado por bacterias del género Brucella, el gen de la glicoproteína G (gpG) del virus de la Rabia regulado por el promotor de CMV, seguido de una secuencia de poliadenilación que estabiliza el ARNm de la gpG y un gen de resistencia a ampicilina (ampr) para la selección de bacterias transformadas.

Tabla 1. Análisis comparativo de la formulación de varias vacunas.

Figura 1. Estructura de un plásmido vacunal. Del lado derecho, se representan las secuencias pertenecientes a la sección de producción; del lado izquierdo, las secuencias de la sección funcional.

La gpG es la única proteína en la envoltura del virus, participa en la adsorción viral a su receptor, es su principal inmunógeno e induce la producción de anticuerpos antirrábicos neutralizantes que resuelven la infección viral. Diversos plásmidos vacunales codificantes de gpG regulados por el promotor CMV han mostrado su utilidad para proteger especies como ratones y perros contra el desafío con un virus virulento Perrin, Jacob, Aguilar-Setien, Loza-Rubio, Desmézieres, Cliquet y Tordo (2000), Aguilar-Setién, Salas-Rojas, Alonso-Morales y Blanco-Favela (2008). La Rabia es una encefalomielitis viral que afecta a los mamíferos, infecRevista Científica

125


ta a diversas especies de la fauna silvestre como zorros, mapaches, lobos; a especies de interés ganadero como bovinos, cerdos, equinos; especies de zonas urbanas como perros, gatos y también al humano. Una vez adquirida es mortal, se puede prevenir mediante la administración de vacunas que contienen cepas virales atenuadas o inactivas que se aplican en especies animales expuestas frecuentemente al virus o a personas de grupos de riesgo como guardabosques, veterinarios y personales de laboratorio que maneja los virus (Rupercht y Plotkin, 2013). El género Brucella incluye bacterias Gram negativas que son naturalmente intracelulares y producen Brucelosis en diferentes especies como ovinos, bovinos, caprinos e incluso el humano. Su principal medida de prevención y control es la vacunación, donde se utilizan cepas atenuadas que se administran a una especie animal en particular; para el caso de Brucelosis bovina (BB), se cuenta con dos cepas vacunales de Brucella abortus, la cepa S19 y la cepa RB51. La cepa Brucella abortus S19 es la cepa vacunal más eficiente para proteger contra BB; por otro lado la cepa RB51 tiene una eficiencia controversial y su administración se recomienda en zonas libres de BB (Altun, Junes, Angus y Verger, 1988). Brucella canis virB10 es una cepa recombinante creada para la protección de brucelosis canina. Los bovinos y los perros son afectados por Brucelosis y Rabia y aunque ya se cuenta con vacunas para protegerlos contra ambas enfermedades es importante buscar nuevas alternativas para mejorar la prevención y control en las especies animales, lo cual impactaría favorablemente en la Brucelosis humana. La naturaleza intracelular de las especies de Brucella y la condición atenuada de las cepas vacunales anteriormente mencionadas las presenta como un alternativa para emplearlas como vectores para entregar plásmidos vacunales antirrábicos; por ello, el objetivo de este trabajo es transformar cepas atenuadas del género Brucella con un plásmido vacunal antirrábico para evaluar su utilidad como vector, y llegar a desarrollar un producto que potencialmente se emplee como vacuna contra Brucelosis y Rabia en especies animales.

Metodología y resultados Purificación del plásmido vacunal antirrábico. El plásmido pBBR4CMV-Ggp-SV40+ se purificó a partir de un cultivo continuo de la cepa E. coli TOP 10 crecida en Caldo Soya Tripticaseína – ampicilina (CST-Amp) y se obtuvo en una concentración de 2.85 µg/µl.

126

Revista Científica

Cepas bacterianas. Se emplearon las cepas vacunales de Brucella abortus S19, Brucella abortus RB51, Brucella canis virB10. Todas las cepas se cultivaron en Caldo Soya Tripticaseína (CST)/37 oC/ 200 rpm, o Agar Soya Tripticaseína (AST) según los requerimientos de trabajo. Después de la transformación, las cepas de Brucella portadoras del plásmido se propagaron en AST o CST conteniendo ampicilina (100 mg/ml). Transformación de cepas vacunales Todas las cepa se transformaron por electroporación empleando 3 μg del plásmido pBBR4-CMV-GgpSV40+ puro; para ello, se prepararon células electrocompetentes de cada cepa y se procesaron en el electroporador, aplicando un pulso de 2.5 Kv. Las colonias ampr se recuperaron en AST-Amp para su posterior identificación (Figura 2).

Figura 2. Recuperación de cepas atenuadas transformadas con el plásmido vacunal antirrábico pBBR4-CMV-Ggp-SV40+ en AST-Amp. Identificación de cepas portadoras del plásmido vacunal antirrábico. Colonias candidato de las cepas transformantes portadoras del plásmido se identificaron mediante Reacción en cadena de la Polimerasa (PCR, por sus siglas en Inglés) empleando los iniciadores Gli1 y Gli2 específicos para amplificar un fragmento de 736 pb del gen de la gpG. La secuencia de los iniciadores fue: sentido 5’-ACACAATCCGTACCCTGACT-3’ y antisentido 5’-CCCGTTTACATGAGGATGAC-3’, aplicando el siguiente protocolo de amplificación: desnaturalización inicial a 96°C por 1min, 30 ciclos de desnaturalización a 95°C por 30 seg, alineamiento a 64°C por 45 seg, extensión a 72°C por 1 min, con una incubación final a 72°C por 10 min. Los productos de amplificación se visualizaron mediante electroforesis en gel de agarosa (EGA) al 1%, las condiciones de corrimiento fueron 80 V/ 1 h (Figura 3), como control positivo de identificación del plásmido se usó la cepa de E. coli TOP-10 y como control negativo las cepas vacunales sin transformación. La PCR certificó las cepas vacunales exitosamente transformadas que se mantuvieron en congelación en CST con glicerol al 10% a -70oC.


antigénica del virus rábico, la glicoproteína G, que es capaz de inducir por sí sola la producción de anticuerpos neutralizantes suficientes para resolver la infección contra el virus completo; para favorecer la expresión del gen en la célula, el plásmido contiene el promotor CMV, así la proteína puede ser producida por la célula del huésped una vez que el plásmido sea entregado por la bacteria. Brucella es un género que por naturaleza no contiene plásmidos; por ello, el plásmido que se construyó contiene un origen de replicación para mantenerlo establemente en las cepas de Brucella. Las cepas vacunales se transformaron por el método de electroporación con el plásmido purificado y se seleccionaron en medio sólido, conteniendo como antibiótico ampicilina, dado que el plásmido contiene el gen de resistencia ampr. Figura 3. Identificación de cepas vacunales transformadas con el plásmido pBBR4 – CMV – gpG – SV40+. El fragmento de 736 pb corresponde al gen gpG codificado en el plásmido. Carriles: 1; marcador de ADN, 2; E.coli TOP-10 pBBR4 – CMV – gpG – SV40+ como control positivo, 3 y 4; Brucella canis virB10 transformada y sin transformar respectivamente, 5 y 6; Brucella abortus S19 transformada y sin transformar, respectivamente, 7 y 8 Brucella abortus RB51 transformada y sin transformar, respectivamente.

Después de la transformación, se seleccionaron candidatos de cada cepa vacunal y se procedió a la identificación mediante una reacción de PCR empleando iniciadores de alta especificidad, complementarios a una región antigénica de la gpG. La PCR también se aplicó a las cepas vacunales sin transformar; para certificar la transformación, los amplicones de la glicoproteína se visualizaron en EGA, las cepas portadoras del plásmido fueron positivas al amplicón mientras que las cepas sin transformar resultaron negativas. La técnica se validó utilizando la cepa de E. coli TOP10, que sirvió para purificar el plásmido. Las cepas transformadas se denominaron Brucella abortus RB51 pBBR4-CMV-Ggp-SV40+, Brucella abortus S19 pBBR4-CMV-GgpSV40+ y B. canis virB10 pBBR4-CMV-Ggp-SV40+.

Discusión La vacunación con ADN corresponde a las vacunas denominadas de quinta generación y consisten en plásmidos que codifican para proteínas antigénicas; este tipo de vacunas ofrece la ventaja de que no hay exposición a los agentes patógenos, ya que se manejan únicamente secuencias genéticas. El ADN debe hacerse llegar a las células de un receptor animal o humano y para ello se cuenta con diversas opciones, una de las cuales es emplear cepas atenuadas de bacterias intracelulares; así, después que la bacteria es captada por las células del hospedero, es destruida y libera el plásmido en el interior. Por esta razón, se planteó generar cepas atenuadas de Brucella portadoras de un plásmido vacunal antirrábico, que se logró empleando el plásmido pBBR4-CMV-Ggp-SV40+ para transformar las cepas vacunales Brucella abortus S19, Brucella abortus RB51, que se utilizan para proteger contra BB y también a la cepa Brucella canis virB10 para la inmunización de perros. El plásmido pBBR4-CMV-Ggp-SV40+ contiene el gen de la proteína más

Conclusiones

+

Se logró generar cepas atenuadas de Brucella portadoras de un plásmido vacunal antirrábico.

+

Estas cepas deben ser evaluadas como vectores del plásmido en ensayos in vitro y representan un producto con potencial uso como vacuna bivalente para proteger a bovinos y perros, simultáneamente, contra Brucelosis y Rabia.

Revista Científica

127


Glosario

Bibliografía

ADN: Ácido desoxirribonucleico. AMP: Ampicilina. ampr: gen de resistencia a ampicilina. AST: Agar soya Tripticaseina. AST – amp: Agar soya Tripticaseina- ampicilina. BB: Brucelosis bovina. °C: Grado Celsius. CMV: Promotor de Citomegalovirus. CST: caldo soya Tripticaseina. EGA: Electroforesis en gel de agarosa. gpG: Glicoproteína G. h: hora. min: minutos. pb: pares de bases. PCR: Reacción en cadena de la Polimerasa. rpm: revoluciones por minuto. seg: segundos. SV40: Promotor del virus 40 de simio. V: volts.

+

Aguilar-Setién, Álvaro; Tesoro-Cruz, Emiliano; Salas-Rojas, Mónica; Alonso-Morales, Rogelio, y Blanco-Favela, Francisco. (2008). Las vacunas génicas (ADN): ¿Pueden sustituir a las convencionales para el control de la rabia? Bioquimia, Vol. 33, No. 4, pp. 147-154.

+

Alton, G.G.; Jones, L.M.; Angus, R.D. y Verger, J.M.; (1988). Techniques for the brucellosis laboratory. INRA, Paris.

+

Calderón Chamorro, José Luis (2011). Construcción del plásmido pBBR4/Clgp-G, para la transformación de la cepa Brucella abortus S19. Tesis de licenciatura, BUAP, Puebla, México pp. 69.

+

Gurunathan, S.; Klinman, D.M. y Seder, R.A. (2000). DNA VACCINES: Immunology, Application, and Optimization. Annu. Rev. Immunol, Vol., 18, pp. 927-974.

+

Perrin, P.; Jacob, Y.; Aguilar-Setién, A.; Loza-Rubio, E.; Jallet, C.; Desmézieres, E.; Aubert, M.; Cliquet, F. y Tordo, N. (2000). Immunization of dogs with a DNA vaccine induces protection against rabies virus. Vaccine Vol., 18, pp. 479-486.

+

Rupprecht, C.E. y Plotkin, S.A. Rabies vaccines. Plotkin SA, Orenstein WA, Offit PA (Eds). (2013). Vaccines. Elsevier Saunders, pp. 646-668.

+

Sizemore, D.; Branstrom, A.A. y Sadoff, J.C. (1995). Attenuated Shigella as a DNA delivery vehicle for DNA-mediated immunization. Science Vol. 270, pp. 299–302.

128

Revista Científica


5

Revista CientĂ­fica

129


EVALUACIÓN DEL CONOCIMIENTO SOBRE EL MANEJO DE LOS

RESIDUOS PELIGROSOS BIOLÓGICO-INFECCIOSOS EN ENFERMERÍA DEL HOSPITAL GENERAL

Ma. De los Ángeles GarcíaVázquez1, Laura Sampedro Rosas2 y Ana Laura Juárez López3

Unidad de Ciencias de Desarrollo Regional, Universidad Autónoma de Guerrero. Calle Pino, s/n, Col. El Roble. Acapulco, Guerrero. México, C.P. 39640. 1,2,3

mangarciv@yahoo.com.mx

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Enero 9, 2017. Aceptado: Mayo 25, 2017.

130

Revista Científica

Resumen: El conocimiento sobre el manejo de los residuos peligrosos es indispensable en las unidades médicas de nivel II y III, por lo que el objetivo de la investigación fue evaluar el conocimiento sobre el manejo de los residuos peligrosos biológicos-infecciosos en enfermería del Hospital General. Se realizó un estudio cuantitativo, descriptivo, observacional y transversal. La población objetivo fue todo el personal de enfermería, realizándose un muestreo aleatorio simple, donde el tamaño de la población fue de 400 enfermeros, con un nivel de confianza del 95%, y el error de muestreo de 0.03, el tamaño de muestra requerido fue de n ≥ 291.14. En la presente investigación se encontró que el nivel de conocimiento es estadísticamente igual entre hombres y mujeres, esto demuestra que el género no influye en el conocimiento del manejo de los RPBI´s. El nivel de conocimiento sobre el manejo del RPBI´s es apenas aprobatoria con una calificación promedio de 6.63.

+

Palabras clave: Evaluación del conocimiento, residuos peligrosos biológico-infecciosos, hospital y prueba t de Student.


Abstract: Knowledge about the handle of toxic waste is something really important that medical centers of level I and II must consider in order to avoid risks and work accidents to all the members of the health sector. A transvertional, observational, descriptive and cuantitative research was made. The objective simple was all the personal who work in the services of emergency, operating and personal of general services of the General Hospital. A simple aleatory simple took place, the size of the population was 400 nurses with a confidence level of 95% and the error of the simple of 0.03. The sample size required was 291.14. The observable results were that the nurses that know the mexican oficial standard, got a higher grade about the handle of toxic waste over those who do not know it.Finally, the global grade that the nurse personal of the General Hospital got was 6.63 which indicate that they do not have a good level of knowledge about toxic waste handle.

+ Keywords: Evaluation of the knowledge, biological and infectious toxic waste, hospital and Student t test.

Introducción El conocimiento sobre el manejo de los residuos peligrosos es indispensable en las unidades médicas de nivel II y III. Es necesario propiciar condiciones de salud y seguridad en que labora, con la finalidad de evitar riesgos y accidentes de trabajo a los empleados del sector salud. Los RPBI’s son aquellos materiales generados durante los servicios de atención médica que contienen agentes biológico-infecciosos de acuerdo a la NOM-087-SEMARNAT-SSA1 (2002) y que puedan causar efectos nocivos a la salud y al ambiente. Esta norma también señala las responsabilidades que debe asumir el personal que genera directamente estos residuos, como el personal médico, paramédico, de enfermería, investigadores, químico, técnico y de servicios generales, realizadas en las diferentes etapas de manejo interno, tales como: identificación, separación, envasado y almacenamiento; y para el manejo externo: la recolección, tratamiento y destino final. En el país existen muy pocos estudios que reportan el manejo de residuos peligrosos y su relación con los efectos sobre la salud en poblaciones expuestas. Los estudios existentes a nivel nacional concluyen que en México los residuos peligrosos son manejados inadecuadamente, proponiendo una mayor participación de la Secretaría de Salud a este problema (Greenberg, Daniels, Flanders, Eley y Boring, 2002). Cruz (2012) investigó el manejo de los RPBI’s por cirujanos dentistas de Poza Rica, Veracruz, y encontró que la mitad de cirujanos no conoce la norma, el 60% no separan los residuos y el 70% conocen los códigos de colores. El 60% de los encuestados contestaron correctamente que el porcentaje máximo de llenado de las bolsas de los RPBI’s es el 80%. Montaño (2006) en su investigación encontró que el 75% manejan el programa de control de infecciones y el 56.70% conocen la NOM-087ECOL (2002). Utilizando la prueba t de Student encontró que el sexo no influye en la generación de residuos peligrosos biológico infeccioso. Pérez-Campos (2012) mencionó que el 43% de los enfermeros conocen la norma. Lugo, Alzúa, Fabián, Cuevas y Narváez (2014) encontraron que el 39% de enfermeros conocen lo suficiente la norma del manejo

de los RPBI’s y el 43% tuvieron un moderado conocimiento. La capacidad de manejo adecuado de los residuos peligrosos en México es sumamente limitada. Solo una muy pequeña proporción del total generado es transportado, tratado y dispuesto de acuerdo a la normatividad ambiental. Algunas de las razones por el cual no se les da un manejo adecuado son: la falta de adaptación a la norma, altos costos en el manejo de los residuos peligrosos, mercado poco desarrollado, falta de capacitación, inspección y vigilancia insuficientes por las autoridades correspondientes (Ruiz, Fernández y Rodríguez, 2001). Se ha observado un manejo inadecuado de los RPBI’s, lo cual representa un riesgo ambiental para la salud del personal multidisciplinario del Hospital General que labora en el ámbito hospitalario y que está en contacto con estos. De ahí la importancia de medir el conocimiento sobre el manejo de los RPBI establecido por la NOM-087-SEMARNATSSA1 (2002), por lo que el objetivo fue evaluar el conocimiento sobre el manejo de los residuos peligrosos biológicos-infecciosos en enfermeros y enfermeras del Hospital General.

Metodología Se realizó un estudio cuantitativo, descriptivo, observacional y transversal. La población objetivo fue todo el personal de enfermería que labora en los servicios de urgencias, quirófano y servicios especializados del Hospital General. Debido a que una de las variables de interés fue el conocimiento de la NOM-087-SEMARNAT (2002), en el manejo de los RPBI´s, con respuesta dicotómica, se realizó un muestreo aleatorio simple, la fórmula utilizada fue: (1)

Donde N es el tamaño de la población, p es la probabilidad de éxito, B el error de muestreo, Z el nivel de confianza al y n es tamaño de la muestra. Sustituyendo los valores en la Ecuación (1), se tiene que: (2)

Donde N = 400, p = 0.5, B = 0.029, el nivel de confianza al 95% (Z = 1.96), por tanto el tamaño de muestra requerido fue de n ≥ 291.14. De una lista se tomaron aleatoriamente a enfermeros y enfermeras, localizados en los tres turnos. Se les aplicó un cuestionario con 21 preguntas, donde se evaluó el conocimiento sobre los residuos peligrosos biológico-infecciosos utilizando un cuestionario tipo examen, en el cual de las opciones de respuesta, solo una es la correcta, otorgando una calificación a cada examen. Por ejemplo: El material punzocortante o de vidrio que haya estado en contacto con humanos o animales o sus muestras biológicas durante el diagnóstico y tratamiento, jeringas con sangre y con aguja, se deberán separar y envasar en:

Revista Científica

131


a) La bolsa roja. b) La bolsa amarilla. c) Contenedor de punzocortantes. d) La bolsa transparente.

Tabla 1. Evaluación del conocimiento por género.

¿Cuál es el porcentaje máximo que debe contener una bolsa o recipientes de residuos peligrosos biológico infeccioso? a) 80%

b) 100%

c) 50%

Comparando las diferencias de promedios sobre su calificación, se observó que la diferencia no es significativa al nivel de significación 0.05, es decir, la calificación que obtuvieron los enfermeros sobre el manejo de los RPBI´s es estadísticamente igual a las enfermeras (Tabla 2).

La evaluación se realizó contando la cantidad de aciertos, dividido entre la cantidad de preguntas y multiplicado por 10, es decir: (3) Donde las xi representan las respuestas correctas y n es la cantidad de preguntas en el cuestionario. Si un enfermero obtuviera 15 aciertos, su calificación sería: (4) Tabla 2. Prueba t en la evaluación del conocimiento por género. Debido a que el conocimiento fue evaluado mediante una calificación y esta es una variable continua, para el análisis de datos se realizó mediante la t de Student, donde la hipótesis de esta prueba es: (5)

En la Tabla 3 se observa la calificación promedio sobre el manejo de los RPBI´s obtenido entre los que conocen y no a la norma oficial mexicana NOM-087-SEMARNAT (2002), donde los enfermeros que conocen la norma oficial mexicana obtuvieron una mayor calificación sobre el manejo del RPBI´s que aquellos que no lo conocen, siendo una calificación apenas aprobatoria.

El estadístico de prueba para exámenes de hipótesis acerca de μ1 y μ2 con σ1 y σ2 desconocidas, se realiza mediante la t de Student para muestra independientes, donde el estadístico es:

(6)

Los grados de libertad de la distribución t de Student se obtienen mediante:

(7)

Tabla 3. Evaluación del conocimiento de la NOM-087-SEMARNAT (2002) en el manejo del RPBI´s. La Tabla 4 muestra que la diferencia de la calificación obtenida en el examen de conocimiento, entre el personal de enfermería que conocen y no conocen la norma oficial mexicana, es significativa al nivel de significancia 0.05, es decir; conocer la norma oficial mexicana influye sobre la calificación del manejo de los residuos peligrosos biológico-infecciosos.

Se rechaza la hipótesis nula H0 si: (8)

Resultados En la Tabla 1 se observa una mayor calificación en enfermeros que en las enfermeras del Hospital General de Acapulco, ambos géneros obtuvieron una calificación apenas aprobatorio sobre el manejo de los residuos peligrosos biológico-infecciosos. 132

Revista Científica

Tabla 4. Prueba t en la evaluación del conocimiento de la norma.


La calificación promedio sobre el manejo de los RPBI´s en general fue apenas aprobatoria de 6.63, esto demuestra que el personal de enfermería que trabaja en el Hospital General de Acapulco no conoce en su totalidad el manejo de los residuos peligrosos biológico-infecciosos, tal como se muestra en la Tabla 5.

Tabla 5. Calificación genera del manejo de los RPBI´s del personal de enfermería.

Bibliografía Conclusiones En la presente investigación se encontró en el personal de enfermería del Hospital General, la evaluación sobre el manejo de los RPBI´s es apenas aprobatoria (6.63). También se encontró que el nivel de conocimiento es estadísticamente igual entre hombres y mujeres, esto demuestra que el género no influye en el conocimiento del manejo de los RPBI’s; al igual que Montaño (2006), encontró que el género no influyó en la generación de residuos peligrosos biológicos infecciosos, por lo que se llega a las mismas conclusiones. Mediante el estadístico de prueba t de Student para muestras independientes, se observó una diferencia significativa en la evaluación del manejo de los RPBI´s entre el personal de enfermería que conocen la norma y los que no la conocen, adquiriendo una mejor calificación aquellos que conocen la norma. Esto demuestra lo indispensable que es conocer la norma NOM-087-SEMARNAT-SSA (2002) para tener un mayor manejo de los RPBI’s, para evitar riesgos y accidentes de trabajo a empleados. Estos resultados son similares a los reportados por Pérez-Campos (2012) quienes encontraron que el personal de enfermería del sector salud de la delegación Tlalnepantla, México, el 43% conocen la norma, siendo la mayoría los que desconocen, poniendo en peligro al personal de dicha institución. La calificación general obtenida, mediante este estudio, del personal de enfermería del Hospital General fue de 6.63, lo cual indica que el conocimiento sobre el manejo adecuado de los RPBI´s es apenas aprobatorio. Por lo que se confirma que en México son manejados inadecuadamente los RPBI´s tal como lo plantea Greenberg, Daniels, Flanders, Eley y Boring (2002). Con base en lo anterior, se concluye que se cumplió el objetivo de evaluar el conocimiento sobre el manejo de los RPBI´s en el personal de enfermería del Hospital General, donde la calificación obtenida fue apenas aprobatoria de 6.63.

+

Anderson, D. R.; Sweeney, D. J. y Williams, T. A. (2008). Estadística para Administración y Economía (10a. edición ed.). D.F., México: Cengage Learning Editores, S.A. de C.V.ISBN # 0-324-36068-1.

+

Cruz, A. D. (2012). Conocimiento del Manejo de los RPBI de los Cirujanos Dentistas de la Zona centro de Poza Rica, Veracruz. Tesis . Poza Rica, Veracruz, México: Universidad Veracruzana.

+

Greenberg, R. S.; Daniels, S. R.; Flanders, W. D.; Eley, J. W. y Boring, J. R. (2002). Epidemiología médica. El manual moderno , p. 75-79.

+

Lugo, G.; Alzúa, V. H.; Fabián, A.; Cuevas, B. L. y Narváez, H. (2014). Manejo de residuos peligrosos biológico-infecciosos por el personal de enfermería del Hospital General de Iguala Guerrero. 3° Congreso Virtual sobre Tecnología, Educación y Sociedad . México: CTES2014.

+

Montaño, M. D. (2006). Manejo de los residuos biológicos infecciosos sólidos, generados por alumnos de la UABC y dentistas ubicados en la zona centro de la ciudad de Mexicali. Tesis . Granada, Mexicali, México: Universidad de Granada.

+

NOM-087-SEMARNAT-SSA1 (2002). Guía de cumplimiento de la norma oficial mexicana. México.

+

Pérez-Campos, Y. A. (2012). Riesgos a la Salud en Trabajadores del Servicio de Urgencias por Manipulación de Residuos Peligrosos Biológico-Infeccioso. D.F., México.

+

Ruiz, G.; Fernández, J. M. y Rodríguez, R. (2001). Residuos peligrosos: grave riesgo ambiental. Avance y Perspectiva vol. 20 , 151-158.

+

Scheafer, R. L.; Mendenhall, W. y Ott, L. (1987). Elementos de musetreo. D.F., México: Iberoamérica S.A. de C.V.

+

NOM-087-ECOL (2002). Protección ambiental - Salud ambiental - Residuos peligrosos biológicos - infecciosos - Clasificación y especificaciones de manejo.

Revista Científica

133


CALIDAD EN EL

SERVICIO DEL COMEDOR DE UN HOSPITAL PÚBLICO MEDIDA A TRAVÉS DEL

MODELO DINESERV

Francisco Iván Hernández Cuevas1, Norma Aracely Collí Poot2, Fredi Israel Mex Arriaga3 y Carlos Antonio Moo Novelo4

Universidad Tecnológica Metropolitana, Calle 115 (Circuito Colonias Sur), No. 404 por Calle 50, Santa Rosa, Mérida, Yucatán, México, C.P. 97279. 1,2,3,4

ivanhdz@outlook.com

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Marzo 14, 2017. Aceptado: Mayo 22, 2017.

Resumen: El presente trabajo tiene como objetivo medir la calidad en el servicio otorgada por el comedor de un hospital público de la ciudad de Mérida, Yucatán, a través del modelo DINESERV de Stevens, Knutson y Patton (1995). Por lo tanto, el estudio es de enfoque cuantitativo descriptivo y de corte transversal, en donde fueron entrevistados 109 comensales. Los resultados muestran un nivel de indiferencia por parte de los comensales ante el servicio otorgado por el comedor, siendo la dimensión “calidad de la comida”, la que menor puntuación tuvo, con 2.86 puntos, y la dimensión de “fiabilidad” la que mayor puntuación tuvo, con 3.35 puntos.

+

Palabras clave: Calidad en el servicio, DINESERV y servicio hospitalario.

Abstract: The present work aims to measure the quality of the service provided by the dining room of a public hospital in the city of Merida, Yucatan through the DINESERV model of Stevens, Knutson & Patton (1995). Therefore, the study is a quantitative descriptive and cross-sectional approach in which 109 commensals were interviewed. The results show a level of indifference on the part of the diners before the service provided by the dining room, being the dimension “quality of food”, the lowest score had 2.86 points and the dimension of “reliability” the highest score had with 3.35 points.

+ Keywords: Service Quality, DINESERV and hospital service. 134

Revista Científica


Introducción El sector servicios en los últimos años ha sufrido un crecimiento en el aporte de recursos en las economías de todos los países; con este crecimiento, han aumentado el número de empresas que incorporan herramientas de gestión de la calidad buscando una visión orientada a la satisfacción de los clientes y, de esta forma, diferenciarse de las demás en el mercado (Gadotti, Dos Anjos y França de Abreu, 2009). En este sentido, las empresas se han encontrado en la necesidad de demostrar, en todos los países en los que operan, que sus productos y servicios cumplen exigencias de calidad que pueden ser admitidas en cualquier parte del mundo (Miranda González, Chamorro Mera y Rubio Lacoba, 2007). Ahora bien, en el subsector de salud han existido diversos esfuerzos por parte de los organismos privados y públicos (gobierno) para llevar sus servicios a altos índices de calidad, muchos de ellos centrados en mejorar los procesos internos, el clima laboral y las instalaciones, pero pocos de ellos se centran en la calidad en el servicio que proporcionan. La necesidad de mejora continua y las nuevas demandas de los usuarios han obligado a las empresas del sector público a certificarse a través de organismos normativos que garanticen la estandarización de sus procesos, con base en esto, les permitan ofrecer una mayor calidad en el servicio y por consiguiente, una mayor satisfacción con sus usuarios.

Planteamiento del problema En la actualidad, en una economía globalizada y competitiva, los consumidores son cada vez más exigentes, más conocedores y menos fieles, por tal motivo, la atención al cliente se ha convertido en un foco de interés para cualquier negocio o empresa que pretenda competir en el mercado y tener una base sólida de usuarios (Peñaloza de García, 2004), lo cual genera un mecanismo de presión en las empresas en tres aspectos generales: el servicio, en donde la empresa orienta al cliente como objetivo integral y prioritario dirigido a obtener su satisfacción y permanecer en el mercado; las relaciones, que tienen como objetivo conseguir la fidelización de los clientes, y el valor añadido, el cual diferenciará a la empresa de los competidores, generando una preferencia hacia estas (Paz Couso, 2005). En este orden de ideas, uno de los sectores más competitivos en esta índole es el de alimentos y bebidas, en donde hoy en día existe una gran diversidad de establecimientos que ofrecen este tipo de servicio creados bajo normas y procedimientos que tienen como fin proporcionar comodidad y buen servicio para las personas que hacen uso de ellas. No obstante, los servicios de comedor dirigidos específicamente para el área clínica tienen una función adicional a un establecimiento de alimentos y bebidas tradicional como un restaurante, ya que se responsabilizan en brindar alimentos a los pacientes que ingresan al hospital, en donde las dietas se adecuan a la patología de cada paciente, de tal forma que los alimentos ofrecidos ayuden al mejoramiento y rápida recuperación de este, y por otra parte, se brinda alimentación al personal encargado de prestar sus servicios en el hospital. En este sentido, el comedor de un sanatorio distingue entre dos tipos de clientes esencialmente, el paciente y los trabajadores (médicos, enfermeros, internos, personal administrativo) que laboran en la institución, por lo tanto, los trabajadores fungen

como el cliente externo hacia el cual se centra el presente documento, los cuales plantean nuevas demandas frente a las administraciones, lo cual ha provocado una redefinición de la organización pública prestataria de servicios y, en específico, de las técnicas organizativas, medios y procedimientos, por medio de los cuales ha de concretarse su actividad de servicio público. Muchas de las organizaciones públicas, ya sean hospitales, escuelas, oficinas de gobierno, secretaría, entre otra más, han decido centrarse en la incorporación de la certificación a través de organismos de normalización, para que, de esta forma, se pueda ejercer un control eficaz sobre los procesos y resultados de la organización mediante la normalización de conceptos, de procesos, de indicadores e instrumentos de evaluación. Una de las certificaciones de normalización más utilizadas por las empresas del sector público y privado son las normas ISO 9000, las cuales son una serie de estándares internacionales que especifican las recomendaciones, requerimientos para el diseño y valoración de un sistema de gestión que asegure que los productos satisfagan los requerimientos especificados. Sin embargo, el lograr implementar un sistema ISO dentro de la empresa, no garantiza que la atención y el servicio sea de calidad; por lo tanto, son necesarios instrumentos y metodologías adecuadas para llevar a cabo dicha función y lograr los objetivos de los establecimientos. Teniendo en consideración lo anterior, el objetivo principal del presente trabajo de investigación es probar la confiabilidad del modelo DINESERV para el análisis de la calidad en el servicio en el comedor de un hospital público, así como también determinar el nivel de calidad y satisfacción mediante la percepción de los comensales.

Marco teórico El concepto de calidad en el servicio significa proveer de excelencia al cliente, dar un valor agregado a la satisfacción de su necesidad, centrarse en el recurso humano para que, con motivación y optimismo, se proporcione lo necesario para su satisfacción y lealtad (Aguirre Méndez, Sáenz Martínez y Villarreal Espinoza, 2006). Dentro del análisis de la calidad en el servicio, existen distintas posturas en la forma en cómo medir este concepto; por una parte, Parasuraman, Zeithalm y Berry (1988) argumentan que esta ocurre en la superación de la expectativa por la percepción, es decir, la calidad en el servicio o más bien, la satisfacción del cliente está en función del desempeño percibido y de las expectativas planteadas (Paz Couso, 2005). De tal forma que, si estas se cumplen al usar el bien o el servicio, el cliente se siente satisfecho, en caso contrario, queda insatisfecho (Peñaloza de García, 2004). No obstante, otra corriente muy fuerte se centra específicamente en las percepciones de los usuarios (Cronin y Taylor, 1992), debido a que las personas actúan y reaccionan basándose en sus percepciones, no en la realidad objetiva, de tal motivo que las percepciones de los clientes no es lo que realmente es, sino lo que los consumidores creen que es, lo que influye en sus acciones, hábitos de compra, entre otros elementos más (Schiffman, Kanuk y Wisenblit, 2010); en este sentido, se puede afirmar entonces que las percepciones en la calidad en el servicio son las creencias Revista Científica

135


de los consumidores relativas al servicio recibido (Parasuraman, Zeithalm y Berry, 1988). Indiferentemente de la corriente seguida, existe un común acuerdo sobre las dimensiones que conforman la calidad en el servicio, las cuales fueron planteadas originalmente en el modelo SERVice QUALity de Parasuraman, Zeithalm y Berry (1988):

+

Elementos tangibles. Atributos que se aprecian a través de los sentidos, sean relativos a las instalaciones, a los equipos, al personal o a los materiales de comunicación.

+

Fiabilidad. Capacidad de realizar el servicio prometido de forma exacta y de modo que el cliente pueda confiar en que así sea.

+

Capacidad de respuesta. Disposición para ayudar al cliente y proporcionar un servicio rápido.

+ Seguridad. Competencia y cortesía del personal.
 + Empatía. Preparación, cortesía y profesionalidad de personal y a su capacidad para inspirar la confianza del cliente.

Métodos La presente investigación es de enfoque cuantitativo descriptivo, ya que tiene como principal objetivo identificar el nivel de calidad en el servicio ofrecido por el comedor a través de las dimensiones propuestas por el modelo DINESERV. El estudio es de corte transversal debido a que la recopilación de la información se dio en un solo momento.

Población y muestra Se realizó una entrevista semiestructurada con los jefes de departamento del hospital y los encargados del comedor, para poder estimar la población de usuarios que acuden frecuentemente a utilizar sus servicios, la cual resultó ser de 150 personas al día. Cabe mencionar que el presente estudio se centra específicamente en el comensal que hace funciones de cliente (médico, enfermeros, administrativo) y no de paciente, debido a que estos últimos tienen dietas específicas y tratamientos muy particulares que hicieron complejo incluirlos en el mismo. Teniendo en consideración lo anterior, se utilizó la fórmula para el cálculo de la muestra para poblaciones finitas que Castañeda, De la Torre, Morán y Lara (2004) proporcionan, considerando 5% de error y un 95% de confianza, mismos que son expresados en la Tabla 1:

De acuerdo con Stevens, Knutson y Patton (1995), la calidad en el servicio responde a las percepciones, pues estas resultan de una combinación de expectativas tanto de lo que va a suceder como de lo que debería suceder, y también de la realidad del encuentro con el servicio. Por lo tanto, cuanto menor es la expectativa de lo que debe suceder, mayor es la percepción de lo que sucedió, y cuanto mayor es la expectativa de lo que sucedería, mayor será la percepción de lo que sucedió. Por lo tanto, cuanto mayor es la percepción de calidad de servicio, mayor es la intención de volver y recomendar. En este sentido, la calidad en el servicio refleja la satisfacción del cliente, la cual puede ir desde la insatisfacción extrema, hasta la completa satisfacción (Ibarra Morales y Casas Medina, 2014).

136

Revista Científica

Tabla 1. Valores utilizados para el cálculo de la muestra.

4


El resultado de la fórmula arrojó como muestra un total de 109 personas que acuden al comedor del hospital público.

Instrumento Para la obtención de los datos se adaptó una versión del modelo DINESERV que tiene como base las cinco dimensiones de la calidad en el servicio; no obstante, se decidió agregar una dimensión más que refleje directamente la condición y estado de los alimentos que se ofrecen en el comedor. En total, el instrumento está compuesto seis dimensiones contenidas por 17 preguntas, mismas que son ilustradas en la Tabla 2.

Análisis de la calidad en el servicio El principal objetivo de la presente investigación fue medir la calidad en el servicio otorgada por el comedor de un hospital público de la ciudad de Mérida, Yucatán, a través del modelo DINESERV. Los resultados de la aplicación del modelo se pueden observar en la Tabla 4.

Tabla 4. Promedio general de la calidad por dimensión DINESERV.

Tabla 2. Estructura del instrumento utilizado. Las preguntas fueron medidas a través de una escala Likert de cinco niveles. Se decidió utilizar este tipo escala debido a su practicidad al momento de la respuesta del cuestionario y, por otra parte, simplifica la interpretación del mismo. Los niveles de la escala Likert, así como su equivalente a nivel de satisfacción, son expresados en la Tabla 3.

La Tabla 4 expone la situación actual del comedor del hospital público analizado, registrando calificaciones regulares en cada una de las dimensiones, exceptuando la de “calidad de la comida”, en donde los comensales mostraron estar en desacuerdo con la calidad ofrecida. Como se puede observar en la Tabla 4, las puntuaciones oscilan entre 3.03 y 3.35, siendo la mejor calificada la dimensión de fiabilidad, esta situación expone varias áreas de oportunidad para la institución, centrándose primordialmente en las dimensiones con menor calificación. Para ejemplificar de mejor forma el nivel de satisfacción de los comensales se puede observar la Figura 1, en donde en concordancia con las puntuaciones obtenidas a través del modelo DINESERV, muestran un desempeño intermedio o en términos de satisfacción del cliente como indiferente.

Tabla 3. Niveles y significado de la escala Likert.

Confiabilidad del instrumento Para garantizar la medición del constructo calidad en el servicio en el comedor, se decidió utilizar el procedimiento alpha de Cronbach, el cual analiza la consistencia interna del instrumento. La prueba alpha fue aplicada con el software estadístico STATA 14®, misma que arrojó un resultado global de 0.953, que muestra una alta correlación entre las variables y, por consecuente, una confiabilidad adecuada del instrumento utilizado.

Figura 1. Nivel de satisfacción de los comensales en porcentaje por dimensión.

Análisis de resultados De los 109 entrevistados, 41% resultó ser mujer y el 51% hombre. De estos comensales, el 46% van diario al comedor, el 13% va tres veces a la semana, el 11% una vez a la semana y el 30% dos veces a la semana. Revista Científica

137


Conclusión

blico, así como de sus trabajadores y comensales, quienes brindaron su tiempo y espacio para la realización del presente documento.

El análisis de la calidad en el servicio es un elemento fundamental para el crecimiento y mejora de una organización, en este sentido, el modelo DINESERV mostró ser una herramienta analítica útil que se acopla al comedor de la institución de salud pública en donde fue llevado a cabo. De acuerdo a los resultados obtenidos se puede afirmar que se cumplieron los objetivos planteados en la presente investigación, siendo el primero, probar la confiabilidad del instrumento utilizado, resultando ser 0.953 con la prueba alpha de Cronbach, y por otra parte, se detectó un nivel de satisfacción indiferente, es decir, en donde a los comensales les da prácticamente igual el servicio ofrecido, en donde pudiesen elegir consumir alimentos en el comedor u optar por otra alternativa en los alrededores. La dimensión más baja fue referente a la calidad de la comida, en donde los comensales mostraban su indiferencia hacia los alimentos que no tenían rotación en el menú; la dimensión de empatía fue la penúltima más baja, mostrando mucha indiferencia en la atención y profesionalidad al momento de servir la comida. Por otra parte, los aspectos más positivos que tuvo el comedor analizado estuvieron centrados en las dimensiones de Fiabilidad y Capacidad de Respuesta, mostrando un cumplimiento del servicio prometido y destreza para ayudar al comensal a entregar un servicio rápido y de calidad. Es importante hacer mención de un elemento que jugó un papel importante en el comedor estudiado y que, por ende, pudo afectar los resultados del instrumento aplicado; este fue que la comida ofrecida en el comedor es una prestación del personal, es decir, no tiene un costo para los comensales, factor que pudiese influir en la magnitud de la calificación del servicio ofrecido. El presente documento es una muestra contundente de la utilidad del modelo DINESERV para el análisis interno del comedor del hospital público, convirtiéndose en una herramienta vital para la administración del mismo, la cual busca tener eficiencia en sus procesos a través de la mejora continua y, por ende, un aumento en la percepción de la calidad en el servicio ofrecido. Por último, el trabajo cobra relevancia social al contribuir en la generación de evidencia empírica en el análisis de la calidad en el servicio en el sector público y más en los hospitales públicos, quienes tienen una función vital en la sociedad.

Bibliografía

+

Aguirre Méndez, M.; Sáenz Martínez, B. y Villarruel Espinosa, A. (2006). La Calidad en el Servicio como Estrategia Empresarial. Nivel de la Percepción de la Calidad en el Servicio (p. 36). México D.F.: Instituto Politécnico Nacional.

+

Castañeda Jiménez, J.; De la Torre Lozano, M.; Morán Rodríguez, J. y Lara Ramírez, L. (2005). Metodología de la Investigación. México D.F., México: Mc Graw Hill.

+

Cronin, J. y Taylor, S. (1992) Measuring Service Quality: a reexamination and extension. Journal of Marketing, 53 (3). 55-68.

+

Gadotti Dos Anjos, S. J. y França de Abreu, A. (2009). La medición de la calidad en el servicio: una aplicación en empresas hoteleras. Revista Europea de Dirección y Economía de la empresa, 18 (2), 175-186.

+

Ibarra Morales, L. E. y Casas Medina, E. V. (2014). Aplicación del modelo SERVPERF en los centros de atención Telcel Hermosillo. Una medición de la calidad en el servicio. Revista Contaduría y Administración.

+

Miranda González, F. J.; Chamorro Mera, A. y Rubio Lacoba, S. (2007). Introducción a la Gestión de la Calidad. Madrid, España: Delta Publicaciones Universitarias.

+

Parasuraman, A.; Zeithalm, V. y Berry, L. (1988). SERVQUAL: A Multiple-Item Scale From Measuring Consumer Perceptions of Service Quality. Journal of Retailing:64 (1), 17.

+

Paz Couso, R. (2005). Servicio al cliente. La comunicación y la calidad del servicio en la atención al cliente. Vigo, España: Ideaspropias Editorial.

+

Peñaloza de García, M. (2004). La clave para el éxito empresarial... ¡la satisfacción del cliente! Visión Gerencial, 1 (3), 39-50.

+

Agradecimientos Los autores agradecen enormemente la disposición del hospital pú-

138

Revista Científica

Schiffman, L. G.; Kanuk, L. L. y Wisenblit, J. (2010). Comportamiento del Consumidor (10a Edición ed.). México D.F.: Pearson Educación.

+

Stevens, P.; Knutson, B. y Patton, M. (1995). Dineserv: A Tool for Measuring Service Quality in Restaurants. Cornell Hotel and Restaurant Administration Quarterly, 56-60.


3

Revista CientĂ­fica

139


IMPLEMENTACIÓN DE

ALGORITMO DE APRENDIZAJE AUTOMÁTICO PARA IDENTIFICACIÓN DE TARJETAS ELECTRÓNICAS Édgar Hugo Mayoral Arzaba1, Olga Félix Beltrán2, Jaime Cid Monjaraz3 y Fernando Reyes Cortés4

Facultad de Ciencias de la Electrónica, Benemérita Universidad Autónoma de Puebla, Edif. 1FCE6, C.U., 18 Sur y Avenida San Claudio, Puebla , Puebla, México, C.P. 72570. 1,2,3,4

Edgarhugo130590@hotmail.com

Resumen: El procesamiento de imágenes es un tema en evolución en los últimos años, permite una gran variedad de aplicaciones. En este artículo se describe un algoritmo de aprendizaje automático que es capaz de reconocer de manera inmediata cada tipo de tarjeta electrónica y posteriormente verifica que contiene todos sus componentes electrónicos en la posición correcta. Este proceso depende de la tarjeta electrónica identificada, con la finalidad de poder analizar diferentes tipos de tarjetas sin la necesidad de realizar modificaciones de parámetros o instrucciones en el algoritmo, obteniendo como resultado un proceso automático e inteligente. Para el procesamiento de imágenes se utiliza una cámara web.

+

Palabras clave: Algoritmo de aprendizaje automático, tarjeta electrónica y procesamiento de imágenes.

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Marzo 18, 2017. Aceptado: Mayo 22, 2017.

Abstract: In recent years the image processing is an envolving issue, allows a great variety of applications. This article describes an machine learning algorithm that is able to immediately recognize each different type of electronic board, and verify subsequently that contains all electronic components in the correct position. This process depends on the electronic board identified, in order to be able to analyze different types of board without the need to make modifications of parameters or instructions in the algorithm, getting as result an automatic and intelligent process. For image processing a webcam is used.

+ 140

Revista Científica

Keywords: Machine learning algorithm, electronic board and image processing.


Introducción En el proceso de manufactura de tarjetas electrónicas se emplean bandas transportadoras, sobre estas son colocadas las tarjetas electrónicas y máquinas especializadas denominadas AOI (Automated Optical Inspection), se utilizan para detectar defectos en una Printed Circuit Board (Ziyin y Qi, 2011), Por medio de una cámara de alta definición se realiza de manera automática el escaneo del dispositivo bajo prueba, con el propósito de validar que no posea ningún defecto, como componentes faltantes, componentes mal orientados y componentes soldados de manera incorrecta. Para realizar el proceso de supervisión utilizando una máquina AOI, es necesario contar con los archivos de fabricación y de ensamble de la PCB denominados archivos Gerber´s. Estos contienen información de la posición y orientación de cada componente utilizado sobre la tarjeta electrónica. Es necesario configurar la máquina AOI para cada tarjeta electrónica diferente que se desea supervisar. El costo de elaboración de tarjetas electrónicas resulta ser demasiado elevado. El objetivo es reducir el costo de producción de las tarjetas electrónicas empleando tecnologías actuales y de bajo costo. En los últimos años se han desarrollado una gran cantidad de algoritmos para las máquinas AOI. En el trabajo presentado por Huibin Zhao (2009) se muestra un dispositivo y un algoritmo basado en visión para el reconocimiento de componentes electrónicos en una PCB de densidad media, utilizando el software Labview en conjunto con la herramienta de NI Vision (National Instruments Vision). El sistema consiste en una cámara IEEE1394, una interfaz y una plataforma móvil de dos grados de libertad. Este sistema presenta dos desventajas notables, el uso de una cámara especial y la necesidad de un hardware externo que permita controlar la posición de la cámara.

la tarjeta electrónica. En este trabajo se implementa un sistema de aprendizaje automático en conjunto con el procesamiento digital de imágenes. Se describe un algoritmo que permite identificar diferentes tipos de tarjetas electrónicas de manera automática, posteriormente se realiza el proceso de supervisión de los componentes electrónicos de cada tarjeta, sin la necesidad de modificar algún parámetro en el algoritmo; de esta manera, se evita que la línea de producción se detenga. Una de las principales ventajas de este trabajo es que no requiere de una máquina de inspección AOI para realizar el proceso de supervisión de las tarjetas electrónicas. Se sustituye la máquina de inspección AOI por una cámara web, reduciendo el costo de la infraestructura.

Desarrollo Se implementa una celda robótica que está constituida por una banda transportadora, una cámara web, un sistema de adquisición de datos y las tarjetas electrónicas a supervisar, tal como se muestra en la Figura 1. Las tarjetas electrónicas se colocan sobre la banda transportadora, la cual se encuentra en movimiento con una velocidad constante. Por medio de una cámara web, en conjunto con los algoritmos de aprendizaje automático, se identifica la tarjeta electrónica. Automáticamente se selecciona de una base de datos el archivo Gerber correspondiente a la tarjeta. Posteriormente se realiza el proceso de verificación de los componentes electrónicos de la tarjeta. Las tarjetas que no presenten ningún error son retiradas de la banda transportadora.

Una parte importante de la investigación en el sector de las ciencias computacionales es el desarrollo de nuevas técnicas que permitan realizar el procesamiento de imágenes con una mayor eficacia, por lo que es necesario involucrar otras áreas del conocimiento para obtener mejores resultados. Dada la gran cantidad de información que se obtiene al procesar un conjunto de imágenes, es necesario contar con una herramienta que permita manipular esta cantidad de información y poder obtener los datos más relevantes. El aprendizaje automático tiene como enfoque obtener la información más relevante a partir de una gran cantidad de datos almacenados en una instancia (Berral García, 2016). Se encuentra constituido por una serie de algoritmos computacionales que permiten identificar las características más importantes sin la necesidad de contar con un modelo matemático o una ecuación predeterminada: la obtención de los datos depende de la cantidad de información disponible (Mathworks, 2016). Existe una amplia variedad de aplicaciones donde se implementa este tipo de algoritmo, por ejemplo para la estimación de movimiento de un exoesqueleto asistido (Manan Khan, Khan y Changsoo, 2016), modelado de un brazo robótico por aprendizaje automático (Faruk Alcin, Ferhat y Korkmaz, 2016) y algoritmo de soporte de decisión para el proceso de control de manufactura de circuitos impresos (Rau, Shiang y Huang, 2010). Este último ejemplo realiza la identificación de fallas en las líneas de conducción de la PCB, como por ejemplo la ruptura de una línea de conducción; emplean una máquina AOI para realizar la inspección de

Figura 1. Celda robótica, Laboratorio de Robótica, FCE-BUAP. La implementación del sistema se realizó en el Laboratorio de Robótica en la FCE-BUAP. Este presenta una luminiscencia en el intervalo de 90 lux a 380 lux, no se requirió de una fuente de luz adicional. La resolución de la cámara web es de 320x240 píxeles, se colocó de manera perpendicular con respecto a la banda transportadora, las pruebas realizadas se llevaron a cabo en el intervalo 28 cm a 50 cm de distancia entre la cámara web y la banda transportadora. La separación entre cada tarjeta electrónica es de 12 cm. La banda transportadora es el modelo Variow Flow S de la compañía Rextoh y se utilizó con una velocidad de desplazamiento de 0.4 m/s. En este rango se identifica de manera correcta cada tarjeta electrónica. Para obtener un control de velocidad

Revista Científica

141


sobre la banda transportadora, se realiza la caracterización del motor, para encontrar la frecuencia donde el motor funcione como un sistema lineal y proporcione su máximo torque. En la Figura 2 se muestran las gráficas de la curva de caracterización, donde se observa que con una frecuencia 260 Hz, la respuesta del motor es lineal.

Para implementar el algoritmo de aprendizaje, se adquieren 500 imágenes en diferente posición de cada tarjeta por medio de un video. Aplicando el algoritmo de aprendizaje automático se extraen las 200 características más importantes de cada una de las tarjetas. Una vez obtenida la matriz de información se entrenan diferentes algoritmos, con la finalidad de identificar correctamente cada una de las tarjetas. Se comparan los resultados obtenidos de cada algoritmo entrenado y se implementa el algoritmo que presenta el mayor índice de eficacia. En la Figura 4 se muestran los índices de efectividad de los algoritmos entrenados, entre los cuales se encuentran Complex Tree, Medium Gaussian SVM y Quadratic SVM, entre otros. Cada algoritmo cuenta con un principio de estimación y optimización diferente, una descripción más amplia de este tipo de algoritmos se puede observar en la referencia (Mathworks, 2016).

Figura 2. Respuesta de comportamiento del motor a una frecuencia de 260 Hz.

En esta sección se aborda la identificación de las características críticas de una imagen, utilizando los algoritmos de aprendizaje automático (Berral García, 2016). Utilizando el software Matlab se realiza la identificación de cuatro tarjetas electrónicas de diferente modelo, tal como se muestran en la Figura 3.

Figura 4. Respuesta de comportamiento del motor a una frecuencia de 260 Hz.

Para implementar el algoritmo de búsqueda de componentes físicos dentro de la tarjeta electrónica se realiza un mapeo de la imagen, para realizar la conversión de unidades de medida, es decir, interpretar la imagen en centímetros y no en píxeles. Posteriormente se realiza la búsqueda de cada componente físico dentro de la tarjeta electrónica, empleando para ello los archivos Gerber correspondientes a cada tarjeta.

Figura 3. Tarjeta Arduino Mega, Tarjeta Motum, Tarjeta Controlador y Tarjeta programador.

142

Revista Científica

La implementación del algoritmo de búsqueda se muestra en la Figura 5. Se obtiene una imagen en formato RGB utilizando la cámara web, la imagen es convertida en formato binario. Se realiza la lectura del archivo Gerber para obtener las coordenadas de cada uno de los componentes que integran la tarjeta. Posteriormente se realiza el mapeo y se analiza si existe un componente en la posición deseada.


Figura 6. Identificación de tarjetas utilizando algoritmo de aprendizaje automático. Considerando como referencia la tarjeta electrónica que se muestra en la Figura 7, tomando como referencia los nombres de cada uno de los componentes electrónicos que integran a la tarjeta, se implementa el algoritmo de búsqueda de componentes. Figura 5. Diagrama de flujo de algoritmo de búsqueda de componentes electrónicos. Una vez que se realiza la lectura completa del archivo Gerber, el algoritmo indica la cantidad y el nombre de cada componente faltante, el nombre que se muestra es de acuerdo con la descripción del componente electrónico.

Resultados Las pruebas de reconocimiento de cada una de las tarjetas electrónicas se muestran en la Figura 6. La adquisición de las imágenes es por medio de la cámara web, se muestra un conjunto de gráficas que indican la probabilidad de que la tarjeta identificada sea correcta. Cuando una tarjeta presenta un porcentaje menor a 0.7 es probable que sea una identificación errónea. En la parte superior derecha de la imagen se introduce el nombre de la tarjeta que el algoritmo identifica. Se observa que cada una de las tarjetas electrónicas observadas por medio de la cámara web son identificadas de manera de correcta.

Figura 7. Tarjeta de referencia.

El algoritmo de búsqueda de componentes se basa en la identificación de centroides de los componentes electrónicos dentro de la imagen, aplicando el algoritmo que se describe en la Figura 5. Los resultados obtenidos se observan en la Figura 8. Posteriormente se realiza la lectura del archivo Gerber y se realiza una comparación de los centroides obtenidos y de la lectura del archivo Gerber.

Figura 8. Implementación del algoritmo de búsqueda de centroides en una tarjeta electrónica.

Revista Científica

143


Se desarrolla una interfaz gráfica en Matlab para validar el funcionamiento del algoritmo de búsqueda de componentes electrónicos por medio de una interfaz. En la Figura 9 se muestran dos tarjetas bajo prueba, la Figura 9(a) corresponde a un tarjeta completa, en este caso el algoritmo indica que la tarjeta se encuentra completa, caso contrario a la Figura 9(b), en esta se retiran dos componentes correspondientes al Led3 y Res4, los cuales son identificados por el algoritmo, indicando su ausencia y, por consiguiente, que la tarjeta se encuentra incompleta.

Bibliografía

+

Ziyin, L. y Qi, Y. (2011). System design for PCB defects detection based on AOI technology, International Congress on Image and Signal Processing, 4, 1- 4.

+

Zhao, H.; Cheng, J. y Jin, J. (2009). NI Vision Based Automatic Optical Inspection (AOI) for Surface Mount Devices: Devices and Method, Proceedings of 2009 IEEE International Conference on Applied Superconductivity and Electromagnetic Devices, 25-27.

+

A)

B)

Figura 9. Algoritmo de reconocimiento, a) tarjeta completa y b) tarjeta incompleta.

Conclusiones Se describió un algoritmo de aprendizaje automático capaz de reconocer diferentes tipos de tarjetas electrónicas, así como sus componentes electrónicos. De esta manera se observan que los dos algoritmos desarrollados funcionan de manera correcta. El primer algoritmo cuenta con la capacidad de reconocer de manera automática cualquier tipo de tarjeta electrónica, sin importar el color, posición, ángulo de la cámara para la captura del fotograma y el nivel de luminosidad, solo es necesario entrenar al algoritmo con los objetos que se desean identificar. El trabajo en conjunto de los dos algoritmos tiene la capacidad de realizar la automatización de procesos de manufactura de tarjetas electrónicas, reduciendo el costo de ensamble, costo de producción y costo de equipo especializado; por lo tanto, se genera una nueva aplicación de los algoritmos con sistema de aprendizaje automático.

Berral García, J. (2016). A Quick View on Current Techniques and Machine Learning Algorithms for Big Data Analytics, International Conference on Transparent Optical Networks (ITCON), 18, 1-4.

+

MathWors (2016). Introducing Machine Learning. Disponible en https://www.mathworks.com/tagteam/89703_92991v00_machine_learning_section1_ebook_ v12.pdf?s_tid=solmain_mlr_cta2

+

Manan Khan, A.; Khan, F. y Changsoo, H. (2016). Estimation of Desired Motion Intention using Extreme Learning Machine for Upper Limb Assist Exoskeleton, IEEE International Conference on Advanced Intelligent Mechatronics (AIM), 1-5.

+

Faruk Alcin, O; Ferhat, U. y Korkmaz, D. (2016). Extreme Learning Machine Based Robotic Arm Modeling, International Conference on Methods and Models in Automation and Robotics (MMAR), 21, 1-4.

+

Rau, H.; Wu, C.; Shiang, W. y Huang, P. (2010). A Decision Support System of Statistical Process Control for Printed Circuit Board Manufacturing, International Conference on Machine Learning and Cybernetics, pp 1-5.

+

MathWors (2016). Statistics and Machine Learning Toolbox User´s Guide. Disponible en https://www.mathworks. com/help/pdf_doc/stats/stats.pdf

144

Revista Científica


Revista CientĂ­fica

145


DE AIRES ACONDICIONADOS Y TIMBRE ESCOLAR A TRAVÉS DE UN RELEVADOR PROGRAMABLE ZELIO

Julio César Martínez Gámez1, José Luis Ocampo Casados2, José Genaro González Hernández 3 y Édgar Uxmal Maya Palacios4

Universidad Tecnológica de Altamira, Blvd. de los Ríos, km.3+100 Puerto Industrial Altamira, Altamira, Tamaulipas. C.P. 89608. 1,2,3,4

www.utaltamira.edu.mx jmartinez@utaltamira.edu.mx Recibido: Enero 06, 2017. Recibido en forma revisada: Abril 22, 2017. Aceptado: Junio 21, 2017.

Resumen: La automatización industrial es el uso de sistemas o elementos computarizados y electromecánicos para controlar maquinarias o procesos industriales. El presente artículo muestra cómo se realizó la automatización de ocho aires acondicionados y un timbre escolar en el Departamento de Mecatrónica de la Universidad Tecnológica de Altamira. El aire acondicionado puede crear un ambiente confortable, limpio y saludable, disminuyendo la humedad y los alérgenos. Los tipos de aires acondicionados más utilizados en empresas y escuelas son: Tipo Split, Tipo Chiller y Tipo Paquete. Se explica detalladamente cómo se optó por el uso del relevador inteligente Zelio SR3B261FU por su costo-beneficio, su gran versatilidad para el manejo de temporizadores y registros, bajo precio, salidas independientes de relevador y software gratuito. Otras opciones son los Controladores Lógicos Programables (PLC, por sus siglas en inglés), pero son más costosos. Se presenta cómo se hizo la programación en escalera del sistema de aires acondicionados en intervalos apropiados, de acuerdo a los horarios de clases, incluyendo el arranque automático después de cortes de energía (siempre que se encuentre en el horario de trabajo) y el arranque especial fuera de los horarios especificados. Los principales beneficios son el ahorro de energía, la preservación del medio ambiente y el aumento de la vida útil de los equipos.

+

Palabras clave: Automatización, control, aires acondicionados y ahorro energético. Abstract: The industrial automation is the use of computerized and electromechanical systems or elements to control machines or industrial

146

Revista Científica


processes. This article shows how the automation of eight air conditioning systems was done, and a school bell in the Department of Mechatronics at UT of Altamira. Air conditioning can create a comfortable, clean and healthy environment, reducing the humidity and the allergens. The most used types of air conditioners in enterprises and schools are: Split Type Equipment, Chiller Type, and Package Type. It is explained in detail how the decision was taken to use the intelligent relay Zelio SR3B261FU because of its cost-benefit, its great versatility to handle timers and registers, low price, independent outputs of relay and free software. Other options are the PLC´S, but they are more expensive. It is presented how the ladder programming of the air conditioners was done in appropriate intervals, according to the classes schedules, including the automatic start after the power outages (always within the work schedule) and the special start out of the specified schedules. The main benefits are energy saving, preservation of environment, and increase of the useful life of the equipment.

+ Keywords: Automation, control, air conditioners and energy saving. Introducción En la actualidad, los sistemas de aire acondicionado son una necesidad para la vida moderna, como es el caso de viviendas, oficinas, centros comerciales, restaurantes, escuelas, hospitales, salas de cine, etc. El aire acondicionado puede crear un ambiente confortable, limpio y saludable y hacer frente a problemas de humedad, el polvo y los alérgenos, lo que ayuda a las personas a mejorar su calidad de vida. El aire acondicionado es uno de los grandes avances en la sociedad moderna, lo que permite tener una vida saludable. Las personas que reciben el mayor beneficio al usar el aire acondicionado en términos de salud son: personas con afecciones respiratorias, con alergias a las partículas del aire, como polvo, humo, polen y otros contaminantes y personas que viven en zonas sometidas a una gran cantidad de problemas de calidad del aire, como son las UUTT que están en zonas industriales; personas que viven en ambientes de gran concentración de humedad, por ejemplo en ciudades a nivel del mar, como el caso de Altamira, Tamaulipas. El primer sistema de aire acondicionado moderno fue desarrollado en 1902 por un joven ingeniero eléctrico llamado Willis Haviland Carrier. Este fue diseñado con el objetivo de solucionar los problemas de humedad en la Compañía de Litografía y Publicidad Sackett-Wilhelms en Brooklyn, Nueva York, Estados Unidos. La pasta de papel de la planta, a veces absorbía la humedad del aire caliente del verano, volviendo difícil aplicar las técnicas de tintado en capas propias de la época. La Compañía Carrier trató de que el aire de dentro del edificio soplara a través de tubos refrigerados. Debido a que el aire refrigerado pasaba a través de tubos, no había humedad producida por el aire caliente del verano, por lo que este proceso logró reducir la humedad en la planta y estabilizar el contenido del papel. Reducir la humedad ha sido considerado uno de los efectos secundarios del aire acondicionado, además de ser capaz de reducir la temperatura existente en el edificio o estancia. Gracias a este invento, surgió una nueva tecnología. Willis Haviland Carrier se dio cuenta de que había desarrollado algo con un gran potencial; por esto, no tardaron mucho tiempo en aparecer los sistemas de aire acondicionado en los teatros y tiendas, ayudando a que los meses de veranos tan largos y calurosos se volvieran más llevaderos. Actualmente, el proceso que se utiliza, reduce la temperatura ambiente de la habitación siguiendo un principio científico muy simple, las paredes del hogar son las encargadas de mantener el aire frío dentro y el aire caliente, en su exterior.

Marco teórico

Definición de aire acondicionado El aire acondicionado es un proceso que consiste en un cierto tratamiento del aire de un lugar cerrado, para generar una atmósfera agradable a quienes se encuentran en dicho espacio. Incrementar o reducir la temperatura y el nivel de humedad del aire suelen ser los objetivos más habituales, aunque el proceso también puede implicar una renovación o filtración del aire. En el lenguaje cotidiano, la noción de aire acondicionado también se utiliza para nombrar a los sistemas o equipos que permiten llevar a cabo el mencionado proceso. Por ejemplo: “por favor, enciende el aire acondicionado que me muero de calor en esta habitación”, “tendremos que llamar a un técnico, el aire acondicionado está funcionando mal”, “el próximo verano compraremos un aire acondicionado para el dormitorio, ya que así no se puede dormir”. También, se entiende por aire acondicionado al sistema de refrigeración del aire que se utiliza de modo doméstico o industrial para refrescar los ambientes cuando las temperaturas del entorno son muy altas y calurosas. El aire acondicionado, si bien hace referencia al aire en sí, es un dispositivo que se instala en casas, edificios y demás espacios cerrados con el objetivo de proveer de aire fresco que se renueva permanentemente.

Fundamentos del aire acondicionado Los aires acondicionados utilizan la refrigeración para enfriar el interior de la habitación, teniendo en cuenta una destacada ley física: cuando un líquido se convierte en un gas (mediante un proceso conocido como fase de conversión), absorbe calor. Estos dispositivos se benefician de esta fase de conversión forzando a que determinados componentes químicos se evaporen y condensen una y otra vez en un sistema cerrado de bobinas. Los componentes involucrados son los refrigerantes que cuentan con la capacidad de cambiar a temperaturas relativamente bajas. También contiene ventiladores que mueven el aire caliente que se encuentra en interior hacia las bobinas llenas de refrigerante. De hecho, el aire acondicionado central tiene un sistema entero de conductos, diseñado para canalizar el aire hacia y desde las bobinas de refrigeración. Cuando fluye el aire caliente sobre el frío, las bobinas del evaporador disminuyen la presión, el refrigerante que se encuentra en su interior absorbe el calor a medida que cambia del estado líquido al gaseoso. Para mantener el sistema de frío de manera eficiente, el aire acondicionado tiene que devolver el gas refrigerante a líquido, una y otra vez (Figura 1). Para hacer esto, un compresor empuja el gas a una presión alta, generando un aumento del calor. Todo este calor “extra” generado por la compresión del gas es evacuado fuera de casa con la ayuda de un segundo conjunto de bobinas conocido como bobinas del condensador, y un segundo ventilador. A medida que el gas se enfría, vuelve al estado líquido, y el proceso vuelve a comenzar una y otra vez. Es interesante pensar en ello como si se tratase de un ciclo elegante que nunca tiene fin: el líquido refrigerante, la fase de conversión a gas/ la absorción de calor, la compresión y la fase de transición, volviendo al estado líquido otra vez. Hay dos cosas distintas dentro de un aire acondicionado: el refrigerante y el gas. El refrigerante se encarga de enfriar el interior de la casa, mientras que el gas resultante está siendo comprimido y enfriado por conversión, para ser devuelto al estado líquido otra vez.

Revista Científica

147


Tipos de aires acondicionados A continuación se presentan los diferentes tipos de aires acondicionados que existen en el mercado actual, describiendo sus partes más importantes y su tipo de aplicación.

Figura1. Cómo funciona el aire acondicionado.

Partes del aire acondicionado: El mayor trabajo que un dispositivo de aire acondicionado tiene que hacer es enfriar el aire de dentro de la habitación. Esta no es su única función, también se encarga de monitorear y regular la temperatura del aire a través de un termostato, además cuenta con un filtro que elimina las partículas del aire a partir de su circulación y funciona como deshumidificador.

Equipo tipo Split Un equipo de aire acondicionado tipo Split (Figura 3), está formado por dos unidades: una evaporadora que es instalada dentro del local y otra condensadora que se instala en el exterior del edificio o local a climatizar. Estas dos unidades deben estar conectadas por medio de una línea frigorífica compuestas por dos tubos de cobre y unas mangueras eléctricas que unen los dos equipos. Estas líneas se ocultan tras una canaleta. Se debe tener prevista la conducción del desagüe de los condensados de la unidad interior hacia el exterior del edificio o ambiente a climatizar. Estos condensados son el resultado de la alta capacidad de los equipos para reducir el nivel de humedad del aire, constituyendo un factor decisivo en la calidad del confort. Hay que colocar siempre el tubo de desagüe de condensados de la unidad interior de forma descendente y preparar algún tipo de depósito para recoger el líquido resultante de la condensación, que en épocas de largo funcionamiento, como la estación de verano, puede traducirse en varios litros.

La reducción de la temperatura en el volumen de aire húmedo hace que se libere una parte de su humedad, por eso hay desagües y recipientes cerca o unidos a estos dispositivos, donde pueden descargar el agua que absorben de la humedad del ambiente. No obstante, las partes principales de una máquina de aire acondicionado enfrían y mueven el aire en dos direcciones: hacia dentro y hacia fuera de la estancia: Evaporador. Es otro intercambiador de calor situado en la parte superior, que a través de su superficie ampliada por un sistema de aletas, permite el intercambio entre el fluido refrigerante y el aire ambiente. En este intercambiador el fluido refrigerante pasa a estado vapor. Condensador. Facilita la transferencia de calor. Intercambiador de calor situado a lo largo del calderín (unidad de calefacción auxiliar de una torre de fraccionamiento diseñada para suministrar calor a la porción inferior de la torre con objeto de separar las fracciones más ligeras y retornar a la torre las más pesadas) y a través del cual el fluido refrigerante en forma de vapor cede toda su energía al agua del depósito. A medida que va cediendo, la energía condensa y vuelve a estado líquido. Válvula de expansión. Regula cómo fluye el refrigerante dentro del evaporador. Es el componente del circuito por el que pasa el fluido refrigerante y que por medio de su cambio de sección, supone una reducción brusca de la presión y también un descenso notable de la temperatura. Compresor. Una bomba que presuriza el refrigerante, cuyo trabajo permite el desarrollo del proceso y que requiere de electricidad para su funcionamiento.

+ +

+

+

Figura 3. Aire acondicionado tipo Split.

Figura 2. Partes principales del aire acondicionado.

148

Revista Científica

Ventajas: • Son unidades fáciles de adaptar a cualquier espacio. • Instalación y mantenimiento sencillo. • Se requiere un simple enlace de la unidad exterior a la unidad interior. • Pueden ser manejados por control remoto. • Bajo nivel de ruido. • Consume menos energía que otros equipos. • Hay modelos que facilitan la colocación en distintos lugares.


Desventajas: • Su instalación conlleva hacer una perforación en la pared. • La instalación de la unidad condensadora en el exterior puede generar problemas, si no es considerada dentro del diseño. • Poco estético en el interior y en el exterior, si queda visible. • Es difícil de colocar en determinados sitios, como paredes prefabricadas. • El aparato debe ser instalado de modo que el ruido o el aire caliente procedente de la unidad condensadora no cause molestias a los colindantes. • Si el equipo condensador se ubica a una distancia mayor a cinco metros, implicará material y costo adicional para hacer la conexión con la unidad evaporadora.

Mantenimiento: El mantenimiento del aire acondicionado tipo Split consiste en limpiar el serpentín y filtro de aire que se encuentra en la unidad evaporadora, por lo menos una vez al mes, ya que de esta forma se impedirá que el aire se vicie y que sustancias contaminantes y polvos circulen por el ambiente. La parte externa debe limpiarse superficialmente para evitar la acumulación de polvo; de igual manera se hace con la unidad condensadora, se lava quitando el exceso de polvo y grasa pegada, sin que las partes eléctricas sean mojadas. En algunos casos, los equipos de aire acondicionado tipo Split ocasionan ruido de las rejillas al producir el movimiento ondulado del aire, esto se soluciona aplicando grasa o aceite en espray. Requisitos eléctricos: La energía requerida para el correcto funcionamiento del sistema de aire acondicionado tipo Split es de 220 voltios. Equipo tipo Chiller Es un equipo de descarga indirecta, ya que el aire se distribuye a los diferentes espacios por medio de ductos. Se compone por un sistema central que se encarga de enfriar un fluido, generalmente agua, el cual se distribuye a los diferentes equipos de enfriamiento ubicados en las áreas que requieren de climatización. El agua helada pasa desde la unidad exterior a través de tuberías (PVC, cobre o acero) hacia las unidades manejadoras de aire o unidades denominadas fan coils, que son las que se encargan de distribuir el aire acondicionado hacia los ductos. El principio de funcionamiento de una unidad tipo Chiller (Figura 4) es que utiliza el agua para el cambio de estado lo que se podría definir como una unidad agua-aire. El agua se hace circular de manera forzada sobre un intercambiador de temperatura, en el cual se realiza el cambio de estado utilizando el factor agua y no el factor aire para este. El agua sale del intercambiador circula por el circuito hidráulico a cada una de las unidades manejadoras de aire o fan coils, las cuales se encargan de distribuir el aire refrigerado a una cierta temperatura, modificando así la temperatura ambiente, y luego el agua regresa de nuevo al intercambiador para bajar su temperatura, repitiéndose el ciclo de refrigeración para nuevamente ser distribuido. El condensador y evaporador pueden estar juntos en el mismo aparato, en cuyo caso el enfriamiento es por aire o separados, el cual debe disponer de una torre de enfriamiento de agua con un circuito secundario de enfriamiento del condensador; esta es más eficiente, pero requiere de mucho espacio y especial cuidado con el tratamiento del agua. Los principales

dispositivos y controles de un Chiller son: + Termostatos. + Presostatos de baja presión. + Presostato de alta presión. + Filtro deshidratador de succión. + Filtro deshidratador de líquido. + Indicador de líquido o cristal mirilla.

Figura 4. Aire acondicionado tipo Chiller. Equipo tipo paquete Estos aires acondicionados tipo paquete (Figura 5) son de tipo central, donde sus unidades están auto contenidas, es decir, el condensador y el evaporador se encuentran en el mismo sistema y el aire se distribuye a los distintos espacios a través de ductos. Es utilizado en edificios de gran tamaño, por ejemplo: bancos, oficinas, restaurantes y centros deportivos, entre otros. Estos equipos se instalan en el exterior, generalmente en las losas de los techos; las dimensiones de estas unidades varían de acuerdo a la capacidad.

Figura 5. Equipo tipo paquete.

Ventajas: • Bajo nivel sonoro. • Las dos unidades (condensadora y evaporadora) están acopladas en una sola.

Revista Científica

149


Desventajas: • No pueden trabajar en un rango donde se exige un índice muy bajo de temperatura. • Instalación especializada. • Puede tener gran tamaño y peso. • Requerimiento de espacios en el entretecho para la instalación de ductos. Formas de operar: Su configuración usual (Figura 6) es la de una caja rectangular con conexiones de suministro y retorno en el frente, y tomas para succión y descarga del aire de condensación en los laterales y en la parte de atrás. El aire de retorno es succionado a través del evaporador por un ventilador centrífugo, que a su vez lo descarga como aire de suministro por el frente. Una bandeja de condensado, debajo del evaporador, recoge toda la humedad y está conectada a un drenaje. El compartimiento del evaporador consta de paredes para evitar pérdida y condensación en la lámina exterior, el filtro está generalmente localizado en el ducto de retorno. Separando el compartimiento del evaporador de la condensación, hay una pared que sirve de aislamiento para la mínima transmisión de calor y ruido del aire acondicionado. El aire de retorno pasa a través del filtro y luego por el evaporador donde es enfriado y deshumidificado. El aire, al pasar por el serpentín, será enfriado y luego será distribuido al espacio a acondicionar.

Figura 6. Forma de operación de equipo tipo paquete. Instalación: Se deben instalar sobre bases de concreto de altura de 10 centímetros o base metálica en el exterior. Cuando es instalada a nivel de piso, esta plataforma no debe estar en contacto con ninguna pared y cimentaciones, ya que esto previene transmitir vibraciones a la edificación. Cuando es ubicado en losa de techo se toma en cuenta el peso del equipo y las vibraciones que esta produce. Los equipos de aire acondicionado tipo paquete, demandan espacios libres en su alrededor para evitar la recirculación del aire de descarga, ventilación y mantenimiento, la distancia entre estos puede ser de 1.5 a dos metros. Este tipo de equipo debe de tener una descarga de aire sin obstáculos, puede tener dos tipos de suministro y retorno de aire: vertical u horizontal.

Definición de automatización

La automatización es el uso de sistemas de control y de tecnología informática para reducir la necesidad de la intervención humana en un proceso. En el enfoque de la industria, automatización es el paso más allá de la mecanización, en donde los procesos industriales son asistidos por máquinas o sistemas mecánicos que reemplazan las funciones que 150

Revista Científica

antes eran realizadas por operadores. Mientras en la mecanización los operadores son asistidos con maquinaria a través de su propia fuerza y de su intervención directa, en la automatización se reduce de gran manera la necesidad mental y sensorial del operador. De esta forma presenta grandes ventajas en cuanto a producción más eficiente y disminución de riesgos al operador. Como una disciplina de la ingeniería más amplia que un sistema de control, abarca la instrumentación industrial, que incluye los sensores, los transmisores de campo, los sistemas de control y supervisión, los sistemas de transmisión y recolección de datos y las aplicaciones de software en tiempo real para supervisar y controlar las operaciones de plantas o procesos industriales.

Relevador inteligente Zelio

Los relevadores inteligentes Zelio Logic (Figura 7) están diseñados para usarse en sistemas automatizados pequeños y se utilizan tanto en aplicaciones industriales como comerciales. Los relevadores se suministran con 10 o 26 E/S, según el modelo, y pueden tener hasta 40 E/S extendidas. Los relevadores inteligentes Zelio Logic permiten automatizar procesos/máquinas, reemplazando el uso de temporizadores, contadores, relevadores, selectores de levas, funciones analógicas en una sola unidad con capacidad de comunicación opcional Modbus/Ethernet, envío/recibo de mensajes SMS de control y monitoreo vía celular. Las Fuentes ofrecen rangos de entradas desde 100 hasta 500 VCA y salidas de 5, 12, 24 y 48 VCD de 0.3 a 40 A. Beneficios: • Fácil de seleccionar, instalar y programar, Zelio Logic se adapta a todas sus aplicaciones. • Programación sencilla del relevador inteligente, como hacer un diagrama eléctrico, auto entrenamiento incluido en CD. • Flexible, ofrece una selección de dos gamas (compacta mono bloque o modular extensible) y dos lenguajes de programación (FBD o LADDER). • Abierto, también permite el control y el monitoreo de sus instalaciones en cualquier situación, ya sea en el sitio o en forma remota. • Al sustituir tres o más temporizadores, ya se justifica el costo de uno de estos relevadores. • En las fuentes de alimentación, proporciona un rango amplio de entrada de voltaje y una salida estable garantizada de voltaje.

Aplicaciones típicas: • Utilizado en la industria de la construcción: sistemas de control para máquinas pequeñas, sistemas de control descentralizado de equipos anexados a máquinas grandes y medianas. • En la construcción/sector de servicios: se usa en administración de la iluminación, control de acceso, control y monitoreo, calefacción y aire acondicionado. • Automatización y modernización de máquinas y procesos sencillos. • Apertura de puertas automáticas. • Alarmas. • Sistemas de alumbrados. • Estacionamientos. • Control de motores. Ejemplo de selección: • Cantidad y tipo de E/S requeridas. • Voltaje de alimentación disponible (es común a las entradas). • Expansiones y accesorios necesarios.


olvidándose de apagarlos al salir. En ocasiones ha habido climas que se han quedado encendidos incluso durante todo el fin de semana. Toda esta problemática puede ser resuelta mediante la automatización de los climas en las horas y días programados, olvidándose de los inconvenientes e imprevistos generados por el control manual, generando ahorro energético y aumentando la vida útil y confiabilidad de los equipos.

Características particulares del sistema

En la planta alta del edificio de docencia N, hay ocho aulas destinadas a grupos de Mecatrónica y Energías Renovables: cuatro salones a la izquierda del pasillo central y cuatro a la derecha, los cuales tienen la notación indicada en la Figura 8; en esta imagen, también se muestra la ubicación del tablero de control. Figura 7. Relevador Programable Zelio.

Desarrollo En la UT de Altamira no se encontraba automatizado el sistema de aire acondicionado, por lo que se decidió automatizarlos en el Departamento de Mecatrónica en su totalidad para un mejor desempeño de los usuarios. Se logró la automatización de ocho aires acondicionados y un timbre escolar. El tipo de aires acondicionados instalados es tipo paquete Los objetivos del proyecto fueron: seleccionar el mecanismo electrónico de control más apropiado para el sistema, que sea económico y cumpla con los requerimientos del proyecto, adquirir e instalar los componentes de control y acoplamiento necesarios, llevar a cabo el cableado y la conexión de los componentes, programar los eventos en intervalos apropiados, incluyendo el arranque automático después de cortes de energía (siempre que se encuentre en el horario de trabajo), y el arranque especial fuera de los horarios especificados. Las ventajas del proyecto son muchas, pero se remarcan en especial: ahorro de energía, lo que genera directamente un ahorro económico y también la conservación del medio ambiente, ya que al disminuir el consumo de energía también disminuye la generación de gases que se emiten a la atmósfera y que deterioran la capa de ozono, aumentar la vida útil de los equipos, pues al reducir su tiempo de trabajo, se aminora el calentamiento, vibración, rozamiento de partes mecánicas, y esfuerzo de los dispositivos electromecánicos y electrónicos, evitando costos de reparaciones. ¿Por qué se decidió automatizar el sistema de aires acondicionados? En materia de climatización escolar, existe una programación de clases, en la cual se puede constatar que las aulas son utilizadas en días y horarios específicos, por lo que los aires acondicionados solo deberían estar activos de acuerdo al horario señalado. Sin embargo, en la mayoría de los casos, los sistemas se controlan manualmente, designando a alguien como responsable para apagar el sistema de control a la hora que corresponda, no obstante, con relativa frecuencia la persona responsable no cumple con su comisión encomendada, ya que puede estar ocupada en otro asunto, abrumada por el trabajo y olvidarse de su responsabilidad o por no haber asistido a la institución.

Figura 8. Distribución de salones y ubicación del tablero de control. Cada uno de los salones posee un controlador (Figura 9) que recibe una señal de activación de 24V de CA desde una de las salidas del relevador programable. Cuando el controlador recibe los 24V de CA en su entrada, entonces emite una señal de activación al compresor correspondiente del conjunto instalado en el techo del edificio (este conjunto se muestra en la Figura 10). Por otro lado, el sistema funciona de forma automática de acuerdo a un horario de clases preestablecido pero también ofrece la posibilidad de arrancar de forma manual. También, cabe destacar que se cuenta con un timbre escolar en el pasillo central para la indicación acústica de la terminación de cada clase.

Figura 9. Controlador del clima de un salón.

En el caso de la UT de Altamira, también ha sucedido que alumnos o personal encienden los climas en horas en donde no hay clases, ingresando a las aulas para comer, dormir o distenderse de las labores diarias, Revista Científica

151


¿Por qué se decidió utilizar el relevador programable Zelio SR3B261FU en el sistema de aires acondicionados?

Figura 10. Ocho compresores de las aulas de Mecatrónica.

Existen varias alternativas para la implementación, aunque finalmente se decidió utilizar el relevador programable Zelio, modelo SR3B261FU (Figura 7) por lo siguiente: fácil programación, modularidad, flexibilidad, salidas por relevador, manejo de 8A en las salidas y, principalmente, por el bajo costo. Además que incluye software de programación, otra opción era comprar un PLC, pero es más costoso y la licencia se tiene que adquirir por separado, lo cual aumenta aun más el costo. En la Tabla 1, se muestra la comparativa de algunos PLC’S comerciales y el relevador programable Zelio. Además, el modelo seleccionado posee 16 entradas digitales (mayor cantidad que los PLC’S comparados) y 10 salidas por relevador; de estas salidas, las primeras ocho son independientes, mientras que las últimas tres poseen una terminal común. En la Tabla 2, se muestra la relación de las entradas y salidas del Zelio con el sistema de automatización de aires acondicionados y el timbre. En la Tabla 3, se indica el horario de funcionamiento de los climas, y la Tabla 4, se presenta el del timbre escolar.

Tabla 1. Análisis comparativo de PLC´s comerciales y relevador Zelio.

152

Revista Científica


Tabla 2. RelaciĂłn de entradas y salidas del Zelio con el sistema de automatizaciĂłn.

Tabla 3. Horarios de funcionamiento de los aires acondicionados.

Revista CientĂ­fica

153


Tabla 4. Horarios de funcionamiento del timbre escolar.

Resultados La implementación de la automatización de aires acondicionados y timbre escolar se llevó a cabo utilizando los siguientes componentes, y tuvo un costo total aproximado de $20,000.00 M.N. En las Figuras 11 y 12 se muestran algunos de los componentes. • Relevador programable Zelio SR3B261FU. • Gabinete para instalación de componentes. • Dos relevadores Allen Bradley con bobina de 24V de CA. • Diez pulsadores. • Selector de tres posiciones. • 300m de cable dúplex. • 100m de tubo corrugado. • Interruptor termo magnético. • Material diverso (taquetes, tornillos, cinta de aislar, entre otros).

Figura 11. Componentes montados dentro del gabinete.

154

Revista Científica


cuales se encuentran en cascada y controlan a los aires acondicionados de los salones SA3-SA4, SA5-SA6 y SA7-SA8, respectivamente, con desfase de dos segundos al arranque y también al paro. Las líneas 31 a la 38 activan individualmente los controles de los salones SA1 a SA8 durante cuatro horas en el modo manual según el botón que se haya presionado. Las líneas 39 a la 55 presentan el control directo de las salidas Q1 a Q8 del Zelio tanto en modo manual como en modo automático. Las líneas 56 a la 59 activan el temporizador de modo continuo para el timbre escolar, mientras que las líneas 60 y 61 se combinan para generar un temporizador para el modo intermitente. Las líneas 62 a la 64 controlan los dos modos del timbre escolar y además el encendido manual a través del botón Z1 del Zelio. Las líneas 65 a la 68 programan mensajes de texto a desplegar en la pantalla del Zelio según el modo de selección que se esté ejecutando.

Figura 12. Componentes montados fuera del gabinete.

Cuando el selector de tres posiciones se encuentra a la izquierda, se ejecuta el modo automático; sin embargo, es necesario pulsar el botón de arranque para que el sistema de control de aires acondicionados funcione. Los aires acondicionados entran por parejas desde los salones uno, dos hasta los siete y ocho con un retraso de dos segundos entre ellos para evitar los picos de corriente. Para detener el sistema es necesario presionar el botón de paro. En caso de que existan cortes de energía eléctrica de Comisión Federal de Electricidad (CFE), si el sistema está en modo automático y ya arrancó, entonces se restablecerá a su condición de arranque una vez que la energía regrese, esto es gracias a la programación que realizamos en el módulo. Si el selector está en la posición de la derecha se tiene el modo manual y la activación y desactivación individual de cada uno de los aires acondicionados de los ocho salones se hace a través de los pulsadores de abajo (botones blancos). Si se presiona una vez el botón arranca el clima, y si se presiona nuevamente entonces se apaga. Si el selector está en la posición central los climas se apagan, dado que ningún modo ha sido seleccionado. Es importante mencionar que el modo manual implica responsabilidad por parte de la persona que lo active, ya que al encender un aire acondicionado, es necesario apagarlo cuando se deje de utilizar, porque de lo contrario este se quedaría encendido, causando un gasto innecesario de energía y tiempo de trabajo adicional en los componentes del sistema. Previendo esta situación, se hizo un ajuste por programación que apaga los climas activados de modo manual cuatro horas después de ser activados, evitando gastos de energía por olvidar la desactivación manual.

Programación

La Figura 13, muestra la programación en escalera del sistema de aires acondicionados. En la línea 2, se observa que I1 activa M2 para el modo automático de lunes a sábado. En la línea 4, se presenta a I2 como condición para el modo manual; además, de la línea 2 a la 11, se muestran los pulsadores para el arranque y paro de cada uno de los ocho salones en el modo manual. Las líneas 12 a la 27, proporcionan las condiciones de apagado de los aires acondicionados activados en modo manual, ya sea por el cambio de posición del selector a la posición central o la del modo automático o bien, por haber transcurrido cuatro horas desde su activación. Las líneas 28, 29 y 30 activan a los temporizadores TT1, TT2 y TT3, los Revista Científica

155


Figura 13. LĂ­neas 1 al 68 del programa de automatizaciĂłn de ocho aires acondicionados.

156

Revista CientĂ­fica


Conclusiones

El proyecto de automatización de los aires acondicionados de Mecatrónica pasó por diversas etapas, tales como la planeación, cotización, compra de componentes, instalación, programación y ajustes finales. Cabe recalcar que se utilizó un relevador programable Zelio en vez de un PLC por lo siguiente: la interfaz de programación FBD (diagrama de bloques de funciones) o LADDER (diagrama de contactos) es muy sencilla y amigable; lo mejor, es gratuita y no se tiene que comprar el software como es el caso si se hubiera utilizado un PLC. La programación de parámetros se adapta a nuestras necesidades con el software ergonómico Zelio Soft, y cuando se programa directamente utilizando las teclas de control del relé programable mediante navegación contextual, ofrece una excelente legibilidad gracias a una pantalla LCD retroiluminada, la más grande del mercado. Como parte de los beneficios logrados con la implementación del sistema de aires acondicionados es posible mencionar: 1. Ahorro energético y económico. 2. Disminución del tiempo de trabajo de los aires acondicionados y componentes del sistema. 3. Aumento del tiempo de vida útil del sistema de aire acondicionado, ya que con ello se logra evitar que se congelen las tuberías, lo que ocasionaba que se filtrara el agua por los plafones que a su vez los destruía y algunos muebles (mesas y sillas); el detonante para que se suspendieran las clases. 4. Protección del medio ambiente. 5. Mayor orden en el cambio de clases, juntas y actividades programadas debido a la indicación acústica del timbre escolar, y el involucramiento de estudiantes de la carrera de Mecatrónica en el cableado y la instalación del tablero de control de los aires acondicionados, lo que les ayudó al desarrollo de habilidades y aplicación de conocimiento en las materias de programación de PLC’S, Automatización y Control. Por último, se espera poder inspirar a otras universidades a implementar este tipo de proyectos, y en nuestra institución continuar con este, lo que implica mejoras, innovaciones y ampliación del proyecto en otras áreas. Símbolos E/S PLC CA CD L N Z SA I O Q TT m PVC CFE

Entradas/Salidas Controlador Lógico Programable Corriente Alterna Corriente Directa Línea Neutro Relevador Zelio Salones Entradas Salidas Entrada de control Temporizador Metros Policloruro de Vinilo Comisión Federal de Electricidad Revista Científica

157


Bibliografía

+

Daneri, Pablo Adrián (2008). PLC Automatización y Control Industrial. México, D.F. LIMUSA. ISBN: 9505282968.

+

Reyes Cortés, Fernando (2013). Mecatrónica: Control y Automatización. Madrid, España. Alfaomega. ISBN: 9786077075486.

+

Pita, Edward G. (1999). Acondicionamiento de Aire, Principios y Sistemas. 2a Edición. México. Noriega Limusa, 133 p.

+

Whitman, William y Johnson, William (2000). Tecnología de la Refrigeración y Aire Acondicionado, Vol. 2. España: Paraninfo, 35 p.

+

Castillo Mayén, Otto René (2016). Propuesta de sistema de aire acondicionado para la unidad de cuidados intensivos de adultos del Hospital Nacional de Chimaltenango. Trabajo de graduación de Ing. Mecánico. Universidad de San Carlos de Guatemala, Facultad de Ingeniería, 98 p.

+

Micro Pneumatic S.A. de C.V. Micro Automación. En el corazón de la tecnología. Automatización y control [En línea]. <http://www.microautomacion.com/catalogo/10Automatizacion_y_control.pdf> [Consultada: 08 Abril 2017]. En esta página se encuentra información acerca de automatización y control.

+

Wikipedia. La enciclopedia libre. Artículo: La automatización industrial [En línea]. <https://es.wikipedia.org/wiki/Automatizaci%C3%B3n_industrial> [Consultada: 08 Abril 2017]. En esta página se encuentra información acerca de la automatización industrial.

+

+

Life is On. Schneider Electric [En línea]. <http://www.schneider-electric.com.mx/es/product-range/531-zelio-logic/> [Consultada: 10 Abril 2017]. En esta página se encuentra información acerca del relevador Zelio.

+

¿Cómo funciona qué? [En línea]. Publicado: 11 Diciembre 2015. <http://comofuncionaque.com/como-funciona-el-aire-acondicionado/> [Consultada: 15 Abril 2017]. En esta página se encuentra información acerca de cómo funciona el aire acondicionado.

García Figueroa, Héctor Eduardo (2007). Estudio de un sistema de aire acondicionado para el área de central de equipos, del hospital San Juan de Dios. Trabajo de graduación de Ing. Mecánico. Universidad de San Carlos de Guatemala, Facultad de Ingeniería, 125 p. Carrier Air Conditioning Company (1980). Manual de aire acondicionado. España: Marcombo, 640 p.

+

Alpés Aplicaciones Persistentes, S.L. Artículo: Desinfección de conductos de aire acondicionados [En línea]. <http://www. alpesbiocontrol.com/desinfeccion-de-conductos-de-aire-acondicionados/> [Consultada: 08 Abril 2017]. En esta página se encuentra información acerca de diagrama de Aire acondicionado tipo Chiller.

+

International Cold, Aires acondicionados: Beneficios Climatización en la salud [En línea]. <http://www.internationalcold. com/salud/beneficios-climatizacion-en-la-salud> [Consultada: 08 Abril 2017]. En esta página se encuentra información acerca de los beneficios que ofrece la climatización en la salud.

+

Definición ABC, Tu Diccionario Hecho Fácil [En línea]. <http://www.definicionabc.com/tecnologia/aire-acondicionado. php> [Consultada: 08 Abril 2017]. En esta página se encuentra información acerca de la definición de aire acondicionado.

158

+

Pérez Porto, Julián y Merino, María (2011). Actualizado: 2014. Definición de aire acondicionado (http://definicion.de/aire-acondicionado/) [En línea]. [Consultada: 08 Abril 2017]. En esta página se encuentra información acerca de la definición de aire acondicionado.

Revista Científica

+

+

Calor y frío.com. El portal sectorial de las instalaciones. Autor: Idoia Arnabat. Publicado 19 Agosto 2015. [En línea]. <https://www.caloryfrio.com/aire-acondicionado/bomba-de-calor-reversible.html> [Consultada: 15 Abril 2017]. En esta página se encuentra información acerca de cómo funciona el aire acondicionado.

+

Rocatek S.A.S. [En línea]. <http://www.rocatek.com/forum_ automatizacion_industrial.php> [Consultada: 15 Abril 2017]. En esta página se encuentra información acerca de que es la automatización industrial.

+

http://www.schneider-electric.com.mx/images/pictures/newsletter/05may10/05_1008relevadores.pdf


Revista CientĂ­fica

159


comercializacion de ganado bovino de carne

EN LA REGIÓN NOROESTE CHIHUAHUA, MÉXICO:

SITUACIÓN Y ALTERNATIVAS PARA LOS PRODUCTORES

Elizabeth Bautista Flores1, Óscar Arturo Sánchez Carlos2 y Gabriela Carrasco Sigala3

División Multidisciplinaria de la Universidad Autónoma de Ciudad Juárez en Nuevo Casas Grandes. Av. Universidad 3003. Secc. Hidalgo Nuevo Casas Grandes, Chihuahua. México. C.P. 31803. 1,2,3

elizabeth.bautista@uacj.mx

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Diciembre 28, 2016. Aceptado: Enero 10, 2017.

160

Revista Científica

Resumen: El estado de Chihuahua mantiene el primer lugar a nivel nacional en la exportación de ganado bovino, con más de 400 mil cabezas por año, movimiento que genera dos mil millones de pesos por temporada. De esa manera, la ganadería chihuahuense se ha convertido en una industria en constante evolución. A lo largo de la historia, los criadores de ganado se han preocupado por mejorar las razas en la búsqueda de nuevas crianzas con mejores características de producción. Sin embargo, en algunas regiones es necesario promover algunas estrategias que ayuden a una consolidación del mercado. Por lo anterior, el objetivo principal de este artículo es analizar la situación actual del sector ganadero en el noroeste del estado de Chihuahua, en relación con el pensamiento estratégico en la gestión del negocio como un elemento para agregar valor al producto primario (el ganado). Se partirá de una descripción de la situación local con base en el contexto nacional, y se continuará con la identificación de las características del negocio y con ello comprender las oportunidades que pueden ser aprovechadas por los ganaderos de la región. Este estudio de corte cuali-cuantitativo se realizó en 2015 y requirió de la aplicación de entrevistas a diferentes actores del sector ganadero en los municipios de Buenaventura y Galeana; Ascensión, Casas Grandes, Janos, Nuevo Casas Grandes, Gómez Farías, Ignacio Zaragoza, Madera y Namiquipa, para identificar situaciones contextuales, oportunidades y elementos para


agregación de valor, que permitan impulsar y, si es posible, consolidar el negocio de venta de ganado de carne. En los resultados se encontró que los productores deciden vender su ganado al destete por falta de espacio en el agostadero y por falta de solvencia económica, asimismo, existe una relación comercial entre ganaderos de diferentes capacidades para apoyarse y llevar al mercado de exportación lotes homogéneos, así como para completar la carga del transporte especializado al puerto de salida.

+ Palabras clave: Negocios, productores y ganado bovino de carne.

Abstract: Chihuahua state holds the first place in the export of cattle over 400 thousand head per year, and generate 2 billion pesos per season. Thus, the Chihuahua livestock has become an industry in constant evolution. Throughout the history, the cattle breeders are concerned about improving races in the search for new breeds with improved production characteristics. However, in some regions it is necessary to promote some strategies to help market consolidation. Therefore, the main objective of this article is to analyze the current situation of the livestock sector in the Northwest of the State of Chihuahua, in relation to strategic thinking in business management as an element to add value to the primary product (cattle). So it will be a description of the local situation based on the national context, and will continue to identify the characteristics of the business and thus understand the opportunities that can be exploited by farmers in the region. This study of qualitative and quantitative methods was realized in 2015 and required the application of interviews with different stakeholders in the livestock sector in the municipalities of Buenaventura and Galeana; Ascensión Casas Grandes, Janos, Nuevo Casas Grandes, Gómez Farias, Ignacio Zaragoza, Madera and Namiquipa to identify contextual situations, opportunities and elements for adding value, allowing drive and, if possible, consolidate the business of selling cattle of meat. The results showed that the producers decided to sell their livestock at weaning due to lack of space in the field and due to lack of economic solvency, there is also a commercial relationship between farmers of different capacities to support and bring to the export market homogenous lots, As well as to complete the loading of specialized transport to the port of departure.

+ Keywords: businesses, producers and beef cattle. Introducción La carne del ganado vacuno puede formar parte de una dieta equilibrada para los humanos, aportando valiosos nutrientes, pues contiene importantes niveles de proteínas, vitaminas, minerales y micronutrientes esenciales para el crecimiento de los niños y jóvenes. En términos de producción de carne, los ganaderos pueden agregar valor, reducir costos y precios, promover la inocuidad alimentaria y ampliar la vida útil de los animales (FAO, 2014), si recurren a estrategias de negocios más específicas.

en las estrategias de comercialización que desarrollan como un elemento para agregar valor al producto primario (el ganado). Cabe mencionar que el estado de Chihuahua es reconocido por contar con las mejores razas de ganado de engorda, ya que el clima y geografía proveen de tierras y temperatura a las que se han adaptado las razas europeas, como la Hereford, Brangus, Charolais, Angus, Salers Limousin y Beef Master. En 2011, se produjeron 99 mil 829 toneladas de carne en canal de bovinos, que representó el cuarto lugar nacional. Los distritos del estado de Chihuahua más importantes fueron Cuauhtémoc (45.8%), Casas Grandes (13.5%), Parral (4.3%) y Chihuahua (3.1%). El municipio de Parral se caracteriza por la producción de leche y los demás por la exportación de becerros (SIAP, 2013).

2. Antecedentes Hacia el año de 1875, gran parte de la economía del latifundio ganadero de Chihuahua descansaba en la exportación de novillos hacia Estados Unidos de América y al mercado de la Ciudad de México. En esos años ya existían las engordas, que proveían al mercado nacional de importantes cantidades de carne, alcanzando un consumo promedio de 17.4 kilos al año por habitante. Cuando en 1910 estalló la Revolución Mexicana, los revolucionarios de Chihuahua supieron sacar provecho de la riqueza ganadera de la entidad financiando el movimiento con el producto de la exportación de grandes hatos hacia Estados Unidos de América (Lopes, 2000). De esta forma, en el estado de Chihuahua, la ganadería se convirtió en una actividad tradicional y es considerada como una de las más importantes para la economía estatal, pues tiene potencial para desarrollarse en una superficie de casi 18 millones de hectáreas (72% de la superficie estatal) de agostaderos; cabe mencionar que los agostaderos son también conocidos como pastizales, damos por entendido que son aquellas tierras con capacidad para producir forraje para el ganado y animales silvestres (SAGARPA, 2010). La producción de carne bovina también es considerada de gran importancia para el estado. Estas reses logran su crecimiento bajo el sistema de pastoreo extensivo, su consumo es local y en los últimos años se ubica para la exportación en pie. Consiste en utilizar grandes extensiones de agostaderos, inversiones en pie de cría, bajos insumos, reduciendo capital fijo y mínima fuerza de trabajo. Éstas, representan más del 80% del valor de la producción total pecuaria, seguida por la producción de carne de ave y huevo que se desarrollan en el centro del estado (ASERCA, 2002). El ciclo de exportaciones presenta dos etapas, la primera de ellas se conoce como Alta, y se organiza entre los meses de septiembre y marzo, mientras que la Baja se registra de abril a agosto. Según datos del Sistema Nacional de Información e Integración de Mercados (SNIIM, 2013), las exportaciones de ganado bovino en pie de México fueron poco más de 1.2 millones de cabezas en 2012 (74% becerros y 26% vaquillas).

De ahí que el objetivo principal de este artículo es analizar la situación actual del sector ganadero en el noroeste del estado de Chihuahua con base Revista Científica

161


El mercado y la comercialización de ganado de carne Como ya se mencionó, la superficie destinada para agostaderos utilizados para la producción de ganado bovino es casi de 18 millones de hectáreas (72% de la superficie estatal equivalente a 178.1712 km²), lo que como región noroeste de Chihuahua ocupa un total de 49.6776 km², del cual 34.7743 km² aproximadamente son usados para agostaderos (equivalente al 70% de la región noroeste de Chihuahua). Sin embargo, que se identifica como una problemática, que a pesar de contar con esa capacidad de agostaderos para que pastee el ganado, en su mayoría los productores de pequeña, mediana e incluso algunos de gran escala, llevan su producto, es decir, el becerro y/o becerra hasta la etapa de destete para su posterior venta. Una característica del ganado bovino de carne es que es reconocido como un “commodity”, es decir, que es un producto indiferenciado aparentemente y recién comienza a ser identificado cuando ingresa en el proceso industrial, pero la realidad es que sigue siendo indiferenciado a los ojos de los consumidores. Otra característica es la demanda derivada, en la medida en que los productores ganaderos venden su producto a las industrias o a intermediarios que los hacen llegar a la industria; la demanda para su producción depende de la demanda de los consumidores que se encuentra al final de la cadena de producción y distribución. Por lo tanto, se vuelve difícil pensar estratégicamente un negocio; es decir, en el largo plazo, ya que están condicionados por una demanda que se impone ante su producto (Martínez-Damián y González-Estrada, 2013). Actualmente, la región noroeste de Chihuahua actualmente se cuenta con un fuerte sistema de control sanitario para la prevención, identificación y erradicación de enfermedades de transmisión animal, entre ellas principalmente la tuberculosis y la brucelosis, entre otras, para lograr contar con hatos libres de este tipo de enfermedades, ya que es una variable importante para determinar el destino de comercialización del ganado bovino de carne. El principal destino de exportación del ganado menor de dos años es Estados Unidos, que en los últimos años ha mostrado interés y una exigencia creciente del rastreo de los productos cárnicos debido a enfermedades humanas y de animales que actualmente podrían causar problemas originados nacional e internacionalmente. Aproximadamente, el 25% del ganado se exporta hacia los Estados Unidos. De México sale por el puerto fronterizo de Santa Teresa, para llegar a Nuevo México. El puerto fronterizo de Santa Teresa está localizado a unos pocos kilómetros de El Paso, Texas, exactamente al otro lado del puerto internacional de la contraparte mexicana conocida como Jerónimo. Ambas instalaciones, Santa Teresa y Jerónimo, son propiedad de La Unión Ganadera Regional de Chihuahua y son operadas por esa misma organización. Según Skaggs (2004), el movimiento de estos animales hacia el estado de Texas es lógico, debido a la gran cantidad de corrales de engorda en ese estado de la Unión Americana. Los resultados del estado de Nuevo México reflejan el hecho de que los registros usados en el análisis de Sistema de Información Geográfica (SIG), sólo muestran el primer destino de los animales importados. Los comerciantes en el área de Santa Teresa, Nuevo 162

Revista Científica

México, subsecuentemente transportan el ganado a lo largo de los Estados Unidos, pero esta información no puede obtenerse de los registros de exportación. Por lo anterior, se puede afirmar que, con la ayuda de los comprobantes de flete conservados por la Unión Ganadera Regional de Chihuahua, el ganado importado por Santa Teresa aparentemente es embarcado a entidades lejanas como Mississippi, Idaho y Oregon, mientras que los registros de embarque de ganado del New Mexico Livestock Board muestran que este es llevado a Washington y Iowa. Dichos estados aparecen solo en los registros de embarque del estado de Nuevo México. La raza, la calidad, el peso del ganado y los tiempos en los que se oferta el producto, obedecen a los requerimientos de la engorda norteamericana. Los mecanismos que inducen a este acoplamiento entre ambas ganaderías son la fijación de precios y el establecimiento de sistemas de selección del producto en la frontera, aunado a restricciones de tipo sanitario que se hacen más flexibles o más drásticas dependiendo de la demanda de ganado mexicano por parte de los productores del vecino país. Las fases que integran a la cadena productiva, es decir la cría, la pre-engorda, la engorda, el sacrificio y empaquetado de la carne, tienen características propias en cuanto a su duración, el monto de inversión mínima que se requiere para su implementación, el grado de desarrollo del producto que se maneja, el tipo de tecnología y de recursos naturales que utiliza; por tanto, no todas las unidades de producción tienen acceso a la totalidad de las fases de la cadena productiva. Los requerimientos de cada fase productiva en conjunto son los que van a determinar la posibilidad que cada unidad productiva en particular tiene de participar en una o varias fases de la producción y son, asimismo, estas dos variables las que van a establecer “situaciones límites” a cada unidad, obligándola a poner en circulación su producto hacia la siguiente fase de la cadena. La diferencia estriba en la posibilidad que cada unidad tiene de agregar mayor valor a su producto, antes de ponerlo en circulación. A mejores condiciones de producción, mayor es el valor que se le puede agregar al bovino. La circulación de las mercancías dentro de este proceso, se ha denominado intermediarismo. En principio, el concepto proviene del lenguaje común y ha parecido particularmente pertinente porque los agentes que realizan la actividad se apropian de una parte del valor generado en las unidades de producción y porque el intermediario constituye un verdadero puente entre las necesidades de reproducción de las unidades ubicadas en las primeras fases del proceso y los requerimientos de valorización del capital de aquellas situadas en las fases últimas de la cadena productiva (Caldentey, 2004). Otro factor importante que interviene es la solvencia económica, que tiene una doble implicación: el pequeño ganadero requiere de ingresos para subsanar los gastos de la unidad y de la familia, y por otro lado, este productor tratará de sacar el becerro al mercado lo antes posible, ante su urgencia de ingresos e incapacidad para mantenerlo por un tiempo mayor en el agostadero. En general, un producto pecuario pasa por distintas fases desde su producción hasta su destino final: el consumidor. Durante dichas fases, se generan, respectivamente distintos precios, que representan la incorporación


de servicios de comercialización. La producción del ganado bovino se caracteriza por su elevada dispersión geográfica y atomización; por tanto, para ser exportada e integrada al proceso productivo norteamericano, primeramente debe ser concentrada en lotes homogéneos. Esta labor, que por lo general es realizada por agentes económicos llamados coyotes, comisionistas o intermediarios, se sostiene en una red de relaciones económicas, sociales y patrones culturales que influyen para que el poquitero o pequeño ganadero entregue al comisionista un producto, el becerro, que después de pasar la etapa más crítica de su evolución biológica será incorporado a nuevas fases productivas, menos riesgosas y con mayor aporte de ganancias para los productores que las realicen.

Metodología Como se mencionó al comienzo de este artículo, se tiene como objetivo analizar la situación actual del sector ganadero en el noroeste del estado de Chihuahua, en relación con el pensamiento estratégico en la gestión del negocio como un elemento para agregar valor al producto primario (el ganado). Por ello se decidió utilizar una metodología con base en la obtención de datos de tipo aplicada, ya que de esta manera los diversos productos que surgen de la misma apoyan al fortalecimiento de la economía de la región noroeste de la entidad. Para ello, se utilizaron algunas herramientas cualitativas para identificar las características y las propiedades del ganado de la región.

ubicó la inversión en cuanto a tiempo o la dedicación que requieren las crías para garantizar un crecimiento correcto, sin que ello perjudique al momento de la venta. De igual forma, ante de la necesidad de mejorar las condiciones del ganado para que la reproducción sea efectiva y con esto se genere una mejor productividad, la forma más sencilla y utilizada es la sustitución con ganado nuevo del mismo hato, donde el proceso es la selección de las vacas con determinados partos o edad que se sacan (sacrifican para consumo propio o venden), cuando las becerras más nuevas se convierten en vaquillas con capacidad de reproducirse. En la mayoría los municipios estudiados, el sistema de crianza es el agostadero. En el municipio de Ignacio Zaragoza, el productor realiza la crianza en pradera artificial, debido a que no cuenta suficiente terreno de agostadero o para estandarizar los lotes por peso antes de enviarlos para la exportación. La sustitución externa se da más en el caso de los sementales y toros utilizados para la preña de las vacas y que así las crías salgan genéticamente mejoradas o de determinada raza, aunque en algunos casos, mayormente en el caso de los productores y/o compradores, llegan a adquirir nuevo ganado para su hato elegido de las mismas crías. De acuerdo con la Figura 1 el 62 por ciento de ellos vende menos de 50 cabezas de ganado en cada periodo y esa decisión depende de una gran variedad de factores. Son muy pocos quienes llegan vender más de 50 cabezas (15%).

Se diseñó un instrumento de 10 preguntas y se aplicó de junio a agosto de 2015. Los criterios de selección fueron básicamente a participantes de la cadena productiva con al menos cinco años de experiencia en el ramo. Así, se obtuvieron a 40 personas entre las que destacan productores (pequeños, medianos y grandes), e intermediarios, a fin de obtener diferentes puntos de vista. Es de mencionar que para la investigación, se utilizó el muestreo del juicio: el investigador toma la muestra seleccionando los elementos que a él le parecen representativos de la población, por lo que depende del criterio del investigador; en este caso, fueron los intermediarios considerados líderes o con los cuales se pudo tener contacto, tratando de incorporar los municipios pertenecientes a la región noroeste de Chihuahua, esta zona incluye los municipios de Ascensión, Buenaventura, Casas Grandes, Galeana, Gómez Farías, Ignacio Zaragoza, Janos, Madera, Namiquipa y Nuevo Casas Grandes. Los datos extraídos en las encuestas fueron vaciados en la base de datos, con base en el Software SPSS para la correcta manipulación de la información destacando las variables que se midieron.

Resultados El productor de la región de estudio encuentra más viable llevar a cabo la crianza por el sistema de pastoreo en agostadero, tanto por el corto tiempo que permanece la cría en su propiedad, así como para evitar hacer una mayor inversión de dinero, que pudiera no recuperar al momento de la venta. Las posturas de los productores para decidir la venta de su ganado se ubican principalmente en la falta de espacio en los agostaderos y/o corrales donde se tiene al ganado. El segundo motivo de venta es debido a la carencia de solvencia económica de los ganaderos, mientras en último sitio se

Figura 1. Venta de carnes de ganado. En la mayoría de los municipios, la principal limitante para llevar el ganado a la etapa de crianza es la falta de espacio en el agostadero, seguido por la solvencia económica. Los ganaderos de Madera expresan que el motivo primordial es la solvencia económica para realizar la crianza, y los de Namiquipa manifiestan que tienen el mismo valor la falta de espacio en el agostadero y la solvencia económica. En explotaciones de ganado bovino, mantener la higiene y practicar métodos para prevenir enfermedades (medidas profilácticas), como la vacunación, es de lo más importante; de esta forma, se evitan pérdidas económicas para los productores.

Revista Científica

163


El productor de ganado bovino en el noreste de Chihuahua tiene como meta llegar a la venta de la cría en la mayoría de los casos, los becerros, aunque por otras circunstancias; la falta de agostadero, la sequía, necesidades monetarias o bien la necesidad de la renovación del ganado para una productividad efectiva se tiene la venta de becerras, vaquillas o vacas viejas. La cantidad de ganado que se vende por productor es variable, debido a diferentes factores; algunos solo venden las crías machos, por lo que la cantidad de la venta varía según la cantidad de crías machos, que hayan nacido; otros deciden vender las crías machos tanto como las becerras, dejando sólo aquellas que sustituyan en un determinado tiempo a los vientres viejos; otras circunstancias puede ser la necesidad económica del productor o bien las condiciones del agostadero, y que se determine contar con una cierta cantidad de cabezas de ganado. Durante la investigación, pudo identificarse a Productores y Compradores que tienen el negocio establecido de ganado en pie, mismos que en ocasiones se asocian o bien se efectúan relaciones de amistad y de compra-venta entre sí, para completar embarcaciones; o también se dice que las fases del intermediario pueden ser muy extensas entre sí, está el pequeño comprador que decide venderle al otro, ese otro no cuenta con el transporte adecuado para llevarlo hasta la frontera por lo que decide venderle a aquel comprador de mayor escala y los lleva a la fase final del proceso de la exportación, o bien el consumo nacional, esto es por citar un ejemplo del cómo se lleva a cabo tal proceso de la venta de ganado entre intermediarios o bien compradores. En cuanto a la exportación de ganado bovino de México hacia Estados Unidos, es la calidad de la carne del ganado con el que se cuenta. Las razas de la región noroeste del estado con base en las características genéticas se consideran de buen sabor en la carne y de buena cobertura de los requerimientos sanitarios de EEUU para poder exportar el ganado. Por lo tanto, la carne en la frontera mexicana brinda un buen sabor; es carne sana; por lo general carne de calidad, que incluye los factores salud y consistencia. La segunda variable es la adquisición a menor costo, EEUU permite la entrada del ganado con peso de 250 kilos aproximadamente lo que le ratifica, pagar menor precio, porque el peso es bajo, y ya en los corrales de engorda, llevar el ganado a la fase de engorda a un costo significativamente bajo (con base en las ganancias finales obtenidas), mediante alimentos en-

164

Revista Científica

riquecidos con vitaminas y demás suplementos que aceleran la ganancia de peso, para posteriormente llegar a las otras etapas como son el sacrificio y empaquetado de la carne, mismos que en la región noroeste de Chihuahua no se llevan a cabo aún. Por último, se tiene la variable de mercado, es decir la exportación de becerros y becerras de México hacia EEUU, donde se dio la opción de opinar libremente el porqué, en la cual los compradores dieron por hecho que es para poder abastecer la demanda internacional que tiene el país vecino.

Conclusiones Como ya fue expuesto, el ganado de engorda en pie que se produce en la región noroeste de Chihuahua cuenta con un amplio margen de oportunidades, como son los esquemas de comercialización, ya que cuenta con un potencial mercado en la frontera con Texas; de esa forma, la producción, distribución y venta es prácticamente segura. Sin embargo, las empresas pecuarias que, a efectos de comercialización, presentan dos características fundamentales que limitan las posibilidades de aplicación de técnicas sofisticadas. La primera es que las empresas pecuarias son, en general, de pequeña dimensión, incluyendo a las que en ganadería son consideradas como grandes explotaciones, es decir, que tienen un volumen de ventas pequeño, si lo comparamos con el de las grandes empresas industriales, que hace difícil que puedan dedicar un volumen significativo de inversión a la mercadotecnia y, además, la organización es simplificada. La segunda característica es que los productos, tal como salen de la explotación pecuaria, no están preparados para el consumo pues son materias primas que utiliza la industria y el comercio y, a partir de los cuales, después de ser sometidos a determinadas transformaciones, pasan a ser productos alimenticios en mayoría, o productos que sean componentes de otros, por citar un ejemplo, las pieles. Una debilidad, en la que se ubica el ganadero es que debe adoptar estrategias mejor estructuradas de venta a través de las cuales comercializar los productos.


Bibliografía + Alagón, G.; Cervera, C.; Arce, O.; Pascual, J.; Serrano, P.; Pascual, M.; Ródenas, L. y Martínez, E. (2015). Effect of feeding diets containing barley, wheat and corn distillers dried grains with solubles on carcass traits and meat quality in growing rabbits. Meat Science 101. Pp: 56-62. + ASERCA (2010). Apoyos y Servicios a la Comercialización Agropecuaria. Producción de carnes en México. Revista Claridades Agropecuarias. 207:19-33. + Caldentey y De Haro, Tomás (2004). Comercialización de Productos Agrarios. Editorial Agrícola Española, S. A. España. pp.354. + FAO. Producción y Sanidad; Consumo de Carne (2014). Departamento de Agricultura y Protección al Consumidor. Recuperado en http://www.fao.org/ag/againfo/themes/es/meat/ background.html . Consultado, 03 de febrero de 2015. FAO. + FIRA. Fideicomisos Instituidos en Relación con la Agricultura (2010). Panorama Agroalimentario. Carne de Bovino, 2010. México, D.F. p. 19. + INEGI. Poder adquisitivo de la PEA (2010). Encuesta ingreso gasto. Recuperado en http://www.inegi.org.mx/est/contenidos/ proyectos/encuestas/hogares/regulares/enigh/ enigh2010/ncv/default.aspx. Consultado, 03 de febrero de 2015.

www.redalyc.org/articulo.oa?id=263125750008 Consultado 30 de enero de 2015. + Lopes, María Aparecida de S. (2000). La Economía Ganadera en Chihuahua: Lineamientos Generales en la Segunda Mitad del Siglo XIX. Relaciones. Estudios de historia y sociedad, Invierno, http://www.redalyc.org/ pdf/137/13708109.pdf SAGARPA (2010). Agostaderos. Conceptos básicos. Recuperado en http://www.sagarpa. gob.mx/desarrolloRural/Publicaciones/Lists/ CursoTaller%20Desarrollo%20de%20capacidades%20orientadas%20a/Attachments/35/10. pdf Consultado, 04 de marzo de 2015. + SENASICA (2015). Establecimientos tipo inspección federal. Recuperado en http://www. senasica.gob.mx/?id=743. Consultado, 09 de febrero de 2015. + SIAP (Sistema de información agropecuaria) (2013). Mercados nacionales e internacionales. Recuperado de http://www.siap.gob. mx/index.php?option=com_content&view=article&id=26&Itemid=333 Consultado, 03 de marzo de 2015. + Skaggs, Rhonda.; Acuña, René.; Torell, L. Allen y Sourthard, Leand W. (2004). Exportaciones de Ganado en pie de México hacia los Estados Unidos: ¿De dónde viene el ganado y hacia dónde se va?, (8) 212-219. Recuperado de http://www.redalyc.org/articulo. oa?id=14101406 Consultado, 03 de marzo de 2015.

+ Martínez-Damián, M. Á. y González-Estrada, A. (2013). Transmisión de precios de carne de res en México. Revista Mexicana de Ciencias Agrícolas, 4(1) 143-151. Recuperado de http://

Revista Científica

165


Mónica Leticia Acosta Miranda1, Celina Hiosilene Ocampo Ponce2, Víctor Alfonso Salazar García3 y Naim Castillo Luna4

Instituto Tecnológico de Cuautla, Libramiento Cuautla, S/N Cuautla, Morelos. México, C.P. 62745. 1,2,3,4

monycaacosta@yahoo.com

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Junio 7, 2017. Aceptado: Junio 21, 2017.

Resumen: El presente trabajo muestra el proyecto de inversión desarrollado por un grupo de emprendedores del Instituto Tecnológico de Cuautla, con la idea de establecer una tienda temática de artesanías que, a la vez que distribuye el trabajo de los artesanos del estado de Morelos, explique la forma en que dichos artículos son elaborados, de tal forma que se valore su trabajo al reconocer la herencia cultural que este ofrece en cada una de sus piezas. De igual manera, ser una fuente de información turística acerca de los atractivos naturales, históricos, culturales y de esparcimiento que Morelos ofrece a quienes lo visitan. No menos importante es el hecho de que al realizar este proyecto se fomenta el autoempleo, esperando al futuro ser una empresa que apoye el desarrollo económico de la región.

+ Palabras clave: Proyecto de inversión, artesanías y turismo.

Abstract: This paper shows the investment project developed by a group of entrepreneurs of the Instituto Tecnológico de Cuautla with the

166

Revista Científica


idea of establishing a thematic crafts, shop while he distributes the work of craftsmen from the State of Morelos, explain the way in which such items are made so that is valued his work acknowledging the cultural heritage which it offers in each of its parts. Similarly be a source of information about the natural, historical and cultural attractions and leisure Morelos offered to those who visit it. No less important is the fact that when this project is promoted self-employment waiting for the future to be a company that supports the economic development of the Region.

+ Keywords: Project investment, handicrafts and tourism. Introducción El proceso de elaboración de un proyecto de inversión permite detectar necesidades insatisfechas y propone un satisfactor a estas. Un proyecto de inversión se asocia a las aportaciones que las empresas destinan a un producto nuevo en el mercado, modificaciones a los productos actuales, incursión de nuevos mercados, etc., con la finalidad de producir utilidades. El estado de Morelos cuenta con un sinfín de atractivos sitios turísticos con exuberantes paisajes, ríos, manantiales y zonas arqueológicas que visitar, ofreciendo siempre a los visitantes un trato cordial y amable. En Morelos existe también un número importante de grupos étnicos los cuales aportan riqueza a la cultura de esta entidad con los productos artesanales que elaboran y que están disponibles a los turistas en sus pueblos mágicos como Tepoztlán, Tlayacapan, Yecapixtla y próximamente Atlatlahucan y Zacualpan de Amilpas, entre otros municipios. Desgraciadamente las artesanías del lugar se han perdido a través del tiempo por los adelantos tecnológicos, la piratería o bien a la falta de espacios adecuados para su venta y/o distribución por lo que se pretende establecer la empresa “Amantolí”, cuyo significado en náhuatl es “artesanal”, que distribuya y promueva las artesanías del estado de Morelos apoyando a los artesanos, a la vez que se promueve el gusto por las decoraciones artesanales nacionales y se proporciona información turística que incremente el aforo de visitantes a los diversos puntos de interés.

Problemática detectada

elaborados a mano en los talleres de este Estado. Con el establecimiento de la empresa se pretende obtener un beneficio económico haciendo acuerdos con los talleres fabricantes de manera de poder distribuirlo a un precio accesible para los consumidores. De igual forma se busca convencer a los productores de incorporarse a la formalidad aprovechando las nuevas alternativas que el gobierno federal esta impulsando, lo que les permitirá tener acceso a diversos esquemas de apoyo, seguridad social y reconocimiento. La innovación que se pretende es el diseño de un establecimiento temático donde se proporcionará información acerca de los materiales utilizados, el proceso, la región de donde provienen y los diversos atractivos turisticos con que cada uno de estos lugares cuentan, convirtiendonos en un gran mapa turistico que de a conocer lo más representativo de cada uno de los municipios del Estado de Morelos orientaando la atención de las personas hacia el aspecto artesanal-cultural.

Figura 1. Logotipo y eslogan de la empresa.

Ventajas competitivas

+ Concentrar artículos de decoración, vestimenta y alimenticios, elaborados artesanalmente con materiales e ingredientes naturales del Estado de Morelos.

+ Constituir una tienda tematica en la cual se presentará cada artículo apoyado de una pequeña reseña con información acerca de su lugar de origen, el proceso de fabricación y los materiales con que están elaborados cada uno de los productos. + Ser una plataforma de información turistica mediante la promoción de los diversos atractivos que ofrece el Estado como balnearios, sitios para turismo de aventura, pueblos mágicos, gastronomía, zonas arqueologicas o simplemente la diversidad de paisajes naturales que ofrece Morelos a sus visitantes.

Los principales problemas a los que se enfrentan los artesanos del estado de Morelos y los turistas que lo visitan son los siguientes:

Marco teórico

+ Falta de un establecimiento que ofrezca productos artesanales 100% morelenses.

Artesanías de Morelos

+ +

relos.

Falta de apoyo y valorización al trabajo de los artesanos morelenses. Poca promoción al turismo histórico de la ciudad de Cuautla, Mo-

+ Resistencia por parte de los artesanos a formalizarse fiscalmente y en consecuencia, falta de acceso a estímulos y apoyos.

+ Desunión entre los artesanos para cubrir la demanda del mercado local y el extranjero. Justificación del proyecto de inversión “Amantoli”

“Amantoli” busca ser una plataforma donde se concentren las artesanías de todo tipo, como barro, tela, metal y otros materiales que se elaboran en el estado de Morelos y sus alrededores, poniéndolas al alcance de toda persona interesada en conocer la diversidad cultural y la calidad de los productos

La producción artesanal es una de las formas de trabajo más antiguas que existen. De hecho, la historia misma tiene presente a las artesanías desde el que el mundo es mundo. Por lo mismo esta forma de trabajo se ha convertido en la esperanza de progreso de muchas personas que prefieren este tipo de artículos a los del sector industrial, ya que se cree que es una gran oportunidad para impulsar las culturas de los países para trascender y perpetuarse. La artesanía no solamente es un arte tradicional que mejoró la calidad de vida de los antepasados, sino que puede mejorar la vida de la gente de hoy en día con productos que no comprometen a la naturaleza. La gran mayoría de los países de América Latina son grandes creadores artesanales.

Revista Científica

167


Figura 2. Chinelos de hoja de maíz.

Los artesanos contemporáneos aprenden a través del estudio de técnicas y diseños primitivos, así como del trabajo de otros profesionales; por lo regular, son técnicas que pasan de generación en generación. Las artesanías del estado de Morelos son variadas, ricas en colores, texturas y formas, verdaderas obras de arte, siendo su elaboración y comercialización un factor económico importante en el desarrollo de la región. Generalmente, cada población se especializa en la elaboración de sus artesanías con diferentes materiales. Morelos cuenta con una amplia riqueza en artesanías realizadas por manos de experimentados artesanos que crean exquisitas obras de arte y se caracteriza por contar con estilos que solo es posible encontrar en este Estado.

Figura 3. Cerámica de la Colonia 3 de Mayo, en Emiliano Zapata, Morelos. Jantetelco.- Cuexcomates de diversos tamaños (para guardar granos como el maíz). Huajintlán, Amacuzac.- Maracas de huaje.

El turismo en México Las personas que están mayormente interesadas en adquirir productos tradicionales de un país o lugar en particular son los turistas. El turismo es un importante fenómeno mundial y su importancia radica en que se ha revelado como una actividad de gran dinamismo económico y capacidad de recuperación. En los cuadros siguientes se muestra la cuota de mercado por regiones de los turistas internacionales.

Existen varios tipos de artesanía que se destinan al ornato ya sea doméstico o personal, para las tradiciones ceremoniales y las actividades económicas. En diferentes pueblos, las artesanías se elaboran de acuerdo con sus actividades y las características de su entorno. Las actividades económicas más importantes son la agricultura y la ganadería; para la primera, se trabaja el hierro forjado, en la manufactura de los instrumentos para la roza y corte de caña. En esta rama sobresalen los productores de Jojutla y Cuautla. Para el uso ceremonial y festivo se elabora alfarería, esta en ocasiones es dedicada exclusivamente a la cerámica para ritual: cerería, papel picado, mascarería, metalistería y pirotecnia, lo cual se da en llamar artesanía ceremonial. Su producción sobresale en las comunidades de Tlayacapan, Tepoztlán y Axochiapan. Hueyapan tiene una gran tradición en el tejido de lana pura para la confección de vestimenta de uso cotidiano como chincuetes, rebozos, gabanes y fajas. También, una artesanía local muy importante en cada una de estas comunidades son los arreglos de flores naturales para sus diferentes fiestas religiosas, como son los xochimamastles de Xoxocotla. Entre los principales productos por región encontramos: Tlayacapan.- Productores de artesanías de barro, como las ollas de cuatro orejas figuras decorativas, además de muebles de hierro forjado y madera. Ocotepec en Cuernavaca.- Muebles rústicos de madera, ollas y macetas de barro. Centro de Cuernavaca.- Artesanías en plata, prendas de manta, figuras en madera, collares y pulseras, etc. Tepoztlán.- De entre todas sus artesanías destacan las casitas de espina de pochote, cuarzos, teponaztles (tambor prehispánico) y palos de lluvia. Tlaltizapán.- Figuras de madera y prendas de vestir de manta. Hueyapan.- Tejidos de lana teñidos a mano. Tabla 1. Actividad turística. 168

Revista Científica


Como se puede apreciar en las tablas, México ocupa el décimo lugar a nivel internacional con más de 29.3 millones de llegadas de personas extranjeras, según los datos publicados por la Organización Mundial del Turismo. El gasto que el turismo desembolsa en el país corresponde a 9.6 millones de dólares, ocupando el puesto número 30 a nivel mundial. En cuanto al turismo interno, se realizan 165.5 millones de viajes al año. México tiene un mercado propio muy grande, que gasta en 62.0 millones de pernoctas, por lo que el turismo doméstico debe ser atendido con estrategias que permitan dinamizar la economía regional y que estos mexicanos que buscan descanso, recreación y disfrute de las riquezas del país sea el objetivo principal para compensar con mejores políticas, planes, estrategias, inversión, etc.

Los proyectos de inversión Un proyecto de inversión es un plan que, si se le asigna determinado monto de capital y se le proporciona insumos de varios tipos, producirá un bien o un servicio útil a la sociedad (Baca Urbina, 2006).

Un proyecto (del latín proyectos) es un conjunto de actividades coordinadas e interrelacionadas que intentan cumplir con un fin específico. Por lo general, se establece un período y un presupuesto para el cumplimiento de dicho fin, por lo que se trata de un concepto muy similar a plan o programa. La estructura de la preparación y presentación de proyectos de inversión comienza con una idea. Cada una de las etapas siguientes es una profundización de la idea inicial en conocimiento, investigación y análisis. La última parte del proceso es la cristalización de la idea con la instalación física de la planta, la producción del bien o servicios y la satisfacción de la necesidad humana o social, que fue lo que dio origen a la idea y al proyecto, buscando analizar en forma sistemática un conjunto de antecedentes, principalmente económicos, que permitan juzgar cualitativa y cuantitativamente las ventajas y desventajas de asignar recursos a una determinada idea. Finalmente, la evaluación de un proyecto de inversión tiene por objeto conocer los aspectos de análisis más significativos de los estudios de mercado, técnico, organizacional y financiero, de tal manera que asegure resolver una necesidad humana de forma eficiente, segura y rentable. Solo así es

Tabla.2. Movimiento turístico en México. posible asignar recursos económicos a una alternativa de inversión.

Metodología Para la realización del proyecto de inversión se realizaron las siguientes actividades: • Una vez planteada la idea, se estableció contacto con algunos productores de artesanías de la región oriente del estado de Morelos, con la finalidad de determinar su interés en nuestra propuesta, planteando las ventajas y problemática para ambas partes. • Se procedió a realizar el estudio de mercado, considerando como mercado meta principal a los turistas que visitan Cuautla los fines de semana o en periodos vacacionales, para tal efecto se consideró la información proporcionada por la Secretaría de Turismo y el Instituto Nacional de Estadísti-

ca y Geografía (INEGI).

+ Cálculo de la población total: Morelos recibe anualmente un millón 302 mil 052 de turistas nacionales y extranjeros, de los 22 millones 228 mil 861 turistas que recibe la zona centro del país. Las ciudades con mayor afluencia turística en Morelos son Cuernavaca con un 38% y Cuautla con un 30% del total de visitas. Por lo que la población turística de Cuautla = 1’302,052 * 30 % = 390,616 personas.

+ Con este dato, se procedió a la determinación de la muestra con un porcentaje de confiabilidad del 95 % dando como resultado 382 personas a las que se les aplicó la encuesta.

+ De igual forma, se realizó un análisis de la oferta en la localidad, con la conclusión de que existe poca competencia directa. +

Con la finalidad de obtener apoyos financieros para llevar a cabo la

Revista Científica

169


idea se trabajó con el Centro de Innovación e Incubación Empresarial del Instituto Tecnológico de Cuautla para formalizar el proyecto y poder contar con los apoyos de la Secretaria de Economía.

+ Como un respaldo a la idea se estableció contacto con el Director de Turismo del municipio de Cuautla, Lic. Gustavo Díaz Villa, a quien se le planteó la idea mostrándose interesado en el desarrollo de la misma y de la cual se puede resumir: Durante el tiempo que lleva trabajando el Lic. Díaz Villa, ha notado la falta de reconocimiento a la labor de las manos morelenses por lo que ha iniciado la creación de proyectos y un comité que ayuden a dar reconocimiento al turismo histórico en la ciudad de Cuautla, el cual estará formado por hoteleros, restauranteros, spas, artesanos y los balnearios. El funcionario sugirió algunas dependencias a las cuales se podía acudir para solicitar un financiamiento, porque le parece que es un buen proyecto con capacidad de viabilidad y rentabilidad.

Resultados de las encuestas Las principales respuestas a las 382 encuestas aplicadas a personas que transitaban en la zona centro de Cuautla son:

+

blica.

Un 66 % de los encuestados procedían de otros estados de la repú-

+ El 74 % se mostró interesado en las artesanías del estado y del 26 % restante un 12 % no las conocía.

+ El 78 % se mostró interesado en que se estableciera una tienda de artesanías en la ciudad, manifestando no haber ubicado este tipo de establecimientos. + Para un 66 % el mejor punto para establecer Amantoli sería la zona centro y están de acuerdo en las ventas en línea.

Lo anterior permite determinar la aceptación del proyecto por el mercado meta, lo que permitió continuar con los siguientes estudios del proyecto, considerando como el canal de distribución adecuado: artesano – Amantoli – cliente, situación que además permitirá ofrecer precios accesibles a los productos a la vez que se garantiza la calidad de los mismos.

guientes:

+ +

Se recupera la inversión inicial en tres años y cuatro meses.

+ +

Se obtiene utilidad a partir del primer año.

Se tiene $ 0.20 centavos como margen de utilidad por cada peso que se vende, aproximadamente. La empresa tiene suficiente liquidez para pagar sus gastos y seguir invirtiendo.

Conclusiones El interés en la realización y posterior puesta en marcha del proyecto está basado en los beneficios aportados, no solo a los interesados de manera directa, sino también a la integración regional en los siguientes aspectos:

+ Sociales: Incorporar a la formalidad a los productores de artesanías, aprovechando los beneficios fiscales que se ofrecen para esta rama y propiciando que ellos a su vez puedan tener acceso a diversos programas que mejoren su productividad y, en consecuencia, les permitan continuar desarrollando su actividad con un mejor nivel de vida.

+ Económico: Iniciando con la generación de autoempleo para los participantes y posteriormente creando fuentes de empleo. De manera adicional el apoyo a los artesanos mediante acuerdos con los talleres fabricantes y la distribución de los productos a un precio accesible para los consumidores. En el mediano/largo plazo cubrir la demanda local e incursionar en los mercados internacionales. + Turísticos: Dar a conocer los atractivos turísticos que ofrece el estado de forma que se genere una mayor derrama económica.

+ Cultural: Reconocimiento a la labor de los artesanos morelenses preservando la herencia y tradiciones culturales.

Bibliografía

Para determinar el stock necesario se tomará en consideración la estimación de la demanda, la capacidad de producción de los artesanos con los que establecerán convenios de compra-venta y los tiempos de elaboración de cada uno de los productos.

+ Baca Urbina, Gabriel (2006). Formulación y evaluación de Proyectos. México: Editorial McGraw Hill ISBN:9786071509222.

Dentro del estudio organizacional inicialmente se contará con una estructura organizacional, compuesta por los socios de la empresa, y en lo referente a trámites, estos no resultan complicados, ya que comprenden registro ante el Sistema de Administración Tributaria (SAT) y ante las autoridades municipales fundamentalmente.

+ Del Cerro, Juan Francisco (2006) ¿Qué es el emprendimiento social? Editorial NEISA. ISBN: 9786078511174.

Para finalizar el estudio se hizo necesario determinar la viabilidad financiera del proyecto, considerando esta como la capacidad de la organización para mantenerse operando en el tiempo. En las empresas, la viabilidad está íntimamente ligada con su rentabilidad, aun cuando la viabilidad no necesariamente implica que se sea rentable. Usualmente hay periodos de tiempo en los que las empresas no son rentables como lo son en los periodos iniciales de un emprendimiento, ya que la empresa debe incurrir en costos que otorgan beneficios en el futuro, como la publicidad, costos de organización, compra de stock de materiales, etc; sin embargo, debe haber una expectativa de obtener beneficios en el futuro. En este caso, el estudio financiero establece que la empresa será capaz de sortear los periodos de rentabilidad negativa sin incurrir en cesación de pagos, y estimar en qué momento la rentabilidad será positiva y la relación entre la rentabilidad y el capital invertido o los activos.

+ Sapac, José Manuel (2013). Preparación y Evaluación de Proyectos. México: Editorial McGraw Hill. ISBN: 9786071511447. + http://www.elfinanciero. com.mx/nacional/pena-encabeza-acuerdo-pra-formalizar-a-cerca-de-millones-de-artesanos.html

+ Periódico La Jornada, Jueves 16 de junio de 2016, p 12. + http://www.asiesmimexico. mx/es/morelos/artesanias/artesania-de-morelos/ + http://www.inegi.org.mx/ est/contenidos/proyectos/cn/tur/ default.aspx + http://turismo.morelos.gob. mx/search/node/TURISMO%20 EN%20MORELOS + http://statistics.unwto.org/ es/content/anuario-de-estadisticas-de-turismo

+ http://www.morelosturistico.com/espanol/pagina/z_66_ Nuestro_Arte_Morelense.php

Los resultados de los estados financieros presupuestados son los si170

Revista Científica

5


Revista CientĂ­fica

171


MODELO TEÓRICO - METODOLÓGICO PARA EL DESARROLLO DE NUEVOS PRODUCTOS EN MICROEMPRESAS Elia Trejo Trejo1 y Natalia Trejo Trejo2

Universidad Tecnológica del Valle del Mezquital, Carretera Ixmiquilpan-Capula Km. 4, Colonia El Nith, Ixmiquilpan, Hidalgo, C.P. 42300. 1,2

etrejo@utvm.edu.mx ntrejo@utvm.edu.mx

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Mayo 28, 2017.

Resumen: Entre las diversas estrategias que utiliza la industria alimentaria para hacer frente a las variaciones del entorno, destaca el diseño o desarrollo de nuevos productos, constituyéndose como una actividad fundamental. Sin embargo, las microempresas no cuentan con un proceso metodológico para desarrollar nuevos productos, por lo cual dicha actividad puede ser costosa y arriesgada. En la investigación, de corte teórico, se propone un modelo de operación para el desarrollo de nuevos productos, cuyo pilar es contar con un equipo que trabaje de forma colaborativa y multidisciplinaria. La propuesta para el desarrollo de nuevos productos se divide en cinco etapas, en donde al término de cada una de ellas, y para continuar con la siguiente, se debe verificar su cumplimiento, adoptando el enfoque de Stage-Gate. El modelo propuesto puede ser adoptado por cualquier microempresa sin importar su giro, siempre que se garantice la parte organizacional de la misma.

+

Palabras clave: Desarrollo de nuevos productos, trabajo colaborativo y modelo.

Aceptado: Junio 21, 2017.

Abstract: Among the various strategies used by the food industry to address variations emphasizes the design or development of new products, becoming a fundamental activity environment. However, microenterprises do not have a methodology to develop new products so that activity can be costly and risky process. In research a methodological process

172

Revista Científica


whose pillar is to have a team working in a collaborative and multidisciplinary proposed. The proposal for the development of new products is divided into five stages where at the end of each, and to proceed to the next, verify compliance, adopting the approach of Stage-Gate. The model of development of new products can be adopted by any micro enterprise regardless of its rotation provided the organizational part of it is guaranteed.

+ Keywords: new product development, collaborative work and model.

Introducción En un contexto cada vez más competitivo, las pequeñas y medianas empresas tienen la necesidad cada vez más de mejorar sus procesos y productos para permanecer en el mercado. Una manera de hacerlo es mediante el diseño y desarrollo de nuevos productos. Expertos señalan que el desarrollo de nuevos productos es una actividad que pueden hacer las empresas directamente en sus propios laboratorios o bien, firmar contratos con investigadores independientes y/o consultores especializados. En ambos casos se debe considerar que el desarrollo de nuevos productos constituye una inversión para la empresa (Serrano y Serrano, 2005). El desarrollo exitoso de nuevos productos exige que la empresa establezca una organización eficaz para administrar el proceso de desarrollo de nuevos productos, por lo cual se deben aplicar las mejores herramientas y conceptos analíticos en cada etapa del proceso de desarrollo de nuevo producto. A pesar de que las pequeñas y medianas empresas están conscientes del riesgo que supone el no desarrollar nuevos productos, difícilmente realizan esta actividad, dado que no cuentan con un proceso metodológico que los guíe, primero en el conocimiento del mercado y segundo, en el desarrollo técnico del producto. En atención a lo anterior, se propone un modelo para el desarrollo de un nuevo producto enfocado específicamente a las microempresas del sector alimentario. Es importante destacar que la propuesta solo está enfocada a la obtención del nuevo producto; es decir, no se incluye el estudio de mercado etapa necesaria para garantizar el éxito del nuevo producto. Destaca la necesidad de referir que dicho modelo se ha puesto a prueba en la industria alimentaria, con microempresas del giro de lácteos, razón por la cual se hace referencia en cada una de las etapas a procesos asociados con dicha industria. Sin embargo, por condiciones de espacio, solo se reporta el modelo para el desarrollo de nuevos productos.

Teorías para el desarrollo de nuevos productos

Desarrollo de nuevos productos

Una de las maneras que tienen las pequeñas empresas del giro alimentario para permanecer en el mercado es incorporando a sus procesos la innovación, razón por la cual apuestan al desarrollo de nuevos productos. No obstante, si no se cuenta con un proceso metodológico que los guíe, es posible que el nuevo producto no cumpla con las expectativas del merca-

do y por tanto llegue a con su objetivo. En ese sentido, Chase y Aquilano (1994) refieren que una de las decisiones que se deben adoptar a largo plazo en las empresas es el diseño y desarrollo de productos. Asimismo, Dixon (1990) y Prida (1995) coinciden en señalar que el diseño de productos desempeña un papel clave en la competitividad de la empresa, por lo cual se debe tener cuidado en adoptar metodologías correctas. Aunado a lo anterior, Gomes, De Weerd-Nederbof, Pearson y Cunha (2003) sugieren que el desarrollo de un nuevo producto es uno de los procesos organizativos más complejos, dado que requiere la capacidad de obtener, procesar e interpretar gran cantidad de información, para desarrollar ideas de producto y evaluar sus límites técnicos, posibilidades de fabricación y viabilidad económica, de ahí que no sea trivial la imperiosa necesidad de saber el cómo desarrollar nuevos productos. En este punto es importante aclarar que el desarrollo de nuevos productos no es el único término para describir el proceso por el que un nuevo producto se diseña. Dependiendo de la disciplina, a partir de la cual se considere el término, es posible encontrar “desarrollo de nuevos productos” en marketing y dirección, “innovación” en I+D, y “diseño” en ingeniería (Craig y Hart, 1992; Tushman y Nadíer, (1986). Clark y Fujimoto (1989, 1991), y Clark y Wheelwright (1992) consideran el proceso de desarrollo como un conjunto de actividades de procesamiento de información que trasladan el conocimiento de las necesidades del consumidor y oportunidades tecnológicas en información con valor para la producción. Para la investigación se adoptan las ideas de Clark y Fujimoto adecuándose al concepto de diseño desde el punto de vista de la ingeniería; es decir solo se abordan los procesos inherentes al desarrollo técnico del prototipo (nuevo producto).

Sobre los métodos para desarrollo de nuevos productos

En la literatura se reportan diversas tipologías de procesos de desarrollo de nuevos productos, entre ellas la que distingue entre procesos de tipo tradicional, flexible y basados en el conocimiento (Nonaka y Takeuchi, 1995). Otra de las tipologías más extendidas es la que diferencia entre procesos de primera, segunda y tercera generación (Cooper, 1994). El tipo de proceso seguido está condicionado por ciertos rasgos organizativos: el interés por la innovación, la descentralización y la experiencia previa en desarrollo de nuevos productos favorecen el desarrollo de procesos con alta orientación al mercado (segunda y tercera generación). En relación con lo anterior, Salvato (2009) enfatiza que, sea cual sea el tipo de proceso seguido por la empresa para desarrollar nuevos productos, este evolucionará a lo largo del tiempo. Es probable que exista un modelo de desarrollo de nuevos productos, con una secuencia de actividades bien definida, pero difícilmente alguno de los proyectos lo seguirá de forma exacta. Las aportaciones de los participantes provocarán variaciones sobre el tipo ideal, y si la dirección las considera útiles, las incorporará al proceso con el fin de mejorarlo. En consecuencia y de forma general, los métodos de desarrollo de nuevos productos son herramientas que proporcionan un plan de ayuda para las empresas y organizaciones, con el fin de desarrollar con éxito nuevos productos o actualizar los ya existentes, mediante una serie de pasos lógicos. Este plan comienza con el proceso de generación de la idea y finaliza

Revista Científica

173


con el lanzamiento del producto al mercado. En atención a lo anterior, es claro que para garantizar la permanencia de las pequeñas y medianas empresas, del giro alimentario, es necesario innovar en sus productos y para ello es indispensable contar con un método de desarrollo de nuevos productos; en consecuencia, se entiende que las microempresas que mejor sepan llevar a cabo el proceso de desarrollo de nuevos productos destacarán claramente sobre el resto, y no sólo en relación a la reducción del tiempo de espera para lanzar el producto al mercado, sino también en el uso efectivo de los escasos recursos internos.

La investigación propuesta es de carácter teórico, dado que se reúnen elementos de diversas hipótesis para proponer un modelo de desarrollo de nuevos productos, adoptados a las condiciones particulares de las pequeñas y medianas microempresas del sector agroalimentario. En consecuencia, se propone el modelo y se describen cada una de sus etapas.

Entre las diferentes aproximaciones teóricas que abordan el desarrollo de nuevos productos se distingue la propuesta por Clark y Fujimoto (1991), que identifican cinco fases sucesivas pero coincidentes del proceso: a) Generación del concepto, en la que los diseñadores y los encargados de planificar el producto definen el carácter de este desde la perspectiva del consumidor; b) Planificación del producto, en la que el concepto se traslada a un diseño detallado y específico, incluidas las especificaciones importantes, elecciones técnicas y objetivos de costos; c) Ingeniería del producto, en la que los planes de producto se transforman en planos o dibujos, más tarde en prototipos y finalmente en piezas y componentes reales; d) Ingeniería de proceso, en la que se desarrollan las herramientas de fabricación del producto y se determinan los flujos de materiales, la planta de diseño, la organización del trabajo y las tareas; e) Proceso de producción, en la que se fabrican y se montan los productos finales para el cliente final.

Para garantizar el éxito en el desarrollo de nuevos productos, en la presente investigación, se apuesta al trabajo organizacional del equipo que constituye a la microempresa. Lo anterior, dado que la mayoría de las microempresas del sector alimentario cuentan con al menos cinco trabajadores multifuncionales, incluido el gerente. Precisando que al referirnos a trabajadores multifuncionales se debe entender que una sola persona puede realizar funciones del área administrativa, contable, producción o ventas, por dar un ejemplo.

El proceso de desarrollo de nuevos productos finaliza con el retorno a las fases de ingeniería de producto y de proceso, para llevar a cabo una fabricación en serie. Saren (2004) identifica las actividades en un modelo que permite analizar la innovación de manera más precisa. Es decir, los procesos se pueden dividir en otras actividades, identificándose como actividades básicas del modelo: a) Generación de ideas, usando varias fuentes; b) Desarrollo de la idea o solución del problema, invención; c) Implantación, llevar la solución al mercado, envolviendo desarrollo de tareas desde diferentes percepciones (ingeniería, producción y mercadeo, por mencionar algunas) para que la solución se desarrolle de una manera más objetiva. Por otro lado, Cooper (1994) propone el método de etapa-puerta (Stage-Gate) que comienza con la generación de una idea hasta el lanzamiento del producto. Consta de un número de etapas, y cada etapa se basa en diversas actividades paralela que han de finalizarse con éxito antes de pasar a la siguiente etapa. La entrada a cada etapa se llama “puerta” (que son, normalmente, reuniones de control del proceso y los servicios). En cada puerta se determina si el proyecto/producto progresa adecuadamente para llegar a la siguiente etapa o fase. En concreto, en el método Stage-Gate se establecen cinco etapas: prospección (se lleva a cabo una investigación preliminar referida a cada idea generada para seleccionar algunas); definición del modelo de negocio (se efectúa una investigación más minuciosa para definir y justificar el producto); desarrollo (se establece el diseño y desarrollo del nuevo producto y su plan de producción y lanzamiento al mercado), prueba y validación (se lleva a cabo una prueba extensa del nuevo producto, lanzamiento.

Entonces, si en las microempresas, los recursos económicos, humanos, financieros y tecnológicos son escasos y el personal es multifuncional, para el diseño de nuevos productos, se apuesta por una propuesta en el que todo el equipo trabaje de forma colaborativa y multidisciplinaria desde el inicio. En este proceso el cliente y sus necesidades, cobran importancia, desde etapas tempranas para conocer sus puntos de vista y sus necesidades. Asimismo, se busca que el diseño de nuevos productos sea una respuesta rápida y eficaz para garantizar el cumplimiento de las necesidades del mercado.

En la investigación se han integrado elementos de estos tres autores para establecer una propuesta de metodología, aplicada en las microempresas del giro alimentario, para el desarrollo de nuevos productos sin olvidar los señalamientos de Salvato (2009).

174

Descripción del modelo propuesto

Revista Científica

Propuesta de modelo de desarrollo de productos

Debido a lo anterior, las microempresas del giro alimentario no cuentan con un departamento de investigación y desarrollo de nuevos productos que investigue a profundidad “ideas brillantes” y las comunique al departamento de producción para que las convierta en algo que posteriormente oferte el departamento de ventas; en consecuencia, no se puede aplicar un modelo secuencial de desarrollo de producto.

Con base en lo anterior, la propuesta metodológica para el desarrollo de nuevos productos en una microempresa se establece, como se había indicado previamente, tomando elementos de Saren (2004) y Clark y Fujimoto (1991) y Cooper (2001). Antes de explicar el modelo para diseño de productos se destaca que para que este proceso tenga éxito las microempresas deben tener claro que esta actividad es clave y que debe integrar el conocimiento sobre lo que los clientes requieren y lo que puede producirse eficientemente, además de generar una oferta que sea coherente con los otros productos de la organización su imagen y su estrategia. Una vez definido lo anterior, se debe tener claridad sobre las características del equipo de trabajo y su compromiso en el proceso. En ese sentido, el trabajo de equipo encargado del desarrollo de productos, facilita su actividad clarificando aspectos fundamentales sobre la microempresa, tales como: a) su origen y hacia a dónde se dirige; b) cuáles son sus estrategias y políticas, cómo llegar a donde se quiere ir; c) debe haber funciones y responsabilidades claramente definidas; d) qué proceso metodológico habrá de utilizarse para hacer las cosas, el cual debe ser


flexible, y e) se deben conocer las herramientas de trabajo físicas e intelectuales con las que cuenta la microempresa. Es importante destacar que el modelo para desarrollo de productos está organizado por etapas de trabajo, que abarcan desde la definición estratégica hasta el fin de vida del producto. Cada etapa persigue objetivos específicos, busca evitar la improvisación y disminuir el margen de error a través de la creatividad y el control. El modelo es flexible y habrá etapas que pueden desarrollarse simultáneamente, lo que está en función del tipo de microempresa que lo adopte y sus estrategias internas de trabajo (Figura 1).

Figura 1. Modelo de desarrollo de productos para microempresas. Fuente: Adaptación de Saren (2004), Clark y Fujimoto (1991) y Cooper (2001).

Revista Científica

175


Como se observa la Figura 1, el modelo de desarrollo y/o diseño de productos esta constituido de cinco etapas, concebidas como un proceso en el que se tienen aspectos clave que alimentan al proceso (entradas), se da cumplimiento a los objetivos a través de las acciones (proceso) y se tienen resultados concretos (salida) que se evalúa antes de dar continuidad a las siguientes etapas (Stage-Gate). Este proceso ha sido construido para aquellos equipos de trabajo colaborativo que no cuente con un proceso sistemático para el desarrollo de productos o que cuenten con poca o nula experiencia en esta actividad. Si el equipo es altamente funcional y tienen una historia de trabajo colaborativo, entonces pueden realizar actividades simultaneas, sin olvidar verificar los controles en cada etapa. Las etapas que describen al modelo para el desarrollo de productos, propuesto para las microempresas del giro alimentario, se describen a continuación.

a) Detección de una necesidad, en donde el conocimiento de los procesos, de la industria alimentaria y de las necesidades de los consumidores juegan un papel importante para poder identificar claramente la necesidad a atender, que puede ir desde mejorar el aprovechamiento de materia prima, reducción de mermas y ampliar la gama de productos a ofertar, entre otras. El objetivo de esta etapa es detectar el segmento de mercado, y en consecuencia se obtiene una oportunidad de negocio. b) Generación de una idea para un nuevo producto alimenticio. Es importante reconocer que las ideas de nuevos productos pueden proceder de varias fuentes, tales como los clientes, científicos, competidores, personal dedicado a las ventas dentro de la microempresa, algún miembro del canal de distribución, del gerente o dueño de la microempresa. El equipo de trabajo debe reunirse para evaluar las diversas ideas, cumpliendo criterios como alineación estratégica, viabilidad y/o ajuste con las políticas de la microempresa. La pertinencia y evaluación de las ideas se puede realizar mediante técnicas comunes, como lluvia de ideas, benchmarking, relación de atributos, relaciones forzadas, análisis morfológico, filtrado de ideas, etc., Al igual que la etapa anterior, esta es rápida y económica en términos de mercado, tecnología y finanzas, sólo habrá que cuidar que el equipo de trabajo cuente con un conocimiento profundo, por experiencia o formación, del medio que rodea a la microempresa (sector, mercado, consumidor, novedades científicas, tecnológicas, avances en envases y tecnologías de procesado de alimentos, por mencionar algunos). En esta etapa es preciso tener claro que la “idea de un producto” es un producto posible que la microempresa podría ofrecer en el mercado. En consecuencia, en la etapa tres se desarrolla el concepto y la imagen del producto, entendiéndose el primero como una versión elaborada de la idea, expresada en términos comprensibles para el consumidor, mientras la imagen de un producto corresponde al producto real o potencial que se oferta al consumidor. Tener la idea no es suficiente, el equipo debe tener la capacidad de cristalizarla en un prototipo a la par que desarrolla un plan de negocios que sustente la factibilidad comercial, toda vez que la factibilidad técnica se ha de demostrar en la siguiente etapa.

c) Desarrollo técnico del producto o definición técnica del producto. Esta etapa consiste en el desarrollo real del producto; por lo tanto, el resultado es un prototipo. En esta fase es importante conocer y evaluar las materias primas para

176

Revista Científica

poder realizar la definición de la formulación del producto, el proceso tecnológico a aplicar y el proceso de envasado, así como determinar las características que pueden influir en la conservación. Desde luego, el conocimiento de las normas aplicables al proceso y al producto es medular durante esta etapa. Este periodo es de suma importancia para las microempresas, sobre todo para las del sector alimentario, ya que es justamente en ella en la que se habrá de garantizar la calidad e inocuidad del prototipo. Por esta razón, se ha dividido en cuatro fases que se detallan en seguida:

+ Desarrollo de formulaciones y procesos: se evalúa la necesidad de desarrollar la formulación y se analiza si se requieren modificar los procesos de producción de la microempresa, adquisición de nuevos equipos, etc. + Estudios complementarios para garantizar la calidad e inocuidad del nuevo producto, en esta etapa es importante garantizar que el nuevo producto cumpla con las normas aplicables a la calidad fisicoquímica y microbiológica; además, son importantes los estudios de análisis sensorial para determinar la preferencia por los consumidores del nuevo producto. + Diseño del envase: encaminado a mejorar la durabilidad, preservar la calidad y conservación el producto; sin olvidar, que el envase influye directamente en el marketing del producto. Por lo tanto, es necesario conocer los materiales de los envases, sus propiedades, los diversos diseños, los procesos de fabricación y los sistemas de envasado. El resultado de esta fase es la presentación comercial del prototipo, incluyendo el etiquetado del producto en estricto apego a la normatividad correspondiente. + Estudios de vida de anaquel: es importante que el equipo de trabajo establezca las técnicas para determinar la vida de anaquel del producto y los métodos de conservación y manejo del mismo. La etapa de desarrollo del prototipo es la respuesta a la pregunta de si es posible traducir la idea del producto en un producto factible, desde los puntos de vista técnico y comercial. Es una etapa costosa en términos económicos, financieros y humanos, puede tomar días o meses; por tanto, las microempresas deben ser efectivas y dominar las técnicas que permitan obtener productos con la calidad e inocuidad que demanda el mercado, pues de la velocidad de respuesta de la microempresa en obtener nuevos productos dependen sus posibilidades de permanecer en el mercado.

d) Desarrollo del prototipo: estableciéndose todos los parámetros de proceso y formulación. Esta etapa es previa al lanzamiento al mercado, por lo cual es la última oportunidad de realizar cualquier tipo de ajuste de las características del producto o proceso. Debe estar acompañada de una validación por parte del consumidor y una promesa de compra, cobrando importancia los test de productos y los estudios de aceptación y preferencia. El resultado de esta etapa es garantizar que el desarrollo del nuevo producto es consistente con lo especificado en la etapa anterior. Se deben cuidar las pruebas internas de calidad e inocuidad, las pruebas de mercado con clientes y las producciones de prueba.


e) Escalamiento a nivel industrial: una vez que se tiene el nuevo producto, como prototipo, se procede a establecer las estrategias técnicas y metodológicas para realizar la producción a nivel comercial, por lo que vuelve a cobrar importancia el conocimiento del mercado, el proceso y cómo se manejará en el mercado al producto. El resultado de esta etapa es hacer una revisión final para comparar los resultados esperados con los reales, poniendo especial atención en el uso de materia prima, equipamiento, planeación de la producción, etc., Es una etapa importante porque se evalúa todo el proyecto. f) Comercialización: el resultado de esta etapa es el lanzamiento del producto al mercado y es el resultado de las etapas anteriores. El producto se coloca en el segmento de mercado, detectado en la fase inicial, utilizando para ello los canales correspondientes. La comercialización es la última etapa del proceso de desarrollo de nuevos producto, propuesta para las microempresas. Sin embargo, es justamente esta etapa la que permite que el proceso reinicie, es decir, a través de este proceso y el conocimiento del mercado se detectan nuevas oportunidades de negocio y consecuentemente el desarrollo de un nuevo producto, constituyendo esta actividad como un proceso estratégico para la permanencia y crecimiento de la microempresa en su mercado o en nuevos mercados.

Bibliografía

+

Chase, R.B. y Aquilano, N.J. (1994). Dirección y Administración de la Producción y de las Operaciones. 6ta. Edición, Madrid.

+

Clark, K.B. y Fujimoto, T. (1989). Overlapping problema solving in product development, en K. Ferdows (Ed.), Managing International Manufacturing, North-Holland, Amsterdam.

+

Clark, K.B. y Fujimoto, T. (1991). Product Development Performance: Strategy, Organization and Management in the World Auto Industry. Harvard Business School Press, Boston.

+

Clark, K.B. y Wheelwright, S.C. (1993). Managing new product and process development: text and cases, The Free Press, New York.

+

Cooper, R.G. (1994). Benchmarking new product performance: results of the best practices study. European Management Journal, Vol. 16, núm. 1; págs. 1-17.

+

Cooper, G. (2001). Doing right-Winning with New Products, Stage Gate Inc, Product Development Institute.

+

Craig, A. y Hart, S. (1992). Where to now in new product development research?. European Journal of Marketing. Vol 26, núm. 11. pp 3-49.

+

Dixon, J.R. y Duffey, M.R. (1990). The neglect of engineering desing. California Managemente Review, Vol. 32., núm. 2; pp 9-23.

Conclusiones El desarrollo de nuevos productos es una actividad crucial para el crecimiento y prosperidad de muchas microempresas, sobre todo si se tienen en cuenta las condiciones del entorno que le rodea: consumidores más exigentes con necesidades variables, cambios en la tecnología e incremento de la competencia. Para poder hacerle frente, las microempresas deben desarrollar productos con rapidez y flexibilidad. Para el desarrollo o diseño de productos, las microempresas deben contar con un proceso de administración bien desarrollado, dado que el éxito en el proceso se debe a factores tales como: estructura organizacional, recursos destinados a esta función, personal encargado del proceso, métodos para el desarrollo y la estrategia organizacional como elemento diferenciador. El modelo propuesto para el desarrollo de productos se caracteriza por cinco etapas, mismas que pueden flexibilizarse en relación con las características del equipo de trabajo, siendo este último uno de los aspectos clave para su buen funcionamiento.

+

Gomes, J.; De Weerd-Nederbof, P.; Pearson, A. y Cunha, M. (2003). Is more always better? An exploration of the differential effects of functional integration on performance in new product development. Technovation, 23, 185-191.

+

Jelen, P. (2003). Whey processing. Utilization and Products. 2739-2745. In: H. Roginski, J.W. Fuquay and P.F. Fox (eds.). Encyclopedia of Dairy Sciences. Academic Press, London, UK.

+

Nonaka, I. y Takeuchi, H. (1995). The knowledge creating company: How Japanese companies create the dynamics of innovation. New York-Oxford: Oxford University Press.

+

Prida, R.B. y Gutiérrez, C.G. (1995). Logística de aprovisionamientos: el cambio en las relaciones proveedor-cliente, un nuevo desafío para la empresa del siglo XXI. McGraw-Hill, Madrid.

+

Salvato, C. (2009). Capabilities unveiled: The role of ordinary activities in evolution of product development processes. Organization Science, 20(2), 384-409.

+

Saren, M.A. (2004). A classification and review of models of the intra-firm innovation proces. University of Bath, School of management, Calverton Down. Bath, U.K.

+

Tushman, M.L. y Nadler, D.A. (1986). Information processing as an integrating concept in organizational design. Academy of management Rewiew. No. 3; pp. 613-624.

+

Serrano, F. y Serrano, C. (2005). Gestión, dirección y estrategia de desarrollo de nuevos productos. ESIC, Madrid.

Revista Científica

177


RECAUDACIÓN FISCAL COMPARADA MÉXICO - GUATEMALA Alan Alberto Castellanos Osorio1, Alba Rosaura Manzanero Gutiérrez2, Macario González, María Josefina3 y Sandra Ek Sel4

Instituto Tecnológico de Chetumal, Av. Insurgentes, #330, Col. David Gustavo Gutiérrez, Chetumal, Quintana Roo, México. C.P. 77013. 1,2,3,4

manzaneroalba@hotmail.com

Resumen: Derivado de la globalización de los mercados, las empresas realizan comparaciones entre las ventajas fiscales que hay en su región y su alrededor, es por eso que se presenta un análisis comparativo de la recaudación del impuesto sobre la renta del país vecino, Guatemala. Tanto México como la nación centroamericano tienen características similares en economía y desarrollo; por consiguiente, surge la interrogante ¿cuál de los dos países tiene un sistema tributario con mayor recaudación?. Tomaremos en consideración la población, demografía y tipo de cambio, así como la presentación de datos del año 2009 de ambos países. Por otro lado, se presenta las formas de cálculo, las similitudes y diferencias existentes, hasta tener los datos suficientes para concluir e identificar el país que obtiene una recaudación superior y los resultados obtenidos.

+

Palabras clave: Contribución, fiscal, sistema tributario, recaudación y ley ISR.

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Mayo 28, 2017. Aceptado: Junio 21, 2017.

178

Revista Científica

Abstract: Derived of the globalization of the markets, the companies make comparisons between the tax advantages that there are in its region and its around that’s why we present a comparative analysis of the collection from the income tax of Guatemala. Since these two countries have similar characteristics in economy and development, of which the question arises which of the two countries have a tax system with higher revenues? taking into account the population, demographics and the exchange rate,


and the presentation of 2009 data from both countries. On the other hand it will cover the way of calculation presenting the similarities and in its majority differentiate existent, to be sufficient to conclude and identify the country that gets an upper collection and results.

+ Keywords: Tax contribution, tax system, tax collection and tax law. Introducción Toda nación necesita para su desarrollo la obtención de ingresos; sin embargo, su fuente principal es la recaudación de impuestos a través de sus contribuyentes, por lo que es necesaria una base legal que rija el tratamiento específico para su cumplimiento y obligación. Con objeto de estudiar la base de un mismo impuesto, se identificó una misma región de Centroamérica, evocándose al país vecino de Guatemala con respecto a México, a través de la comparación del enfoque dado al Impuesto Sobre la Renta (ISR), en la actividad empresarial de ambos países, considerando el desarrollo económico que se asemeja en ambos países para su comparación, no obstante que existe una diferencia notoria en la extensión territorial, siendo Guatemala dieciocho veces más pequeña, así como la población que representa aproximadamente el 14% del total mexicano. Ahora bien, teniendo la base económica similar y una diferencia significativa en población y densidad, es interesante que el de menor (Guatemala) contribuya más al ingreso del país que el de mayor, aportado por habitante.

Comparación LISR De conformidad con el marco fiscal vigente que corresponde a cada país, se identificó a la Ley del Impuesto Sobre la Renta (LISR) para ambos casos. Por ello, se realizó un comparativo entre los dos sistemas fiscales para poder encontrar similitudes y diferencias entre las cuales se enfocará el contenido de este tema, con el fin de realizar un análisis interpretativo de su LISR que llevan de la mano a un entendimiento. Guatemala, igual que México, hace alusión a los contribuyentes como persona física y persona moral, usando un sinónimo para el segundo término, llamándola persona jurídica, pero en el cálculo no hacen diferencia siendo para ambos el mismo inicialmente, ya que tienen los contribuyentes la opción de elegir tributar en el régimen optativo que la ley de este país provee. Además, una de las diferencias más significativas que convergen en este ámbito fiscal son los tratamientos que se especifican por cada ley; es decir, que en México existen diversos regímenes que se mencionan a continuación:

DE LAS PERSONAS MORALES

+

Régimen general.

+

Régimen simplificado.

+

Régimen con fines no lucrativos.

DE LAS PERSONAS FÍSICAS

+ De los ingresos por salarios y en general por la prestación de un servicio personal subordinado. +

De los ingresos por actividades empresariales y profesionales.

-

De las personas físicas con actividades empresariales y pro-

fesionales.

- Del régimen intermedio de las personas físicas con actividades empresariales. -

Del régimen de pequeños contribuyentes.

+ De los ingresos por arrendamiento y en general por otorgar el uso o goce temporal de bienes inmuebles. +

De los ingresos por enajenación de bienes.

+

De los ingresos por adquisición de bienes.

+

De los ingresos por intereses

+

De los ingresos por la obtención de premios.

+ De los ingresos por dividendos y en general por las ganancias distribuidas por personas morales. + De los demás ingresos que obtengan las personas físicas (Servicio de Administración Tributaria, 2009). Conviene subrayar de que la normatividad aplicable en ambos países, sobresale que en Guatemala ha sido constante desde el año 2006; sin embargo, en México varía y es reformada en cortos periodos. A su vez, en Guatemala solo existen dos tratamientos fiscales considerando como renta la fuente de todo ingreso que haya sido generado por capitales, bienes, servicios y derechos de cualquier naturaleza invertidos o utilizados en el país, o que tenga su origen en actividades de “cualquier índole desarrolladas en Guatemala”, definiendo así un régimen general no importando la fuente de ingreso, con opción de tributar en un régimen optativo, del cual se hablará más adelante (Centro Interamericano de Administración Tributaria, 2013).

Por otro lado, el momento del pago es diferente, ya que en México se presentan mensualmente y en Guatemala trimestralmente.

Revista Científica

179


Deducciones en Guatemala En las sumas que inviertan en la construcción, mantenimiento y funcionamiento de viviendas, escuelas, hospitales, servicios de asistencia médica y salubridad, medicinas, servicios recreativos, culturales y educativos, en beneficio gratuito de los trabajadores y sus familiares, se exceptúa cualquier pago o compensación que los trabajadores efectúen a sus patronos por tales prestaciones, en cuyo caso estos últimos lo restarán de las deducciones. La deducción máxima por este concepto estará limitada, en cada caso, a la suma mayor invertida en beneficio gratuito de los trabajadores, que no sean parientes del contribuyente dentro de los grados de ley, persona individual o del causante en el caso de sucesiones, ni socios de la persona jurídica, sujeto del impuesto. Los intereses sobre créditos y los gastos financieros directamente vinculados con tales créditos, obtenidos en instituciones bancarias, financieras y demás instituciones legalmente autorizadas para operar como tales en el país y que se encuentren sujetas a la vigilancia y supervisión de la Superintendencia de Bancos; los intereses y gastos financieros directamente vinculados con las ofertas públicas de títulos valores inscritos en el Registro del Mercado de Valores y Mercancías; los intereses sobre créditos y los gastos financieros directamente vinculados con tales créditos, obtenidos en Cooperativas de Ahorro y Crédito legalmente constituidas, así como los intereses sobre créditos y gastos financieros directamente vinculados con tales créditos, obtenidos de instituciones bancarias y financieras domiciliadas en el exterior, en todos los casos siempre que dichos créditos sean destinados para la producción de rentas gravadas. El monto deducible por concepto de intereses no podrá exceder al que corresponda a las tasas de interés que aplique la Administración Tributaria a las obligaciones de los contribuyentes caídos en mora. No constituyen gastos deducibles los intereses que se paguen o acrediten a personas individuales o jurídicas que no se encuentren incluidas en el párrafo anterior. Se exceptúan los intereses que las instituciones bancarias, financieras y demás instituciones legalmente autorizadas para operar como tales en el país y que se encuentren sujetas a la vigilancia y supervisión de la Superintendencia de Bancos y las Cooperativas de Ahorro y Crédito legalmente constituidas, paguen a sus cuenta-habientes e inversionistas, así como los intereses que se paguen a los inversionistas de títulos valores inscritos en el Mercado de Valores y Mercancías, los cuales sí constituyen gastos deducibles (Centro Interamericano de Administración Tributaria 2013).

+ Que en el caso de adquisición de mercancías de importación, se compruebe que se cumplieron los requisitos legales para su importación. + Que tratándose de pagos efectuados a comisionistas y mediadores residentes en el extranjero. +

Deducción inmediata de bienes de activo fijo.

Por otro lado, México tiene requisitos muy específicos para poder tener en deducibilidad algunos conceptos como lo son:

+ Tratándose del consumo de combustibles para vehículos marítimos, aéreos y terrestres, el pago deberá efectuarse mediante cheque nominativo del contribuyente, tarjeta de crédito, de débito o de servicios, a través de los monederos electrónicos a que se refiere el párrafo anterior, aun cuando dichos consumos no excedan el monto de $2,000.00 (Ley del Impuesto Sobre La Renta, 2009).

Base gravable En México, la base para determinación de la contribución de la Persona Física se determina con la diferencia entre los ingresos gravados y las deducciones autorizadas; sin embargo, en Persona Moral no tienen aplicación deducciones y es necesario el coeficiente de utilidad, el cual se menciona posteriormente. Para los ciudadanos de Guatemala es la diferenciación de la renta gravada entre las exentas, constituyendo a lo que ellos nombran renta imponible en su régimen general y en el régimen optativo la forma de obtener su renta imponible (base gravable) la deducción de su renta bruta los costos y gastos necesarios para producir o conservar la fuente de estas rentas gravadas, sumando los costos y gastos no deducibles y restando sus rentas exentas.

Cálculo del impuesto En la determinación del impuesto en Guatemala se aplica diferentes tasas tanto para el régimen general y el régimen optativo. El primero consiste en que a la emisión de su factura se les retendrá el 5% aquellos que reciban los bienes o servicios o estos los enteraran personalmente a las cajas fiscales.

Deducciones en México

+ En el caso de intereses por capitales tomados en préstamo, estos se hayan invertido en los fines del negocio. Cuando el contribuyente otorgue préstamos a terceros, a sus trabajadores o a sus funcionarios, o a sus socios o accionistas. + En los casos de asistencia técnica, de transferencia de tecnología o de regalías, se compruebe ante las autoridades fiscales que quien proporciona los conocimientos, cuenta con elementos técnicos propios para ello. + Que el costo de adquisición declarado o los intereses que se deriven de créditos recibidos por el contribuyente correspondan a los de mercado.

180

Revista Científica

Tabla 1. Cálculo con tasa del 5%. La segunda opción se determinará aplicando una tasa del 31% a la renta imponible (base) que se genera de la renta gravada obtenida, menos las deducciones a las que tienen derecho en este cálculo, en periodos trimestrales.


Conclusión

Tabla 2. Cálculo con tasa del 31%.

En las Personas Morales, la base se determina aplicando un coeficiente de utilidad, mismo que se calcula de su utilidad fiscal anual del periodo inmediato anterior entre sus ingresos nominales; de este resultado se le disminuirá, en su caso las pérdidas pendientes de aplicar de ejercicios anteriores y la participación de los trabajadores en las utilidades (PTU) pagada, que a su vez nos proporcionará los ingresos estimados para aplicarle la tasa del 28% (LISR, 2009), por otro lado, las Personas Físicas tienen en sus diversos apartados la aplicación de una tabla específica que la legislación mexicana provee para su seguimiento, así como otro tiene acuerdos con el estado y la federación para el pago de los mismos, uno utiliza para su determinación una cuota establecida, así como cada régimen tiene estipulaciones claras que otros regímenes no pueden aplicar, entre otros. Otro dato sobresaliente dentro esta comparación es el que arroja el CIAT (Centro Interamericano de Administración Tributaria) que en datos de recaudación por cada $100.00 pesos, Guatemala destina $2.47 pesos, mientras que México $0.96 centavos, esto así teniendo Guatemala que gastar un $1.51 más a diferencia de México. Considerando ahora los datos de la población económicamente activa (año 2009) de los países respectivos que en números se presentan a continuación: Habitantes económicamente activos Guatemala 5,769,262 = 41.15% México 46,617,327 = 43.34% Recaudación ISR 2009 (Pesos, tipo de cambio ) Guatemala $ 12,741,904,510.00 México $ 534,190,060,000.00 Es decir, en Guatemala, del total de sus habitantes el 41.15% son Población Económicamente Activos (PEA), con costo de recaudación alto, México es representado con un 43.34% en proporción a su PEA; sin embargo, en los números arrojados en pesos; México sobresale con mayor recaudación obtenida que en Guatemala. Haciendo una comparación promedio de lo pagado por persona activa con los ingresos de cada país, en México se recauda casi cinco veces más.

Considerando lo anterior, es posible decir, que los dos factores de suma importancia para que un país tenga un nivel alto o bajo de ingresos en impuestos, y en este caso del ISR, son las personas que están activas y la tasa o cuota que se le impone para el pago, ya que, haciendo una diferenciación en porcentaje, la recaudación obtenida será en proporción a ella misma. Esto es, que en el caso de Guatemala que resulta tener una recaudación menor al optar en aplicar una tasa del 5% (2009) a una de 31% (2009); en general, los contribuyentes optan por lo que más le conviene como persona jurídica o física, ya que si fuera impuesta solamente una tasa del 28% en Guatemala, quedaría similar a la de México, resultando así un rango aproximado de contribuciones representadas por persona activa.

Bibliografía

+ Ley del Impuesto Sobre

La Renta 2009.

+

Centro Interamericano de Administración Tributaria (2013). Recuperado de file:///C:/ Users/Sandra/Downloads/ LeyISRyReglamentoConcordado20.pdf

+

Centro Interamericano de Administración Tributaria (2013). Recuperado de http:// www.ciat.org/index.php/es/ productos-y-servicios/ciatdata/ recaudacion.html

+

Instituto Nacional de Estadística Guatemala C.A. (2013). Recuperado de http:// www.ine.gob.gt/

+ Instituto Nacional de

Estadística y Geografía (2013). Recuperado de http://www.inegi. org.mx/

+

Consejo Nacional de Población (2013). PEA México (2009). Recuperado de http:// www.portal.conapo.gob.mx/ index.php?option=com_content&view=article&id=38&Itemid=236

+

Instituto Nacional de Estadística Guatemala C.A. (2013). Población Total Guatemala (2009). Recuperado de http://www.ine.gob.gt/np/poblacion/index.htm

+

Instituto Nacional de Estadística y Geografía (2013). Población Total México (2009). Recuperado de http://www.inegi. org.mx/est/contenidos/proyectos/ ccpv/cpv2010/Default.aspx

+

Banco de Guatemala (2013). Tipo de Cambio peso-quetzal (2009). Recuperado de http://www.banguat.gob. gt/cambio/historico.asp?ktipo=3&kdia=01&kmes=01&kanio=2009&submit1=Consultar

+

Vector Económico (2013). Producto Interno Bruto (2009). Recuperado de http://vectoreconomico.com.mx/files/pdfs/ r08032010.pdf

+

El banco Mundial (2013). Producto Interno Bruto (2009). Recuperado de http://datos. bancomundial.org/indicador/ GC.TAX.TOTL.GD.ZS

Revista Científica

181


ensenanzaaprendizaje de las

matematicas

UNIVERSITARIAS en la utcj apoyadas con

ipad

tm

Joaquín Godoy Mendoza1, Alfonso Ochoa Meza2, Brenda Leticia Chávez García3 y Gabriela Meléndez Cano4

Universidad Tecnológica de Ciudad Juárez, Ave. Universidad Tecnológica, #3051, Col. Lote Bravo II Ciudad Juárez, Chihuahua, México, C.P. 32695. 1,2,3,4

joaquin_godoy@utcj.edu.mx

Resumen: Sin lugar a dudas la tecnología versátil se ha convertido en el ícono representativo de la presente época y, aunque es verdad que todo proceso productivo de una u otra manera dependen del uso de la tecnología interactiva, lo cierto es que el común denominador de la población la utiliza generalmente para fines de esparcimiento y comunicación sin llegar a darle un verdadero uso de aprovechamiento productivo. Conocedores de este fenómeno en la Universidad Tecnológica de Ciudad Juárez (UTCJ) se está cambiando esa mentalidad utilizando los mini iPad’s de Apple como cuaderno de trabajo en matemáticas, convencidos de que la tecnología tiene un enorme potencial benéfico en el proceso educativo, además de otras muchas más virtudes que el tradicional cuaderno de cuadrícula no puede brindar. La interactividad con la tecnología se ve favorecida por el uso del internet para consultas inmediatas de información y referencias bibliográficas y los softwares para la simulación y la graficación instantánea de las funciones matemáticas, con una gran cantidad de ejemplos variados.

+

Recibido: Mayo 22, 2017. Recibido en forma revisada: Junio 20, 2017.

Palabras clave: Matemática experimental, matemáticas con tecnología, iPads en matemáticas, investigación de matemáticas educativas e innovación matemática.

Aceptado: Junio 21, 2017.

Abstract: Without a doubt the versatile technology has become the re-

182

Revista Científica


presentative icon of our time and although it is true that every productive process in one way or another depends on the use of interactive technology, the truth is that the common denominator of the population uses it generally for the purposes of recreation and communication without actually giving a productive use of it. Knowing this phenomenon at the Universidad Tecnológica de Ciudad Juárez (UTCJ) we are changing that mentality using Apple’s iPad mini as a workbook in mathematics, convinced that technology has enormous potential benefits in the educational process, as well as many other more virtues than the traditional grid notebook cannot provide. The interactivity with technology is favored by the use of the internet for immediate information consultations and bibliographical references and software for the simulation and instantaneous graphing of mathematical functions, with a great number of varied examples.

temas vistos en clase. Como todo cuaderno de notas, el iPad mantiene los apuntes y anotaciones que el alumno hace para su mejor comprensión; en la Tabla 1 se muestran algunas de las comparaciones entre el cuaderno de cuadrícula y el programa de apuntes del iPad.

+ Keywords: Experimental mathematics, mathematics with technology, iPads in mathematics, research in mathematics education, and mathematical innovation. Objetivo Conocer el impacto motivacional y de aprovechamiento académico del iPad como cuaderno escolar versátil para promover el proceso enseñanza-aprendizaje de las matemáticas universitarias en la carrera de Nanotecnología de la UTCJ.

Introducción Históricamente, cada época de la humanidad se identifica por lo relevante de sus avances tecnológicos y científicos. El momento actual se distingue por el avasallante uso de la tecnología interactiva, para la cual las nuevas generaciones han desarrollado grandes habilidades para su uso; estas nuevas generaciones son nativas de esta tecnología, lo que las obliga en cierta forma a convertirse en expertos y a la vez ser dependientes de ella. Sin embargo, la habilidad lograda permea tarde o temprano en lo provechoso y bajo esa óptica se procedió a demostrarlo en la carrera de Nanotecnología de la UTCJ, utilizando mini iPad’s para cada uno de los alumnos en las asignaturas de matemáticas, en concordancia con: La enseñanza se halla inmersa en un proceso de cambio profundo y de renovación de los esquemas didácticos (López-Fernández, 2007). El proyecto de investigación requería que cada estudiante contara con un iPad como su cuaderno personal, donde llevaría a cabo todas sus actividades escolares, las cuales se clasificaron como áulicas y extra áulicas; las primeras son las propias del salón de clases, como son la toma de notas, la resolución de ejercicios operatorios, la representación gráfica de las funciones matemáticas y de los procesos algebraicos. Si bien estas son las mismas características de una clase tipo, ¿cuál sería entonces el valor agregado con el uso de la tecnología versátil? las oportunas consultas bibliográficas, reforzando la explicación del maestro en la clase, la simulación de los procesos algebraicos y de los fenómenos físicos con el acceso inmediato de los programas diseñados con ese propósito, es de gran ayuda didáctica, puesto que los educandos pueden simular una y otra vez haciendo cambios de variables y comprobando qué cambios se suceden con estas actividades, pueden entender de manera clara mediante la interacción con la función matemática y su representación gráfica en tiempo real. Las consultas se llevaron a cabo al instante sin la necesidad de esperar al término de la clase para asistir a la biblioteca y retomar los

Tabla 1. Comparación entre cuaderno de cuadrícula y iPad. Como toda innovación, el iPad es atractivo por lo novedoso en el salón de clases, pero como toda moda corre el riesgo de pasar rápidamente al olvido y convertirse en un artículo escolar común, sin más uso que lo mínimo indispensable, como sucede con las calculadoras que los profesores no han sabido aprovechar apropiadamente en todo su potencial y solo se fomenta que los alumnos las utilicen para resolver operaciones básicas. Pero a favor de las computadoras y en especial del iPad, el empleo por parte de los estudiantes es continuo y generalmente variado, esto las ha convertido en un equipo indispensable de uso cotidiano por su versatilidad y su fácil manejo y quizá -en especial para los educandos- en una expresión liberatoria del cuaderno escolar utilizado forzosamente a lo largo de toda su preparación preuniversitaria. Las opiniones de los alumnos versan en que de permitírseles disponer de sus equipos personales, el aprendizaje se les facilitaría de manera sustancial y entre esos requerimientos lógicamente mencionan sus celulares y sus computadoras. La posición del docente no puede ser más idónea, ya que se encuentra entre las fronteras del saber enseñado a futuro y el saber aprendido al presente, esta posición por demás favorecida le permite conocer de primera mano los requerimientos epistemológicos exigidos por las características reales de su contexto, ¿qué quiere aprender el alumno? ¿cómo lo quiere aprender? Y dentro de esa misma posición, ¿qué nuevos enfoque se están desarrollando tanto a nivel local como internacional? ¿qué nuevas aportaciones ofrecen sus pares en otros puntos del planeta a sabiendas que en todas partes existe un sincero interés por la mejora continua en la educación superior?. En este mismo orden de ideas, Édgar Gómez opina que: la educación superior es uno de los ámbitos relevantes por el fundamento que representan los estudios de licenciatura, los docentes deben considerar los requerimientos que manifiestan sus estudiantes, aprendiendo a escuchar sus opiniones, codificarlas y valorarlas para establecer mecanismos que aseguren el éxito de los estudiantes universitarios (Gómez Bonilla, 2009). Esta demanda se justifica por su deseo de innovación en los modos de enseñanza en el salón de clases, además de un reclamo justo de los saberse naturales de una época altamente tecnificada y para lo cual ellos son los más capaces.

Revista Científica

183


El trabajo diario en el salón de clases ha mostrado la necesidad palpable de crear una ecología propia de la enseñanza la cual -a la fecha- no ha cambiado en gran medida a lo largo del tiempo, sigue siendo un paralelepípedo con pupitres y un pizarrón; pero en honor a la verdad, es propio para el aprendizaje de las matemáticas, las cuales no requieren de una gran infraestructura física, pero sí de una gran variedad de aplicaciones y demostraciones además del acceso inmediato a la información bibliográfica y de referencia a los conceptos a estudiar. La institucionalidad del programa dicta los temas a desarrollar y el maestro, mediante su experiencia y su profesionalismo, prepara las situaciones que le permitirán a los alumnos construir los saberes matemáticos. Esta ha sido la labor docente a lo largo de la historia de la educación y en cada época se requiere adaptar los avances y al contexto histórico, económico y social de los estudiantes, lo que para Savater es: También en otro sentido la educación responde antes a los intereses de los educadores que a la de los educandos. Para que la sociedad continúe funcionando -y este es, en cualquier grupo humano, el interés primordial- es preciso que se asegure el reemplazo en todas aquellas tareas sin las cuales no se podría subsistir (Savater, 1997); de igual manera en el Espacio Europeo de Educación Superior, se hace hincapié de que a los alumnos les interesa más clases dinámicas e innovadoras que las cátedras magistrales. Ahora bien, el trabajo docente no se limita solo a la búsqueda perene de aplicaciones, debe considerar con la misma importancia su momento histórico y la responsabilidad que conlleva su rol en la transformación social. El papel del maestro y las dimensiones que se deben considerar para ejercer la docencia requieren nuevas características para comprenderla. La docencia en los albores del siglo XXI necesita un replanteamiento que permita garantizar los parámetros formativos de los estudiantes, porque hoy más que nunca el docente requiere de un mayor fundamento para participar en los procesos educativos (Gómez Bonilla, 2009). Ya desde ahora se puede presentir que nuestra forma de enseñanza y sus mismos contenidos tienen que experimentar drásticas reformas (Guzmán, 1999). Bajo esta misma perspectiva el trabajo de investigación fue: primero, buscar la innovación en el proceso educativo en el aula aprovechando un recurso por demás socorrido como es la tecnología versátil, y segundo, aceptar que aunque el cuaderno de cuadrícula fue y es uno de los artículos escolares más valiosos para el proceso enseñanza-aprendizaje de las matemáticas, se encuentra en proceso de extinción; aunque difícil de aceptar, debemos entender que es un declive natural y necesario que dará paso a las nueva generación de tecnología educativa, de la misma forma en la que en la década de los veintes, la idea de hacer más fácil y práctico el manejo del material escolar, coincidente con la creciente necesidad de la instrucción pública a la niñez de todo el orbe y los avances tecnológicos permitieron abaratar los costos de la producción del papel, desplazaron consecuentemente a la pizarra y la tiza del salón de clases. Hoy a casi 100 años de esa revolución tecnológica en el aula, en la UTCJ se participa en utilizar el nuevo enfoque tendiente al uso y aprovechamiento de la tecnología electrónica interactiva, como una visión de los nuevos recursos didácticos a utilizar en el salón de clases. Las computadoras y calculadoras son herramientas esenciales para la enseñanza, el aprendizaje y el desarrollo de las matemáticas, estas generan imágenes visuales de ideas matemáticas, facilitan la organización y el análisis de datos, además de realizar cálculos de manera eficiente y precisa. Cuando las herramientas computacionales están disponibles, los estudiantes razonan, enfocan su

184

Revista Científica

atención en los procesos, en la toma de decisiones, son reflexivos y resuelven problemas. El cuaderno de cuadrícula pasará en breve a ocupar una posición especulativa en torno a su permanencia en educación, de la misma forma en que lo hicieron los calculistas y los algoritmistas a finales del siglo XV y la pizarra y el cuaderno en los años veintes como parte de la evolución en los procesos educativos y en la tecnología necesaria para estos procesos. El siglo XX permitió concebir la estructura atómica de manera tan dispar que pareció aberrante y fuera de toda lógica aceptable para el sentido común, por lo que gran parte de los avances científicos y tecnológicos se contrapuntearon con aquello que les dio origen; es verdad que de momento las condiciones no son del todo favorables para que los jóvenes impongan sus preferencias, principalmente su situación económica, mientras que las instituciones son muy cautas para correr los riesgos de la innovación y para los docentes la certeza de su propia educación. Todo cambio genera este tipo de circunstancias, pero sin lugar a dudas, todo cambio se realiza sin las condiciones idóneas; para nuestra investigación, estas adversidades fueron allanadas dando a todos los alumnos del grupo la oportunidad de tener un mismo equipo que puedan utilizar como su propio cuaderno de trabajo, para la institución y para los maestros surge la certidumbre de los resultados a obtener controlando las variables de la desigualdad, para lograr lo posible, hay que intentar lo imposible Herman Hesse (1877-1962).

Metodología Bajo el auspicio de las autoridades en la UTCJ, en su momento se llevó a cabo el estudio del impacto en el proceso enseñanza-aprendizaje de las matemáticas con el apoyo de la tecnología mediante recursos propios de la Institución y del Programa PRODEP; una vez que fue adquirido el equipo, en septiembre del 2015 se realizó la investigación estadística para una muestra de conveniencia -debido a la cantidad de iPad’s adquiridoscon alumnos del grupo NTM-11 de la carrera de Nanotecnología en la asignatura de: Algebra Lineal, con cierta sorpresa los alumnos dan inicio a una clase de matemáticas sin cuaderno de cuadricula, sin lápices, ni borradores; al principio, su inquietud se reflejó en la inseguridad de hacer uso de un equipo nuevo, los comentario aunque muy variados se centraban en la complacencia y el agrado del uso de lo innovativo de la clase. Para diciembre de ese año, al finalizar el cuatrimestre, ya eran expertos en el manejo de los iPad’s y de los programas. La continuidad del programa y de la investigación se llevó a cabo en enero de 2016 con los mismos estudiantes, ahora como alumnos de los grupos NTM-21 y NTM-31 en las asignaturas de Funciones Matemáticas y Cálculo Diferencial respectivamente; sus apuntes anteriores se encontraban a su disposición en la máquina que se había destinado en especial para él o ella desde un principio, ahora la tarea era seguir complementando su compendio electrónico con las matemáticas de la carrera. La decisión de utilizar equipo de la marca Apple se tomó por sus características de arquitectura de 64 bits, batería de capacidad hasta de 10 horas en uso continuo, Wi-Fi de alta velocidad, además de que no se infecta


con virus, es un equipo versátil y de fácil manejo. El programaWólfram para matemáticas aunque es robusto no representa ninguna complicación para su uso y los programas de apoyo los cuales en su mayoría son muy económicos y fáciles de adquirir; técnicamente, es un equipo vanguardista que representa una funcionalidad aceptable. Estas nuevas tecnologías se pueden ver como herramientas que proporcionan, además de las capacidades gráficas, de cálculo y de manipulación simbólica, oportunidades de enseñanza y aprendizaje interactivas dentro del salón de clase. Adicionalmente, al maestro y al alumno les sirve como recurso utilitario de actualización dentro y fuera del salón de clase (Ruiz, 2013). Pero la razón soterrada es la motivacional, es muy atractivo permitir a los estudiantes tener a su disposición para su uso personal en clases un equipo de esta marca, siendo la única o una de las pocas universidades públicas que equipa a cada uno de sus estudiantes con iPads para sus clases regulares de matemáticas. En matemáticas, la cuestión motivacional es de gran importancia, su naturaleza misma las hace poco atractiva para muchos alumnos, por lo que adicionándole un poco de atractivo, seguramente serán más productivas con la tecnología interactiva como es el iPad, que además permite hacer del salón de clases un lugar multidisciplinario propicio para el aprendizaje, transformándolo en una biblioteca virtual, en un laboratorio experimental y en un foro

de participación activa y propositiva, claro es que no de manera mágica pero sí de manera versátil. Para algunos expertos la tecnología ha influido en la enseñanza de las matemáticas de dos maneras diferentes. Una de ellas, debido a los cambios que el quehacer matemático ha tenido con la aparición de las computadoras, que pueden procesar una gran cantidad de datos, lo cual ha influido en la definición de los programas de las asignaturas de matemáticas. Otra, debido a que las computadoras se han convertido en un recurso para potenciar el aprendizaje. En cada instante los nuevos avances y descubrimientos permean en las ideas de innovación principalmente en educación, donde los docentes y los especialistas, en su búsqueda permanente por el aprovechamiento académico, las incluyen en su labor cotidiana para conocer el impacto en el aula, esperando -las más de las veces- que estas tengan el impacto esperado. La Figura 1 muestra al grupo de Nanotecnología en las clases regulares diarias, en la experimentación matemática de los procesos físicos y en la simulación de funciones, utilizando la tecnología versátil. La investigación no concluye aún, hasta que los alumnos del grupo experimental retomen sus asignaturas de matemáticas en el nivel de ingeniería.

Figura 1. Estudiantes de Nanotecnología utilizando los iPad’s para su clase de matemáticas.

El mirar al frente siempre trae consigo riesgos y sobretodo en el rubro de la tecnología, la cual, por la velocidad con la que evoluciona, se vuelve obsoleta en muy poco tiempo. Esto, de alguna manera, influye en la baja permanencia que estas innovaciones tiene en las instituciones educativas, las cuales lógicamente no pueden darle alcance a la evolución tecnológica para mantenerse a la vanguardia.

Revista Científica

185


Resultados Se corrió la encuesta de satisfacción para esta investigación, el cuestionario constó de siete preguntas relacionadas con las ventajas y/o beneficios del uso del iPad en la clase de matemáticas, así como de un último reactivo abierto en el que se pedía a los alumnos externar su opinión con respecto a las fortalezas y debilidades del uso de la Tablet de Apple para matemáticas; esta encuesta arrojó los resultados siguientes mostrados en la Tabla 2.

Tabla de Resultados de la Encuesta Aplicada a los Alumnos de Nanotecnología

Tabla 2. Resultados de la encuesta. La Tabla 3 muestra la escala de medición de la encuesta, donde uno-dos muestran valores de desacuerdo, tres un valor intermedio y cuatro-cinco valores en acuerdo con las respuestas planteadas en la encuesta.

186

Revista Científica


hojas y hojas de trabajo escritas, donde por experiencia saben que el fiel cuaderno de cuadrícula esperará impasible en la mochila, guardando cada uno de los trazos, notas y ecuaciones vistas, aún es prematuro abandonarse completamente a las ventajas de una nueva forma de trabajo, amén de que el iPad lo ocupan solo en una de sus asignaturas. Sin embargo el 83% reconoce que el cuaderno electrónico tiene una mayor utilidad gracias a su versatilidad, tanto para correcciones como para inserciones y complementariedad de las actividades escolares. Tabla 3. Escala de satisfacción para la encuesta. Las preguntas A y E reflejan el sentido motivacional por el uso del iPad en la clase de matemáticas, las medias expresadas indican que el 79% considera que su utilización como artículo escolar es agradable y ameno; destaca dos tipos de motivación: la motivación intra-matemática y la extra-matemática, la primera se centra en los nuevos planteamientos a resolver mediante los conocimientos adquiridos en la materia, mientras que la segunda aduce que: la motivación tiene múltiples variantes, por lo tanto cada nuevo contenido puede ser motivado de una manera diferente. La variedad en las situaciones para la motivación, además de evitar actuaciones didácticas rutinarias, puede favorecer en los alumnos la capacidad de apreciar aspectos análogos, diversos, perfectibles, necesarios, útiles, interesantes o curiosos de los contenidos de enseñanza. La motivación juega así un papel predominante en la enseñanza, no únicamente de las matemáticas, si no también de cualquier actividad. Las preguntas B y C van en el orden de la productividad para la clase, donde el 96% opina que es un elemento que ayuda a entender los saberes matemáticos, además de permitirles desarrollar una mayor cantidad de ejemplos, demostrarlos gráficamente y sustenta cada uno de los conceptos con imágenes, videos y explicaciones con otros estilos y técnicas mediante el Youtube y el Internet. Desde su aparición, la computadora ha sido vista como un elemento que de apoyo para la enseñanza; en la medida de sus posibilidades cada universidad adquirió computadoras y se fue equipando con laboratorios de informática, lo que dio origen a los laboratorios de matemáticas. Hoy en día es posible asegurar que toda universidad cuenta con softwares para este fin, pero llevarla al salón de clases es otro cantar, un laboratorio de matemáticas cuenta con 30 computadoras en promedio, algunos softwares para las prácticas y un estricto horario de uso, el salón de clases exige una computadora por alumno, la cual debe ser utilizada como su cuaderno de notas donde él la personaliza y la adiciona con las imágenes y videos que requiere para que construya sus conocimientos, así el laboratorio de matemáticas también se traslada a aula y a cualquier parte donde el alumno se encuentre, en palabras de Elena Ruiz, introducir la tecnología digital portátil en el salón de clases ayuda al docente a innovar y escudriñar sobre cómo enseñar, forzando a la experimentación con nuevas ideas, revitalizando el esfuerzo de enseñar, permitiendo a las matemáticas ser enseñadas, mejorando la forma de hacerlo y permitiendo que el material tradicional sea enseñado más efectivamente, facilitado por la introducción de material no tradicional (Ruiz, 2013). Desde la perspectiva estudiantil, es representativo que casi el 100% opinaron que el uso del iPad les ayuda en su aprendizaje.

Dentro del rubro de las fortalezas y debilidades del uso del iPad para la clase de matemáticas, las opiniones están muy centralizadas en los beneficios que les reportó su uso para facilitarles la comprensión de los conceptos matemáticos, la visualización de las gráficas y comportamientos de las funciones, en la toma de apuntes las ventajas de que sean electrónicos para la exportación, edición y corrección; de igual manera los beneficios que tiene para presentaciones y proyección de las notas. No descartan la optimización del tiempo en el proceso operativo para el desarrollo de las operaciones mediante los emuladores de la calculadora que contiene el equipo, asímismo la construcción de tablas y esquemas. Para la parte bibliográfica y de referencias hacen notar la rapidez con la que ubican un dato de consulta y la facilidad con la que insertan imágenes y videos del tema; además, para los repasos, tareas y estudio, los apuntes se encuentran en la nube y pueden consultarlos en cualquier instante y lugar mientras se cuente con internet. Dentro de las fortalezas, también hubo hegemonía en sus comentarios centrándose en la imposibilidad de contar con el equipo una vez que egresen de la institución, ya que el equipo les pertenece mientras se encuentran en horario escolar y en las instalaciones de la universidad, también comentaron que la falta de práctica para escribir con los estilógrafos táctiles por la punta de goma les dificultaba la escritura, lo que ocasionaba que lo hicieran más lentamente que caligráficamente. Las respuestas obtenidas se encuentran dentro de los límites de aceptación como lo muestra la relación siguiente, con un Nivel de Confianza del 99%:

Sean:

n el tamaño de la muestra. x la media de la encuesta. S la Desviación Estándar de la encuesta. NC99% Nivel de Confianza al 99%. Linf y Lsup

los límites de aceptación para el análisis.

Mientras que las preguntas D, E y F son quizá las más dispares en sus opiniones y sus respuestas son las más divididas de la encuesta, las cuales la mayoría de los encuestados en las preguntas E y F respondió más o menos, sin un convencimiento total de abandonar su trayectoria escolar de

Revista Científica

187


Seis de las respuestas obtenidas para los ítems de la encuesta, se encuentran dentro de los límites de aceptación, con un nivel de confianza del 99%, lo que permite concluir como válidos los resultados de la investigación en un 86% del cuestionario dentro de los parámetros establecidos.

Conclusiones Por otra parte las opiniones externadas fuera del cuestionario mostraron la inquietud de permitir que en todas sus asignaturas se les permitiera utilizar los iPads como elementos propios de la clase, haciéndolas amenas e innovadoras con la tecnología versátil, además de que consideran que sería un gran logro por pertenecer a la primera o una de las primeras universidades tecnológica no solo por enseñar tecnología, además por utilizar tecnología hasta para sus clases regulares. El binomio enseñanza-aprendizaje logra sus objetivos en la medida de que ambos procesos se vean direccionados hacia un mismo fin, de igual manera que el de los actores del proceso: alumno-profesor. Mientras se encuentren encaminados con ese propósito, en este orden de ideas, tanto uno como otro deben entender y aceptar que el iPad es un medio para el aprendizaje y que ambos están dispuestos a obtener el máximo beneficio de él, los unos rompiendo sus esquemas de cómo aprendieron y adaptarse a todos estos avances tecnológicos, mientras que los otros deben entender que todo conocimiento requiere esfuerzo y dedicación y que la tecnología es un apoyo que facilita pero no crea saberes. Que el cuaderno de cuadrícula sea sustituido por el electrónico no depende de los resultados de una investigación; más aún, el proceso de extinción de darse no será inmediato, pero los datos obtenidos con el estudio se muestra que parte de la población usuaria no mira con malos ojos que en un futuro cercano el fenómeno se pueda dar y la manera en la que concebimos actualmente una clase de matemáticas pasará al olvido.

188

Revista Científica


Bibliografía

+

López, Antonio y Fernández, Luis (2007). Actitud de los universitarios ante las nuevas tecnologías de la información. Revista Galego-Portuguesa de Psicoloxía e Educación. Vol. 15, 2, Año 11. Galicia, España.

+

Gómez Bonilla, Édgar (2009). La evaluación de la docencia basada en la opinión de los alumnos: el perfil docente en la licenciatura de historia. X Congreso Nacional de Investigación Educativa, Área 15 Procesos de Formación. Veracruz, México.

+

Savater, Fernando (1997). El valor de educar. Colección Diez para los maestros. Instituto de Estudios Educativos y Sindicales de América. S NTE. México.

matemática del siglo XXI: Un llamado para la acción. Documento presentado por invitación y presentación en la Conferencia de Tecnología de los Standards.

+

Ruiz, Elena (2013). Usando tecnología portátil en la resolución de problemas de cálculo. e-Gnosis, Vol. 11. Redalyc.org. Universidad de Guadalajara. México.

+

Salat, Ramón (2013). La enseñanza de las matemáticas y la tecnología. Innovación Educativa ALEPH. Vol. 13, No. 62, Instituto Politécnico Nacional, México.

+

Aparicio, Guillermo (2012). La motivación en el aula de matemáticas a través del uso de las TIC. Universidad de Almería, España.

+

Guzmán, Miguel (1999). Tendencias Innovadoras en educación matemática. Universidad Complutense de Madrid, España.

+

Waits, B. y Demana, F. (2000). El papel de la computadora portátil en el álgebra simbólica en la educación

Revista Científica

189


ESTATUS DEL USO DEL MODELO BUSINESS PROCESS MANAGEMENT

(BPM) EN LA MEDIANA Y GRANDE EMPRESA DE MANZANILLO Y COLIMA, COL.

Jorge Delgadillo Partida1

Universidad Tecnológica de Manzanillo Camino hacia las Humedades, s/n, Salagua, Manzanillo, Colima, México, C.P. 28869. 1

jorge-delgadillo@utem.edu.mx

Resumen: La intención de este trabajo es reflejar el estatus de uso del modelo Business Process Management (BPM) en diferentes tipos de organizaciones de Colima y Manzanillo, Colima., la noción acerca de la administración por procesos y el nivel tecnológico usado. La administración por procesos no es un tema de actualidad, data de más de 100 años con Federick W. Taylor; sin embargo, hace 25 años las empresas americanas conocieron diferentes beneficios cuando se trabaja con enfoque de procesos. Este artículo muestra la realidad de la mediana y grande empresa, así como la ausencia del modelo BPM en las compañías, la investigación revela que tan cerca se encuentran de la gestión por procesos. Las más calificadas son la minería, manufacturera, servicios financieros y seguros, entre otras. Podemos apreciar las cualidades y tecnologías usadas por las empresas para trabajar con enfoque de procesos, siendo el BPM la solución más conveniente y más actual.

+

Palabras clave: BPM, procesos, empresas, gestión empresarial y gestión por procesos.

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Mayo 17, 2017. Aceptado: Junio 21, 2017.

190

Revista Científica

Abstract: The intention of this paper is to reflect status about the model Business Process Management (BPM) in different kind of organizations in Colima and Manzanillo, Col., the notion of process management and the level of technology used for them. The process management is


not an actual topic, it since about 100 years ago, with Federick W. Taylor, however 25 years ago the American companies knew different benefits when the activities have process focus. This article show the reality of the medium and big companies and show the model BPM without presence in Colima´s organization, the investigation reveals how close they are about process management. The best qualified are mining industry, manufacturing, financial and insurance services, among others. We can appreciate the qualities and technology of the companies to implement the process approach, being the BPM the most convenient solution and the most actually process model.

+ Keywords: BPM, process, companies, business management and process management. Introducción Con el constante flujo de capitales por los países y la presencia de diversidad de organizaciones extranjeras y en todos los sectores productivos, las empresas locales deben de entrar en una competencia cada vez más intensa, donde dentro del ámbito de la gestión empresarial, uno de los detonantes de competitividad es el trabajo con enfoque de procesos. La importancia de los procesos data de los hallazgos y observaciones hechas por Federick W. Taylor, hace poco más de 100 años, donde la industria encontró en el estudio de los procesos esquemas de optimización de recursos y mejora continua de sus actividades. El modelo Business Process Management (BPM) constituye el lenguaje y metodología de procesos más novedosa, misma que hace propias las aportaciones del Teylorismo en conjunto con las aplicaciones de las tecnologías de la información, las cuales permiten que el usuario pueda realizar diagramas de flujo de una manera más rápida y práctica. El BPM cuenta con su propio lenguaje, mismo que constituye un estándar reconocido internacionalmente: el lenguaje se apoya con diferentes signos y compuertas, que permiten plasmar prácticamente cualquier secuencia de pasos, determinando con presión quién es la parte ejecutora de la actividad y con la posibilidad de hacer puntuaciones muy objetivas en el procedimiento mismo. Con la probabilidad de desarrollar un mapa de procesos y/o arquitectura de procesos mediante las tecnologías de la información, hoy en día la alta dirección de una organización o mandos medios, están en posibilidad de plasmar toda la operación de cualquier tipo de organización con la finalidad de analizar las actividades, en búsqueda de mejoras y optimización de recursos. El uso del BPM en países europeos y del Norteamérica es más notorio que en naciones en vías de desarrollo, esto se debe a diversos factores, tales como la disponibilidad tecnológica, la capacitación del factor humano, la apropiación del conocimiento, entre otros elementos. En el presente artículo se exponen los resultados derivados de una investigación aplicada en dos municipios del estado de Colima, mismos que constituyen las regiones más productivas y con mayor presencia de industria y empresas medianas y grandes. El proyecto se enfoca en estudiar todos los sectores considerados por el Sistema Nacional de Información Estadística y Geográfica.

Se trata de un estudio de naturaleza cuantitativa, perteneciente al área de ciencias sociales, en la que se implementan cuestionarios impresos y software especializado para la interpretación de datos, aplicando para la determinación de la muestra un 95% de nivel de confianza y un error estándar de 5%. Se presentan los resultados en relación a la presencia que tiene el trabajo con enfoque de procesos en las empresas de la región, así como, la aplicación específica del modelo Business Process Management y el grado de aplicación de los elementos que lo conforman. Por otra parte se resaltan los sectores empresariales más calificados en la zona, con la finalidad de exponer la experiencia que brinda la industria en el tema de procesos, donde bancos, agencias de autos, empresas extranjeras internacionales, entre otras, cuentan con una cultura más arraigada en materia de trabajo con enfoque de procesos. Se evidencia que en la empresa mexicana, más que su falta de competitividad para la adopción de más y mejores prácticas en diversas áreas del conocimiento el problema radica principalmente en el conocimiento de las metodologías más novedosas, por lo que se debe de hacer un importante esfuerzo en vincular el sector empresarial, con el gobierno y el área académica, a fin de que con la anterior visión de tres ejes se impulsen proyectos de actualización de las organizaciones en variedad de herramientas que mejoren el desempeño de las empresas. El estudio recibió fondos para su realización y publicación de resultados por parte del Programa para el Desarrollo Profesional Docente (PRODEP), constituyendo un esfuerzo por incluir al sector académico en la mejora y propuesta de herramientas para el desarrollo de la comunidad empresarial mexicana.

Antecedentes y beneficios de la aplicación del modelo Business Process Management (BPM)

Antecedentes En materia de gestión empresarial, existe gran diversidad de herramientas que aportan a la solución de problemas mediante diferentes enfoques metodológicos. La constante evolución de las necesidades por parte de clientes y consumidores, ha obligado a las organizaciones a ofrecer mayor valor agregado en sus productos y servicios, restructurando e innovando en las actividades productivas. Dentro de estas prácticas que mejoran la competitividad las organizaciones encontramos los siguientes modelos: Total Quality Management (TQM), Balance Scorecard (BS), Business Process Reegineering (BPR) y Six Sigma, entre otros. Como resultado, en la actualidad la revolución industrial es alcanzada por la tecnología, donde es una realidad encontrar maquinas que no solo apoyan en las labores de producción, sino que en ocasiones desarrollan el 100% de las actividades de producción, quedando el factor humano como apoyo en el mantenimiento y programación de equipos. La generación de tecnologías es muy notoria en países asiáticos; sin embargo, en la actualidad, aún países considerados como emergentes, realizan aportaciones en relación a patentes y nuevas tecnologías. Se publican en diferentes medios de divulgación la llamada tercera revolución industrial, donde encontramos aspectos tecnológicos, económicos y sociales, cuestionando nuestra visión del mundo con nociones de progreso, siendo lo mismo si se trata de ciencias o

Revista Científica

191


técnicas humanas, orientadas a procesos de construcción o reconstrucción que alteran los órdenes económicos y sociales dominantes con sus valores y sus representaciones, que constituyen los fundamentos de nuestro modo de vivir y trabajar en conjunto (Martínez y Nabarrete, 2013). En esta etapa de revolución del trabajo, encontramos el tema de los procesos como un concepto importante y cada vez siendo considerado por diferentes áreas del conocimiento. En materia de procesos se encontró el término “gestión por procesos”, mismo que tiene como significado hacer de las tareas cotidianas de una organización, una secuencia de pasos ordenados, que llevan consigo el cumplimiento de un objetivo determinado. Actualmente, se evoluciona a términos más especializados, tal es el caso de la propuesta en el sentido de pasar de la gestión por procesos a la gestión integrada por procesos, implicando que los sistemas integrados se encuentran normalizados, así como revisión de literatura especializada que incluye la modelación para la representación, las interacciones y áreas de oportunidad de un proceso, lo que permite gestionar los requisitos unificados y sus relaciones (Llanes, Godínez, Moreno y García, 2014). Federick W. Taylor es quien sienta las bases de lo que sería el Business Process Management en la actualidad; décadas después el modelo es valorado por la comunidad empresarial a nivel mundial, cada vez más organizaciones de países desarrollados o no, están observando las bondades que tiene el trabajo con enfoque de procesos. En relación al modelo, un hecho detonante de su creación, fue el libro escrito por Michael Hammer and James Champy en la década de los noventas, llamado “Reengineering the Corporation: A Manifesto for Business Revolution”. La publicación del libro llamó la atención de mucha gente de esa época e inicio la compresión del valor del modelo, al apreciar las aportaciones que ofrece a las organizaciones manufactureras en Estados Unidos. Aparecieron muchos seminarios prácticos de BPM a los dos años de dicha publicación, los autores impartieron diversos cursos entre 1990 y 1997, se experimentaba un cambio significativo en el modo en que se realizarían los procesos de la época, el mundo empiezaba a ver al modelo BPM con una opción más viable, quedando el modelo Process Re-engineering, como un modelo desplazado (Burlton, 2001). La reingeniería en procesos se vio superada por el enfoque BPM en las organizaciones. Burlton (2001) señala que la gerencia de las empresas no estaba centrada en las Tecnologías de la Información y que a partir de 1997 surgen ideas como “…Enterprise Resource Planning (ERP), Customer Relationship Managment (CRM), Business to Consumer (B2C), E-Business, and Business (B2B)…”; para el año 1997, Hammer y Champy hacen un pronunciamiento en el sentido que el Business Process Managemet era la manera de sobrellevar la crisis existente en el año 2000 en Norteamérica y la manera en que las organizaciones prosperarían y sobrevivían. Del año 2000 en delante el modelo Business Process Management se encontraba en un grado de evolución que incluía las necesidades de las partes interesadas en una etapa de desarrollo de conocimiento; de acuerdo con los datos de Burlton (2001), consideraba la evolución del BPM en tres etapas, siendo la primera llamada de datos, donde a partir de la década de los sesentas hasta finales de los setentas se concentraban en programas y sistemas, para los años ochentas se encontraban en la segunda etapa,

192

Revista Científica

que consideraba la funciones de negocio, y las funciones de procesos y para el año 2000 en delante se consideraba la tercera etapa. Empresas proveedoras de paquetes software de BPM, conocido como BPM Suit, las encontramos presentes en economías de primer mundo, donde poco a poco el modelo se expande a países en vías de desarrollo. Con motivo de los cambios en la economía, tanto para empresas públicas y privadas, Roger T. Burlton resalta los cambios que trae consigo en el sistema empresarial, identificando cuatro fuerzas mayores como lo es: la híper competencia, el crecimiento organizacional en complejidad y búsqueda continua, crecimiento del poder de las partes interesadas y las tecnología en el e-business. Atendiendo la pregunta de ¿qué debería de hacer o englobar el modelo BPM?. Lo se explica mediante el hexágono de la administración de procesos. El hexágono de administración de procesos muestra los seis lados fundamentales del conocimiento para una actuación de negocio efectiva: los trabajos y roles, la estructura de la organización, las tecnologías de información, instalaciones, recurso humano, así como las políticas, reglas y regulaciones. Un proceso integral debería representar a la empresa la posibilidad de contestar las preguntas de ¿qué?, ¿dónde?, ¿cuándo?, ¿quién?, ¿cómo? y ¿por qué?, en términos generales la estrategia del negocio, su estrategia, arquitectura, resultados, iniciativas de monitoreo, entre otras (Burlton, 2001). La automatización de procesos de negocios trae consigo mejores respuestas en relación a los consumidores, se tiene el antecedente de la empresa farmacéutica de productos para la salud Rexall, que implemento con éxito un modelo de proceso de negocios llamado “easy ship” donde las órdenes son enviadas cada mes, ahorrando tiempos en el consumidor y el proveedor (Burlton, 2001), destacándose el diseño de los procesos de negocio y el uso de las tecnologías de información. Parte de la misión y características del modelo es la relación estricta que debe de tener con la planeación estratégica de la organización, ya que la planeación estratégica guiará los esfuerzos de la organización hacia un escenario esperado y donde los procesos de la organización tienen que estar alineados con la misma, a fin de garantizar un resultado deseado. En la misión, visión, filosofía, valores y objetivos se concentra el fin mismo de la empresa; es de vital importancia que la aplicación de la metodología BPM considere los diferentes objetivos específicos, a fin de que los esfuerzos se orienten a resultados concretos. En la actualidad, el Business Process Managemen relaciona nuevas necesidades del mercado, necesidades controlables y no controlables, se van sumando elementos o enfoques a fin de ser lo más integral posible en la construcción de un proceso en función de una necesidad específica. El modelo BPM cuenta con su propio lenguaje para diagramar, modelizar procesos y procedimientos; el Business Process Model and Notation, por sus siglas BPMN, ha sufrido mejoras y ha evolucionado a medida de las necesidades y nuevos retos que el modelo debe de resolver; hoy en día se cuenta con la versión BPMN 2.0. Al igual que en muchas herramientas, el lenguaje PBMN es susceptible de mejoras, sin embargo, se resaltaría que los cambios siempre tienden a simplificar las operación del mismo, haciéndolo más amigable tanto para el diseñador de procesos como para el usuario de los mismos. Para muchas organizaciones, un objetivo primordial al interior de las compañías es implementar y adecuar un lenguaje de modelado de


sus procesos de negocios, por lo que aplicar el BPMN sería una correcta decisión (Geambasu, 2012). Este lenguaje considera el uso de una simbología sencilla que, apoyada con las tecnologías de la información hace práctico su uso para cualquier organización que cuente con el nivel básico de tecnología instalada. Para el presente estudio se analizan dos poblaciones correspondientes a la mediana y grande empresa de Manzanillo y Colima, Col., analizando los 20 sectores económicos considerados por el Directorio Estadístico Nacional de Unidades Económicas (DENUE).

Beneficios del modelo Business Process Management (BPM) Dentro de los beneficios de trabajar con enfoque de procesos, se cuenta con los siguientes:

+

Sirve para el monitoreo y evaluación de procesos.

+

Automatización de procesos.

+

Modelado de procesos.

+

Documentar procesos.

+

Analizar y entender los procesos.

+

Evaluar el proceso bajo el enfoque Service-Oriented Architecture (SOA).

+

Se apoya en las TIC´s.

+

Apoya al mantenimiento de los procesos.

+

Aporta a la reducción de costos e incrementa los ingresos.

+

Aporta a la implementación y diseño de estrategias de negocio.

+

Apoya a la mejora continua.

+

Se reduce la burocracia.

+

El conocimiento queda interno en la organización.

+

Mejora la comunicación entre las partes que participan en el proceso.

+

Detección de cuellos de botella.

+

Mejora la atención y servicio al cliente.

+

Entre otros.

Estatus de uso del modelo BPM en la mediana y grande empresa de Manzanillo y Colima, Col.

Estatus de trabajo con enfoque de procesos en la mediana y grande empresa de Manzanillo y Colima, Col. El estado de Colima no constituye una de las entidades más productivos del país, tampoco de los más vanguardistas en materia de gestión empresarial; sin embargo, el puerto de Manzanillo, Col., al constituir uno de los principales puertos de la república mexicana y del pacífico. En consecuencia, genera muchas expectativas en las empresas transnacionales que comercializan sus productos con el resto de la comunidad mundial. Los municipios de Manzanillo y Colima, Col., alojan a diversas empresas de distintos sectores, aún con motivo de la cercanía, se pudiera pensar que la presencia de las organizaciones extranjeras no causarían fluctuaciones en los resultados entre uno y otro. Sin embargo como se puede apreciar en la siguiente Figura 1, las empresas de Manzanillo se encuentra más cultura de trabajo con enfoque de procesos, cuyos de los criterios más notorios son los siguientes; consideración del tiempo en las actividades, el uso de estándares para el desarrollo de actividades, trabajo con enfoque de procesos, las áreas de trabajo cuentan son sus procesos y hay más presencia del uso de las Tecnologías de la Información y Comunicación (TIC´s). Dentro de los resultados que comparten ambas comunidades, se encuentra que los procesos de las actividades, son sujetos de análisis, así como que la gerencia observa los procesos para apoyar las decisiones para

+ Permite atender mayores volúmenes con misma calidad. +

El beneficio es interno y externo.

+

Permite el diseño y seguimiento con un lenguaje estandarizado.

Revista Científica

193


la organización y finalmente se expone; por ejemplo el municipio de Colima, donde se cuenta con más uso de sistemas software para diagramar y documentar los procesos de la organización.

Estatus de conocimiento y aplicación del modelo BPM en la mediana y grande empresa de Manzanillo y Colima, Col. En relación específica a la aplicación del modelo Business Process Management (BPM) en la mediana y grande empresa, se exponen los siguientes resultados: + Uno de los hallazgos más importantes, consiste en el desconocimiento casi absoluto del modelo BPM entre las organizaciones de los diferentes sectores económicos de la región, hecho que constituye una limitante importante para la aplicación de la metodología, ya que al ignorarse, la empresa se priva de la posibilidad de hacer uso de la misma, generando una ventaja para la mejora de su desempeño competitivo. + Existe nulo uso de la metodología, aun cuando ya existen, el modelo

de 25 años, considerándose como uno de los principales factores, la falta de actualización,incluso cuando se recogen diferentes datos que evidencian que sí existe, en cierta medida, el trabajo con enfoque de procesos; sin embargo, al no ser ejecutados con técnica, esto lo hace poco efectivo. + Se encuentra como dato importante, que las organizaciones de Manzanillo, cuentan con una mayor cultura en materia de planeación estratégica en relación a las empresas de Colima; sin embargo, las empresas de Colima, cuentan con mayor interés en la aplicación del modelo BPM respecto de las de Manzanillo, considerando en ambos que el lenguaje Business Process Model and Notation (BPMN) constituye vocabulario de signos simple de seguir y aprender. + Finalmente, en ambas regiones se muestra el rechazo a la idea en que el trabajo con enfoque de procesos, no constituye una fuente de competitividad en las organizaciones.

Figura 2. Resultados del estudio de aplicación del modelo Business Process Management (BPM), en la medianas y grandes de Manzanillo y Colima, Col.

194

Revista Científica


Sectores económicos más desarrollados en materia de trabajo con enfoque de procesos de Manzanillo y Colima, Col. A continuación se exponen los diferentes sectores que, por sus resultados en el estudio resultaron mejor calificados en materia de trabajo por procesos, así como, aquellos que constituyen una oportunidad para la actualización en materia de trabajo con enfoque de procesos y donde la aplicación del modelo BPM constituye la vía más rápida para la adopción de tal disciplina.

Figura 3. Resultados de trabajo con enfoque de procesos en la medianas y grandes de Manzanillo y Colima, Col. Los sectores mejor calificados, aun cuando no hacen uso de la metodología BPM, son los siguientes; el minero, de la construcción, industria manufacturera, comercio al por mayor, otros servicios excepto actividades gubernamentales, los servicios financieros y de seguros. En relación a aquellos sectores que requieren del impulso en materia de procesos, se encuentran el sector agrario, forestal y pesquero, las compañías de generación y distribución de energía, los transportes, correos y almacenamientos, los servicios educativos y los servicios de salud y asistencia social.

Revista Científica

195


Tabla 1. Listado de sectores del Sistema de Información Estadística y Geográfica (SCIAN).

cotidianas en las organizaciones.

Conclusiones Las organizaciones públicas, privadas, con fines de lucro o sin fines de lucro, son impactadas por la competitividad que se genera a partir de la globalización; al estar dentro de las organizaciones, en la mayoría de los casos la posibilidad de ser competitivos con los recursos disponibles, uno de los aspectos más relevantes, constituye su voluntad en aprender de las nuevas y/o mejores prácticas. Las empresas medianas y grandes de Manzanillo y Colima, Col., al igual que las organizaciones de otras regiones, no aplican los modelos más novedosos por motivos de desconocimiento, y quedan imposibilitadas en muchos casos por falta de tecnología o capacidad del factor humano. La relevancia en materia de procesos no es por sí misma tan novedosa, las empresas americanas aprendieron con especial rapidez la importancia que tenía el trabajo con enfoque de procesos, el cómo se puede incrementar la productividad y la calidad en la industria a partir de la observación y medición de los procesos. La empresa de la comunidad sujeta del estudio, está en posibilidad de aplicar el modelo Business Process Management (BPM), considerándose el camino más rápido para la adopción del trabajo con enfoque de procesos, con la ventaja del avance tecnológico en la materia.

Se expone y documenta la nula presencia del modelo BPM en la comunidad de Manzanillo y Colima, Col., lo que constituye una importante oportunidad para capacitar a las organizaciones, sin establecer que la falta de aplicación del modelo es perjudicial, ya que existen empresas que cuentan con sus propios lenguajes y programas para el seguimiento de sus procesos; por ejemplo, a la empresa FORD Colima, una de las organizaciones que cuenta con su propio sistema de procesos, mismos que encontramos en su historia de trabajo en materia de procesos entre el creador de la marca y Federick W. Taylor. Aun cuando no hacen uso del método BPM, es importante señalar que la mayoría de los elementos que lo conforman, son ejecutados en las organizaciones, sin embargo al no contar con la experiencia y pericia que el modelo ofrece, son de bajo impacto en las empresas. Finalmente, destacar que en los sectores mejor evaluados se aprecia que se trata, en la mayoría de los casos, de industrias donde la Inversión Extranjera Directa (IED) se encuentra con mayor presencia, trayendo consigo que las organizaciones y su factor humano constribuyan a las mejores prácticas, procesos y procedimientos aprendidos, que en la mayoría de las ocasiones constituyen herramientas y modelos que por sus resultados y efectividad componen las principales armas de competitividad de las empresas.

En la medida en que las organizaciones aprendan las virtudes del trabajo con enfoque de procesos, la brecha tecnológica y de competitividad que existe en la actualidad se puede cerrar de manera importante, a partir de la adopción y/o cambios en algunas maneras de realizar las actividades

196

Revista Científica

4


Bibliografía

+

Alarcón, J. Ángel (1998). Reingeniería de Procesos Empresariales: Teoría y práctica de la Reingeniería de la empresa a través de su estrategia, sus procesos y valores corporativos. Madrid: FC Editorial. ISBN # 9788489786462.

+

Becker, Jörg y Matzner, Martin (2013). Promoting business process management excellence in Russia: Proceedings and report of the PropelleR 2012 Workshop held in Mosco, April 24 to 26, 2012 (No.15). Westfälsche Wilhelms-Universität Münster (WWU)-European Research Center for Information Systems (ERCIS). ISSN # 16147448.

+

Brocke, Jan vom y Sinnl, Theresa (2011). Culture in business process management: a literature review, 17(2), 357-378. ISSN # 1463-7154.

+

Burlton, Roger (2001). Business Process Management: Profiting From Process. USA: SAMS. ISBN # 0-672-32063-0.

+

Cumberlidge, Matt (2007). Business Process Management with JBoss Jbpm: A Practical Guide for Business Analysts. UK: Packt Publishing. ISBN: 184719236X 9781847192363.

+ Garimella, Kiran.; Lees,

Michael y Williams, Bruce (2008). BPM Basics for DUMMIES. USA: Wiley Publishing Inc. ISBN # 978-0-470-28571-8.

5

+

Chang, James F. (2006). Business Process Management Systems: Strategy and Implementation. USA: Auerbach Publications. ISBN # 0-84932310-X.

+

Club BPM (2011). El libro del BPM: Tecnologías, Conceptos, Enfoques Metodológicos y Estándares. Madrid: Club BPM. ISBN # 978-84-6148367-9.

+

Harmon, Paul (2007). Business Process Change: A Guide for Business Managers and BPM and Six Sigma Professionals. USA: Morgan Kaufmann. ISBN # 9780123741523.

+

Hitpass, Bernhard (2012). BPM: Business Process Management Fundamentos y Conceptos de Implementación. Chile: BPM Center. ISBN # 9563459776.

+

Llanes, Mariluz.; Isaac, C. Lidia.; Moreno, Mayra y García, Gelmar (2014). De la gestión por procesos a la gestión integrada por procesos. Ingeniería Industrial, 35(3), 255-264. ISSN # 1815-5936.

+

Naubauer, Thomas (2009). An empirical study about the status of business process management, 15(2), 166183. ISSN # 1463-7154.

+

Röglinger, Maximilian.; Pöppelbuß, Jens. y Becker, Jörg (2012). Maturity models in business process management. Business Process Management Journal, 18(2), 328-346. ISSN # 1463-7154.

Revista Científica

197


Desempeño económico en méxico: un acercamiento desde el institucionalismo

César Augusto García Soberano1

Universidad Veracruzana Lomas del Estadio, s/n, Xalapa, Veracruz, México. C.P. 91000.

1

Resumen: Este trabajo verifica la fuerza lógica del modelo elaborado por Acemoglu, Johnson y Robinson (2004) para el análisis del desempeño económico y la distribución de los recursos en México. Se concluye en la validez del modelo teórico y la verdad de sus premisas que muestran, por un lado, que México no cuenta con un conjunto eficiente de instituciones políticas y económicas y, por otro lado, enseña un camino para mejorar, en el futuro, el desempeño económico en el país a través del diseño del conjunto de las instituciones para que respondan en base a su contexto e historia.

+

Palabras clave: Instituciones políticas, instituciones económicas y distribución de los recursos.

Mail: padawan485@gmail.com

Recibido: Noviembre 11, 2016. Recibido en forma revisada: Mayo 17, 2017. Aceptado: Junio 21, 2017.

198

Revista Científica

Abstract: This work verifies the logical force of the model developed by Acemoglu, Johnson and Robinson (2004) in an analysis of economic performance and distribution of resources in Mexico. It concludes that the theoretical model has validity in form and with truth on their premises to show us on the one hand, that Mexico does not have a set of efficient political and economic institutions. Though on the other hand, it shows us the way to achieve better economic performance in the future; design better sets of institutions that respond to our context and consider our history.


+ Keywords: Political institutions, economic institutions and distribution of resources. Introducción Se parte de la pregunta ¿cuál es la mejor forma para comprender el desempeño económico de México en el tiempo? A partir de la realidad empírica que muestran datos, encuestas, así como la historia de México sobre su desempeño económico es posible cuestionar ¿cuáles son los factores determinantes del desempeño económico de México?. Con base en ello, el fin de este trabajo es reflexionar sobre un cambio en el país, enfocado hacia el bienestar económico que repercuta, además, en la mejora del nivel de vida de los mexicanos. Un elemento crucial para intentar comprender el desempeño económico de México implica utilizar un marco analítico, como mencionan North (1990), Caballero y Soto-Oñate (2016), que consideran al mismo tiempo tanto el análisis institucional como la economía política y la historia económica. Con lo cual, resulta de vital importancia incluir el análisis institucional, desarrollado en los trabajos de Ostrom (2005), North (1990), Rodrik (2007), Acemoglu, Johnson y Robinson (2004), Beck y Levine (2003), quienes han propuesto modelos de conducta para demostrar, a través del análisis institucional, su potencia para explicar el desempeño económico de un país, a partir del conjunto de decisiones individuales y colectivas que se constriñen en reglas del juego, tanto formales como informales. Por lo tanto, la hipótesis de que se parte es que las instituciones políticas y económicas en México son poco eficientes y provocan una distribución de los recursos inequitativa. En consecuencia, el objetivo general es demostrar que el modelo elaborado por Acemoglu, Johnson y Robinson (2004) se ajusta al análisis que se pretende realizar, para sostener que México cuenta con instituciones políticas y económicas poco eficientes, lo que se determina en su desempeño económico a largo plazo. Para llegar a demostrar el objetivo general se han planteado dos objetivos particulares a saber: el primero, comprobar empíricamente que la distribución de los recursos en México es inequitativa; segundo, determinar, con base en el modelo elaborado de Acemoglu, Johnson y Robinson (2004), que existe un factor o un grupo de factores responsables de crear una distribución de los recursos inequitativa en México y, en consecuencia, un bajo desempeño económico en comparación con los países desarrollados.

Estudios previos El estudio base de este trabajo es el de Acemoglu, Johnson y Robinson (2004), quienes postulan que las buenas instituciones económicas determinan el crecimiento económico de largo plazo, pues son ellas, las instituciones, el medio para que los individuos se organicen en sociedad y determinen la probabilidad para su prosperidad. En el estudio realizado por los autores se analizan diferentes países en el tiempo con relación a su crecimiento económico, donde se estudian variables como geografía, religión y cultura; sobre estas últimas, concluyen que no logran explicar las diferencias de crecimiento económico. En cambio, Acemoglu, Johnson y Robinson (2004) concluyen que las insti-

tuciones económicas se presentan como un factor causal que destaca las diferencias entre los países con base en el ingreso per cápita; en su conjunto, las instituciones son la causa principal que explican las diferencias en el crecimiento económico de los países en el largo plazo. Sin embargo, no se descarta que otros factores como la innovación, políticas industriales, el marco legal y el marco financiero incidan en el desarrollo económico de los países, como se muestra en los trabajos de Che y Ling (2013) y Freytag and Sebastian (2016). Otra investigación relacionada con este trabajo es la de Rodrik (2007) quien analiza diferentes casos de países en la relación de su crecimiento económico, las instituciones y la globalización. Al respecto Rodrik (2007) concluye afirmando la trascendencia de las instituciones en el desempeño económico, porque encuentra que los países desarrollados han logrado asegurar un Estado de derecho; es decir, se han alineado, en buena medida, los incentivos privados a las prioridades sociales, sus políticas monetarias y financieras se apoyan en instituciones macroeconómicas de gran solidez, los ciudadanos cuentan con libertades civiles y representación política. En definitiva, establece que las instituciones de alta calidad dan como resultado, en el largo plazo, prosperidad a los países que logran este tipo de arreglos, aunque acepta que no existe un diseño institucional único o una relación causal estable entre instituciones políticas con instituciones económicas, con resultados económicos positivos. Existen diversos trabajos de investigación sobre la relación entre instituciones, desarrollo económico y crecimiento económico; por ejemplo, Rodrik, Subramanian y Trebbi (2002) concluyen que la calidad de las instituciones determina el tipo de crecimiento de un país, pero las instituciones son resultado de las decisiones de los individuos y eso genera enormes diferencias de crecimiento entre los países. En el trabajo de Acemoglu, Gallego y Robinson (2014), a través de estudios estadísticos, que emplea regresiones tanto en diversas regiones del mundo como en naciones concretas, se concluye que son las instituciones quienes impactan en mayor medida en el desarrollo a largo plazo de los países. En tanto, Kapur y Kim (2006) muestran cómo el desarrollo económico en la India, a partir de las instituciones heredadas de la colonia británica, tiene una relación con las instituciones referidas a los derechos de propiedad, las cuales generan incentivos y condiciones adecuadas para el desarrollo. Adicional a estas investigaciones, encontramos en el trabajo de Michalopoulos y Papaioannou (2006) que las instituciones políticas vigentes, antes de la colonia, están relacionadas de manera fuerte y positiva con los niveles de desarrollo de los países africanos que estudiaron. En definitiva, el conjunto de investigaciones citadas centran su atención en las instituciones como marcos que posibilitan el entendimiento entre seres humanos y dan sentido a sus conductas tanto en coordinación, cooperación y comunidad. Las instituciones y su eficiencia, desde esta perspectiva, tienen una propuesta para explicar, a partir de la conducta individual, las organizaciones, las instituciones y la interacción entre actores del desarrollo económico en el largo plazo.

Metodología

Enfoque teórico La demostración de la hipótesis propuesta en este trabajo se basa en

Revista Científica

199


el marco teórico de Acemoglu, Johnson y Robinson (2004), quienes entienden a las instituciones, de acuerdo a North, como “Institutions are the rules of the game in a society or, more formally, are the humanly devised constrains that shape human interaction” (1990: 3)1 . Los autores Acemoglu, Johnson y Robinson (2004) destacan el papel de las instituciones políticas y económicas, en conjunto con los derechos de propiedad, como elementos estructurales de una economía para generar incentivos de inversión, en el contexto de un mercado necesitado de cierto volumen de intercambios comerciales entre sus actores económicos. Sobre este punto en particular se tienen estudios recientes (Orhan, 2016; Vitola y Maija, 2012; Vitola y Maija, 2016), que refuerzan la importancia de las instituciones en relación al desempeño económico, tomando en consideración su relación con los derechos de propiedad, la psicología social, las leyes, los contratos económicos, el rol del gobierno y la ciencia política. Las instituciones dan forma a los incentivos al interior de un sistema económico. El concepto de eficiencia institucional, de acuerdo a los trabajos de Acemoglu, Johnson y Robinson (2004), se relaciona con los resultados económicos que se generen a partir de la interacción interna de un paquete de instituciones políticas y económicas, en un contexto determinado. Tanto Acemoglu, Johnson y Robinson (2004) como Vitola y Maija (2015) establecen que las instituciones políticas y económicas influyen de manera determinante en el desempeño económico y la distribución de los recursos; sin embargo, no existe un acuerdo unánime sobre un paquete específico de instituciones económicas a seguir, lo cual genera un conflicto de intereses, y da lugar, comentan los autores, a la búsqueda de un equilibrio, a través del poder político que poseen los grupos en disputa.

1 Las instituciones son las reglas del juego en una sociedad o, de manera formal, son los constreñimientos diseñados por los humanos para modelar la interacción humana.

Figura 1. Componentes del marco teórico.

200

Revista Científica

Siguiendo a Acemoglu, Johnson y Robinson (2004), el poder político es quien determina las instituciones políticas y, en consecuencia, la distribución de dicho poder; es la manera de resolver el dilema sobre quién establece el paquete de instituciones a seguir. Por ello, los autores conciben en su marco teórico dos componentes del poder político: jure y facto political power. Ahora bien, se tiene una construcción lógica de implicaciones causales donde, el poder político da origen a las instituciones políticas y estas a su vez generan el poder político de jure para que, en conjunto con las instituciones económicas, den forma a los incentivos que tendrán los actores económicos de una sociedad en particular. Acemoglu, Johnson y Robinson (2004) ponen de relieve que no todo el poder político proviene de las instituciones políticas, ya que diversos actores localizan su poder político a partir de sus recursos económicos y de su capacidad para organizarse colectivamente, frente a un problema en particular; este tipo de poder se conceptualizan como de facto political power y, su fuente de origen es la distribución de los recursos. Desde el punto de vista de Acemoglu, Johnson y Robinson (2004), las instituciones políticas y la distribución de los recursos son las variables responsables de la dinámica en el sistema porque determinan a las instituciones económicas, e inciden en el desempeño económico de manera directa o indirecta. Este marco teórico acepta de manera implícita una jerarquización de las instituciones, unidas por una fuerza lógica de identidad, donde las instituciones políticas influyen en las instituciones económicas, quienes a su vez determinan los resultados económicos. Todas las partes de este marco teórico, empleadas para demostrar la hipótesis propuesta, se muestran en la Figura 1 donde se representa la propuesta teórica de Acemoglu, Johnson y Robinson (2004).


Modelo de análisis A partir de la teoría de Acemoglu, Johnson y Robinson (2004), se utiliza un análisis lógico proposicional, mediante la ley de la contraposición, la cual emplea una figura de modus tollens, con el fin de que la contradictoria o negación del consecuente sea la contradictoria o negación del antecedente, con el fin de demostrar la correspondencia entre las premisas y la conclusión del marco teórico antes citado, respecto de la realidad social en México, en términos de desempeño económico. Ahora bien, se asume que el marco teórico de Acemoglu, Johnson y Robinson (2004), tiene una fuerza lógica de inferencia, por lo tanto, se puede representar conforme a la lógica proposicional para evaluar dos criterios, como los estudiados por Cornman, Pappas y Lehrer (1982), que son: validez y verdad. Para comprobar la validez, se estructura en modo de argumento el marco teórico a través de la siguiente forma argumental válida conocida como modus tollens, también conocido como negación del consecuente, la cual se expresa de la siguiente manera:

Si P, entonces Q No Q Por lo tanto No P Posteriormente, con el fin de comprobar la verdad de las premisas y de la conclusión se asigna a cada una de las premisas su correlativo empírico a partir de una relación específica que permita la evaluación, para determinar si alguna de ellas, o un conjunto de ellas, influye en mayor medida en el desempeño económico y la distribución de los recursos en el futuro para lograr un crecimiento económico en México. Dicha asociación entre premisas e indicadores se realiza con base al marco teórico ya mencionado a partir de Rodrik (2007); Acemoglu, Johnson y Robinson (2004); Caballero y Soto-Oñate (2016), así como Vitola y Maija (2015). La relación de indicadores del sistema político económico de México con el marco teórico de Acemoglu, Johnson y Robinson (2004) queda de la siguiente forma, según se puede observar en la Tabla 1.

Tabla 1. Indicadores del sistema político económico en México.

Revista Científica

201


Resultados y discusión A continuación se observan los resultados de la asignación de indicadores a las premisas del argumento para determinar su verdad.

Tabla 2. Resultados de asignación de indicadores.

202

Revista Científica


Conclusiones Con los resultados mostrados en la tabla 2 se está en posibilidad de afirmar que la institución política por excelencia o como menciona Rodrik (2007) la meta-institución, que es la democracia, es fallida. En tanto de jure political power es casi inexistente al ser la impunidad la práctica común y corriente. Lo mismo sucede con de facto power donde los grupos del primer decil de la población concentran la riqueza de recursos. La institución económica por excelencia, que es la empresa, presenta una tasa de mortandad elevada, cercana al 66%. Por último, la distribución de los recursos es inequitativa, generando desigualdad, en más del 70% de la población de México. Bajo estos resultados empíricos, las instituciones no funcionan de manera eficiente en un país como México. Ahora bien, para mostrar que el siguiente argumento es válido, se sustituyen las variables por oraciones del marco teórico: + Si se tiene una eficiente distribución de los recursos, e instituciones políticas y económicas eficientes (P), entonces el desempeño económico y la distribución de los recursos en el futuro permitirán crecimiento económico (Q).

Se concluye que el marco teórico elaborado por Acemoglu, Johnson y Robinson (2004) se ajusta al análisis para explicar el desempeño económico de un país como México. A través de los resultados que presentan sus instituciones en lo particular, pero sobre todo ante la complementariedad negativa que inhibe el desarrollo económico por la falta de vigilancia y cumplimiento de sus instituciones, se infiere que resulta menos costoso violar las leyes que respetarlas para los jugadores económicos en México, lo cual afecta de manera negativa cualquier expectativa de crecimiento o desarrollo económico. Desde este enfoque teórico y por su fuerza lógica, el conjunto de variables son determinantes para esta conclusión, así como para los resultados, entendidos como desempeño económico y distribución de los recursos. Es decir, no es el caso que uno solo de sus elementos tenga mayor influencia, sino que el conjunto de sus premisas determina la conclusión o los resultados.

+ Para el presente estudio, y con base en los resultados de los indicadores antes presentados, se negará, mediante la evidencia empírica, la conclusión del marco teórico.

La evidencia empírica (los indicadores) muestra que México presenta una inequitativa distribución de los recursos y un desempeño económico bajo; por lo tanto, tiene un conjunto de instituciones políticas y económicas poco eficientes y deberá trabajar en fortalecer el jure political power, haciendo que los costos por romper las leyes sean más altos, en tanto que seguirlas ofrece costos más bajos.

+ No es el caso que México tenga un desempeño económico y una distribución de los recursos que en el futuro permitan su crecimiento económico (Q).

Por otro lado, de facto power debe distribuirse mejor entre diferentes y diversos grupos sociales, mediante una distribución del ingreso menos desigual y apuntando a una sensible reducción del nivel de pobreza.

+ Por lo tanto: no es el caso que México cuente con una eficiente distribución de los recursos, ni con instituciones políticas y económicas eficientes (P).

Una futura línea de investigación es elaborar un modelo estadístico para correlacionar los elementos teóricos con más indicadores de desempeño y predecir conductas sociales positivas o negativas bajo el contexto mexicano, para tomar decisiones que contribuyan a mejorar la distribución de los recursos y el desempeño económico de México.

Bibliografía

+

Acemoglu, D; Gallego, A. F y Robinson, A. J (2014). Institutions, human capital and developmen [online] Available at: <http:// www.nber.org/papers/w19933.pdf> [Accessed 11 september 2016].

+

Acemoglu, D; Johnson, S. y Robinson, J. (2004). Institutions as the fundamental cause of long-run growth [online] Available at: <http://economics.mit.edu/files/4469> [Accessed 10 september 2016].

+

Beck, T. y Levine, R. (2003). Legal institutions and financial development [online] Available at: <www.nber.org/papers/w10126. pdf> [Accessed 10 september 2016].

+

Caballero, Gonzalo y Soto-Oñate, David (2015). “The Diversity and Rapprochement of Theories of Institutional Change: Original Institutionalism and New Institutional Economics.” Journal Of Economic Issues (M.E. Sharpe Inc.) 49, no. 4: 947-977. Business Source Complete, EBSCOhost (accessed September 14, 2016).

+

Centro de Estudios sobre Impunidad y Justicia (CESIJ) (2016). Índice global de impunidad México. [pdf] Universidad de las Américas Puebla. Available at: http://www.udlap.mx/igimex/assets/files/ igimex2016_ESP.pdf

+

Che, Dawei y Ling, Shen (2013). “The co-development of economies and institutions The co-development of economies and institutions.” Economics Of Transition 21, no. 2: 241-268. Business Source Complete, EBSCOhost (accessed September 14, 2016).

Revista Científica

203


+ Consejo Nacional de la Evaluación de la Política de Desa-

rrollo Social (CONEVAL) (2015). Medición de la pobreza en México y en las entidades federativas 2014. [pdf] CONEVAL. Available at: http://www.coneval.org.mx/Medicion/MP/Paginas/Pobreza_2014. aspx

+

+

Orhan, Selma Sevinç (2016). “The Visible Hand of Economics: Institutional Chance Performance and Sustainable Institutional Development.” Sosyoekonomi 24, no. 3: 73-92. Business Source Complete, EBSCOhost (accessed September 13, 2016).

+ Foro Económico Mundial (WEF) (2014-2015). Índice global

Ostrom, E. (2015). Understanding Institutional Diversity. 1st ed. U.S.A: Princeton University Press.

Cornman, H.W; Pappas, G.S y Lehrer, K. (1990). Problemas y argumentos filosóficos. 1 ra. ed. México; U.N.A.M.

de competitividad 2014-2015 vía WEF. [pdf] IMCO. Available at: http://imco.org.mx/competitividad/indice-global-de-competitividad-2014-2015-via-wef/ [Accesed 3 september 2016].

+

Freytag, Andreas y Sebastian, Voll (2013). “Institutions and savings in developing and emerging economies.” Public Choice 157, no. 3/4: 475-509. Business Source Complete, EBSCOhost (accessed September 14, 2016).

+

Instituto Nacional de Estadística y Geografía (INEGI) (2015). Esperanza de vida de los negocios en México. [pdf] INEGI. Available at: http://www.inegi.org.mx/inegi/contenidos/Investigacion/Experimentales/esperanza/default.aspx [Accesed 4 september 2016].

+

Instituto Nacional de Estadística y Geografía (INEGI) (2015). Encuesta nacional de ingresos y gastos de los hogares 2014. [pdf] INEGI. Available at: http://www.inegi.org.mx/saladeprensa/boletines/2015/especiales/especiales2015_07_3.pdf [Accesed 3 september 2016].

+ North, D.C. (2004). Institutions, Institutional Change and Eco-

nomic Performance. 2nd ed. U.S.A: Cambridge University Press.

+

Michalopoulos, S. y Papaioannou, E. (2012). Pre-colonial ethnic Institutions and contemporary african development [online] at <http://www.nber.org/papers/w18224.pdf> [Accessed 10 september 2016].

204

+

Kapur, S. y Kim, S. (2016). British colonial Institutions and economic development in India [online] Available at: <http://www. nber.org/papers/w12613.pdf> [Accessed 11 september 2016].

Revista Científica

+ +

Rodrick, D. (2007). One Economics, Many Recipes: Globalizations, Institutions, and Economic Growth. 1st ed. U.S.A: Princeton University Press.

+

Rodrik, D.; Subramanian, A. y Trebbi, F. (2002). Institutions rule: the primacy of Institutions over geography and integration in economic development [online] at: <http://www.nber.org/papers/ w9305.pdf> [Accessed 10 september 2016].

+

The economist. Intelligence Unit. (2015). Democracy Index 2015: democracy in age of anxiety. [pdf] The economist. Available at: http://www.eiu.com/public/topical_report.aspx?campaignid=DemocracyIndex2015 [Accesed 9 september 2016].

+

Vītola, Alise y Maija, Senfelde (2012). “Institutions and Economic Performance.” Economics & Business 22, 181-188. Business Source Complete, EBSCOhost (accessed September 13, 2016).

+

Vitola, Alise y Maija Senfelde (2015). “THE ROLE OF INSTITUTIONS IN ECONOMIC PERFORMANCE.” Business: Theory & Practice 16, no. 3: 271-279. Business Source Complete, EBSCOhost (accessed September 13, 2016).


Revista CientĂ­fica

205


MODELADO CINEMÁTICO DE UN BRAZO ROBÓTICO DIDÁCTICO

Oswualdo Alquisiris Quecha1, Francisco Aguilar Acevedo2, Ignacio Algredo Badillo3 y María de la Paz Jaén Rendón4

Universidad del Istmo, Campus Tehuantepec, Ciudad Universitaria, S/N, Barrio Santa Cruz, 4a. Sección, Sto. Domingo Tehuantepec, Oaxaca, C.P. 70760. 3 Universidad Politécnica de Tlaxcala Av. Universidad Politécnica, No.1, Xalcaltzinco Tepeyanco, Tlaxcala, C.P. 90180. 4 ALBA Desarrollo Tecnológico e Innovación, S. de R.L. de C.V. Mártires de Xicohtzinco, No. 4 Col. Centro, Tlaxcala, C.P. 90780. 1,2

oswualdoaq@gmail.com Recibido: Diciembre 5, 2016. Recibido en forma revisada: Junio 15, 2017. Aceptado: Junio 21, 2017.

206

Revista Científica

Resumen: La descripción analítica del movimiento de un robot define las relaciones espaciales de este con su entorno, facilitando la descripción de trayectorias de movimiento. Conocer la cinemática de un robot permite delimitar las tareas que puede realizar, previo a su implementación en un androide real. En el presente trabajo, se muestra el modelado cinemático del brazo robótico Smart Robotics Arm y su validación a través de simulaciones en computadora.

+

Palabras clave: Cinemática, brazo robótico, Denavit-Hartenberg y simulación.

Abstract: The analytical description of a robot movement defines the spatial relationships of a robot in connection with the environment. Thus, it facilitates the description of the trajectories of its movement. The understanding of the kinematics of a robot is crucial in delineating the tasks it can perform prior to the deployment of a real robot. This research paper shows the kinematic modeling of the Smart Robotics Arm and its validation through computer simulations.

+

Keywords: Kinematics, robotic arm, Denavit-Hartenberg and simulation.


Introducción Los manipuladores robóticos cuentan con un gran campo de aplicación y utilidad, al ejecutar tareas con rapidez y un alto nivel de precisión. Dentro de las ventajas, en cuanto al uso de manipuladores robóticos, se pueden listar la reducción de costos, la mejora de la calidad del producto o proceso, el aumento en la producción y reducción de desperdicios, la mayor seguridad en el trabajo al ser empleados en procesos peligrosos y el ahorro de espacios (Correa, Vásquez, Ramírez y Taborta, 2013). La estructura típica de un manipulador robótico consiste en un brazo compuesto por elementos con articulaciones: entre ellos (Fu, 1988). El elemento terminal o efector final es una pinza o un dispositivo especial para realizar operaciones (Mejía, 2007). El Smart Robotics Arm es un brazo robótico comercializado por la empresa CrustCrawler, de cinco grados de libertad distribuidos en cuatro articulaciones, tres de rotación y una cilíndrica (rotación/traslación). De los cinco GDL (Grados De Libertad) con los que cuenta este brazo robótico, tres de ellos se relacionan directamente con la posición del efector final, el penúltimo GDL es utilizado para la orientación del efector del manipulador y el último GDL está relacionado con el cierre y apertura del efector final (Figura 1). En este trabajo el modelo cinemático que se presenta se reduce a considerar los primeros tres grados de libertad del manipulador, los cuales son suficientes para definir la posición en el espacio del efector final.

(a) Manipulador físico

Figura 2. Relación entre cinemática directa e inversa. Para dar solución a estos problemas existen diferentes metodologías, que son seleccionadas e implementada de acuerdo al diseño y cantidad de grados de libertad del manipulador. Para la obtención de la cinemática de un robot habitualmente se hace uso de un enfoque geométrico o bien de la representación Denavit-Hartenberg (Siciliano, Sciavicco, Villani, y Oriolo, 2010).

Modelado cinemático del manipulador A continuación, se presenta la obtención de la cinemática directa mediante la convención Denavit-Hartenberg y la cinemática inversa empleando un método geométrico, para el manipulador robótico Smart Robotics Arm.

Cinemática directa mediante Denavit-Hartenberg En la Figura 3 se muestra la representación del manipulador para la obtención de los parámetros Denavit-Hartenberg (D-H).

(b) Diagrama de alambre

Figura 1. Manipulador robótico Smart Robotics Arm.

Cinemática de un manipulador robótico La cinemática de un manipulador robótico consiste en el estudio del movimiento del mismo con respecto a un sistema de referencia. La cinemática se interesa por la descripción analítica del movimiento espacial del robot como una función del tiempo (Rodríguez, 2010). En la cinemática de un robot existen dos problemas fundamentales a resolver, la cinemática directa y la cinemática inversa. La primera consiste en determinar la posición y orientación del extremo final del robot con respecto al sistema de referencia base, a partir de conocer los valores de las articulaciones y los parámetros geométricos del robot; en la segunda, se resuelve la configuración adecuada y óptima que debe adoptar el robot para llegar a una posición y orientación conocida del extremo o actuador final. En la Figura 2, se ilustra la relación entre la cinemática directa e inversa.

Figura 3. Diagrama de alambre del manipulador para la obtención de parámetros D-H. En la Tabla 1 se presentan los parámetros obtenidos siguiendo la convención D-H.

Tabla 1. Parámetros D-H.

Revista Científica

207


El movimiento simplificado del robot en el plano wz se muestra en la Figura 5, esto permite redefinir el sistema a dos GDL. Donde:

La matriz que representa el sistema de referencia del efector final respecto al origen es la siguiente:

(1)

(4)

Donde: ci = cos θi , si = sen θi , y li = longitud del eslabón i. Ejemplo c(2+3) = cos (θ2 + θ3). El vector que representa las coordenadas del efector final respecto al sistema de referencia base está dado por: (2)

El cual también puede ser obtenido empleando un enfoque geométrico.

Cinemática inversa mediante enfoque geométrico En manipuladores robóticos, el objetivo principal de la cinemática inversa es el de calcular el valor de las variables articulares que permitan obtener una determinada posición y orientación del efector final. Para el manipulador robótico Smart Robotics Arm empleado, la cinemática inversa solo se definirá a partir del vector de posición del punto final del efector (x, y, z), sin considerar la orientación. Así, el análisis de la cinemática inversa se centra en un mecanismo de tres variables articulares (θ1, θ2, θ3) como se muestra en la Figura 4. La orientación y las funciones de la pinza del efector final no son consideradas.

Figura 5. Plano simplificado wz.

El sistema de 2 GDL muestra dos posibles soluciones: codo abajo y codo arriba (Figura 6a). Aplicando el teorema de cosenos al triángulo formado por l2, l3 y r’, es posible calcular θ3 de la siguiente manera:

(5)

Siendo el signo del argumento en la Ecuación (5), el que definirá la configuración que describa la posición del brazo, con el signo + se denota la configuración codo abajo y con el signo - la configuración codo arriba. Para la obtención de θ2, es posible identificar relaciones geométricas desprendidas de la obtención de θ3, como se muestra en la Figura 6b.

(a)

Figura 4. Esquema de movimiento del efector.

En relación con la Figura 4, el ángulo θ1 estará definida sólo por x y y, por lo tanto: (3)

(b)

Figura 6. Esquema para el análisis de θ2 y θ3. 208

Revista Científica


De las relaciones observadas se obtiene:

Símbolos (6)

(7)

Simulación del modelo cinemático Para la validación de los modelos cinemáticos obtenidos se realizó una simulación en computadora del movimiento del manipulador robótico en un espacio cartesiano de tres dimensiones. La cinemática directa se utiliza para realizar la representación tridimensional del robot (uniones y enlaces), mientras la inversa permite transformar los puntos en el plano cartesiano en valores de las variables articulares (ángulos de rotación). La trayectoria de movimiento es descrita por la familia de curvas llamada rosa polar que responde a la ecuación en coordenadas polares, r(θ)=a Sin(kθ+ϕ0 ) donde a representa la longitud de los pétalos y ϕ tiene un efecto de rotación global sobre la figura obtenida. En la Figura 7 se muestran fragmentos de secuencia de la simulación, donde β de 45°, l11 = 8.7 cm, l12 = 7.9 cm, l2 = 17.2 cm y l3 = 18 cm, conforme a las características estructurales del Smart Robotics Arm.

Bibliografía

+

Mejía, I. (2007). Diseño y construcción de un mecanismo de aprehensión para manipular objetos cilíndricos con el MIRH. (Tesis de Maestría, Instituto Politécnico Nacional, México). Recuperada de http://tesis.ipn.mx:8080/xmlui/handle/123456789/548

+

Rodríguez, A. O. (2010). Localización del elemento efector del robot paralelo de tres grados de libertad parallix. (Tesis de Maestría, Instituto Politécnico Nacional, México). Recuperada de http://tesis.ipn. mx:8080/xmlui/handle/123456789/12910 (a) Trazado en t1.

(b) Trazado en t2.

Figura 7. Simulación del modelo matemático.

+

Fu, K. S. (1988). Robótica: control, detección, visión e inteligencia. Madrid, España: McGraw-Hill Interamericana de España. ISBN #8476152140.

+

Conclusiones En relación con el brazo robótico Smart Robotics Arm, el modelo cinemático obtenido se reduce a los primeros tres grados de libertad del manipulador, los cuales se relacionan directamente con la posición del efector final. Así, el modelo se centra en definir la posición en el espacio cartesiano tridimensional del extremo final del manipulador, sin considerar para ello los dos últimos grados de libertad, los cuales representan la orientación del efector (pinza) así como el cierre y apertura de la misma. Las simulaciones presentadas permiten validar el modelo cinemático obtenido.

Siciliano, B.; Sciavicco, L.; Villani, L. y Oriolo, G. (2010). Robotics: modelling, planning and control. London: Springer Science & Business Media. ISBN #9781846286414.

+

Correa, J.; Vásquez, R.; Ramírez, J. M. y Taborta, E. (2013). Manipuladores robóticos, una mano para la industria. Metal Actual, 29, 22-23. ISSN #20119607.

Revista Científica

209


MODELO DE PROGRAMACIÓN LINEAL PESIMISTA Y OPTIMISTA

PARA LA PRODUCCIÓN DE PRODUCTOS LÁCTEOS DE LA CREMERÍA “LA VAQUITA”. Martha Yesenia Gerón Fernández1, Karla Christel Rosas Córdova2 y Martha Áurea Salazar Castellanos3

1,2,3

Instituto Tecnológico Superior de Misantla Carretera Loma del Cojolite, km. 8.1, Misantla, Veracruz, México, C.P. 93821.

thamareau@hotmail.com

Resumen: En el presente trabajo se utilizó la programación lineal para maximizar las ganancias de la cremería “La Vaquita”, micro-empresa dedicada a la transformación de la leche, por lo cual se propuso con este procedimiento resolver el problema de cuánto se producirá de cada producto. El análisis se centró en tres productos (queso fresco, queso hebra y yogurt) y con base a la oferta y demanda incierta se determinó la utilización de intervalos de confianza para la distribución con varianza poblacional conocida, para saber el rango de desplazamiento dinámico para la producción, a partir de datos históricos de lo anteriormente mencionado. Los resultados de este estudio permitieron observar ambos escenarios: el pesimista y optimista, mostrando en este artículo el escenario ideal o más deseable (optimista), contemplando cambios razonables y positivos basados en un conjunto de datos que se podrán lograr en corto, mediano y largo plazo.

+

Palabras clave: programación lineal, intervalos de confianza, optimista y demanda.

Recibido: Diciembre 5, 2016. Recibido en forma revisada: Mayo 28, 2017. Aceptado: Junio 21, 2017.

210

Revista Científica

Abstract: In this paper linear programming is used to maximize the profits of the creamery ‘The vaquita “dedicated to the processing of milk, so this procedure is proposed to solve the problem of what will occur for


each product. The analysis focuses on 3 products (cheese, strand cheese and yogurt), and based on supply and uncertain demand the use of confidence intervals for distribution with known population variance was determined to know the range of dynamic displacement for production, from historical data of the above. The results of this study allowed to observe both scenarios; the pessimistic and optimistic, showing in this study the ideal or most desirable scenario, contemplating reasonable and positive changes based on a data set that are distinguished achieved in the short, medium and long term.

+ Keywords: linear programming, confidence intervals, optimistic y demand.

Introducción En Misantla, Veracruz, existen varias micro-empresas dedicadas a la transformación de la leche en varios productos derivados de la misma. Una de ellas es la cremería “La Vaquita”, fundada el 25 de octubre del 2000, como una recolectora y productora de leche que elabora diferentes productos lácteos, como el queso fresco, queso hebra y yogurt. En la actualidad, su producción ha abastecido la demanda que le llega diariamente de los diferentes clientes con los que cuenta; sin embargo, el mercado sigue creciendo y cada vez está más exigente. La programación lineal es un método utilizado para resolver problemas de optimización. Con éste método, es posible calcular e identificar los valores óptimos de cada producto, para los cuales la empresa consuma el mínimo de recursos, o bien para maximizar los ingresos y utilidades, entre otros. Los resultados que arroja un modelo de programación lineal no siempre son valores óptimos, pueden ser pesimistas y optimistas. El optimista es la solución que toda empresa desea encontrar, para lograr disminuir costos, o en este caso, aumentar las ganancias; a pesar de su corta historia en la ingeniería, presenta un crecimiento muy rápido, ya que es capaz de resolver problemas relacionados con la incertidumbre de toda información, proporcionando un método formal para la expresión del juicio de manera entendible y compresible por los humanos, basado en datos históricos de la producción diaria en la cremería, se presenta un Modelo de Programación Lineal, en el cual se pretende maximizar las ganancias de la cremería dedicada a la transformación de la leche, partiendo de los tres productos básicos (queso de hebra, queso fresco y yogurt), considerando la oferta y demanda incierta de los mismos.

Desarrollo En la cremería “La Vaquita”, dedicada a la recolección y producción de diferentes tipos de productos derivados de la leche, el encargado puede recolectar hasta mil 200 litros de leche diarios para la elaboración de dichos productos (queso hebra, queso fresco y yogurt) utilizando 200, 600 y 100 litros, respectivamente. La demanda diaria es de 20, 85 y 90 kilos, correspondientemente. En la siguiente tabla se muestra la cantidad de leche que utiliza para la realización de cada kilo de producto (Tabla 1).

Los costos de producción de cada producto, así como también el precio de venta y la utilidad, se muestran en la Tabla 2.

Tabla 2. Costos de producción, precio de venta y utilidad neta. Mediante los datos reales e históricos, se presenta en este artículo un modelo de programación lineal con restricciones, obtenidas mediante intervalos de confianza para distribución con varianza poblacional conocida, esto con la finalidad de ayudar al encargado a determinar cuánto deberá producir de cada tipo de producto que ofrece al mercado, para tener un máximo aprovechamiento de la materia prima y maximizar las ganancias. La venta del yogurt se expresó en kilogramos. A continuación, se mostrarán los elementos que componen el modelo de programación lineal:

+ Definición de las variables. Las variables utilizadas en el modelo con su respectiva nomenclatura se definieron de la siguiente manera: Xi = kilogramos a producir del producto i

donde i = (i = 1 queso hebra, i = 2 queso

fresco, i =3 yogurt.).

+ Definición de la función objetivo. La función objetivo quedó planteada de la siguiente forma: MAX=25*X1+29*X2+13*X3;

(1)

+ Restricciones. Las restricciones que se utilizaron en el modelo se mencionan seguidamente: !Restricción de la capacidad de producción; [LITROS]

10*X1+7*X2+1*X3<=1200;

(2)

Para la restricción de la demanda, se realizaron intervalos de confianza para la distribución muestral con varianza poblacional conocida, ya que en muchos casos una estimación puntual, como lo es el cálculo de la media, no aporta suficiente información sobre el verdadero comportamiento de la media de la población, por lo que resultó necesario plantear un intervalo en términos de la distribución de la probabilidad adecuada para estimar de manera correcta el comportamiento de la media de la población. La construcción de intervalos de confianza depende de las características de la población (normal o no) de los parámetros o combinaciones de parámetros a los que se les construye (media, varianza, proporción, etc.), tamaño muestral y parámetros poblacionales conocidos. A continuación, se describe la ecuación para los intervalos de confianza para la distribución muestral con varianza poblacional conocida, implementados en el modelo matemático:

Tabla 1. Litros de leche a utilizar para cada kilogramo del producto. Revista Científica

211


X2 X3

84.70020 92.30080

-29.00000 -13.00000

(3)

Se sustituyeron los valores de la muestra de cada producto (queso hebra, queso fresco y yogurt) en la fórmula mencionada anteriormente, y como consecuencia se obtuvieron los siguientes intervalos para cada producto:

El resultado de los intervalos del primer producto (queso hebra) se encuentran dentro de los parámetros 36.558 mayor o igual a la media y menor o igual a 38.9299; el resultado de los intervalos del segundo producto (queso fresco) se encuentran dentro de los parámetros 82.2976 mayor o igual a la media y menor o igual a 84.7002, y el resultado del tercer producto (yogurt) se encuentran dentro de los parámetros 89.2991 mayor o igual a la media y menor o igual a 92.308; esto quiere decir que se encuentran dentro del intervalo de confianza para la distribución dada. Tomando los resultados de los intervalos de confianza la restricción de la demanda quedó proyectada de la siguiente manera:

Dual Price 1.000000 0.000000

Resultados

Tabla 3. Resultados del modelo de programación lineal. Los resultados obtenidos mediante LINGO 10, ofrecen la siguiente información: La columna titulada Solución contiene el valor óptimo de cada variable, es decir, para X1=38.92990 (queso hebra), X2=84.70020 (queso fresco) y X1=92.30080 (yogurt). El beneficio de la máxima utilidad que se puede generar es de $4,629.464.

! Restricción de la demanda; ! Intervalo;

La columna titulada Costo reducido contiene (salvo el signo) las variables del problema. El signo es el que se corresponde con la interpretación en donde: X1= -25.00000, X2= -29.00000 y X3= -13.00000. Son los ingresos que se obtendrán por cada kilo de tipo de producto a elaborar.

@BND (36.5538,X1,38.9299); @BND (82.2976,X2,84.7002); @BND (89.2991,X3,92.3008); A continuación, se muestra la modelación que se realizó en LINGO®, cuyos resultados se muestran en el apartado siguiente: Global optimal solution found. Objective value: 4629.464 Infeasibilities: 0.000000 Total solver iterations: 0 Elapsed runtime seconds: 0.17 Model Class:

Conclusiones

3 0 0

Total constraints: Nonlinear constraints:

Total nonzeros: Nonlinear nonzeros:

2 0

6 0

Value 38.92990 Revista Científica

La columna Precios duales contiene (salvo el signo) las variables duales, (en el caso de la programación lineal) de las restricciones (excepto la entrada correspondiente a la función objetivo, cuyo valor es siempre igual a 1). El signo es el que se corresponde con la interpretación siguiente: El precio dual de una restricción indica, aproximadamente, lo que mejorará la función objetivo por cada unidad que aumente el término independiente de la restricción.

LP

Total variables: Nonlinear variables: Integer variables:

212

Slack or Surplus 4629.464 125.4988

Utilizando el Software LINGO 10, el modelo lineal presenta los siguientes resultados:

Para el queso hebra: (36.558≤μ≤38.9299) Para el queso fresco: (82.2976≤μ≤84.7002) Para el yogurt: (89.2991≤μ≤92.308)

Variable X1

Row BENEFICIO LITROS

La metodología de programación lineal permitió encontrar soluciones factibles al problema, teniendo como base los intervalos de confianza, ofreciendo dos panoramas, donde se estaría dispuesto a invertir la misma cantidad, el mismo grado de riesgo y las utilidades se pueden comportar de manera muy diferente por su nivel de incertidumbre, pero también por la posible ganancia que representa cada una de ellas. Así como también planificar de manera eficiente su producción y conocer los ingresos y beneficios que se obtendrían si se cumple el plan de producción.

Reduced Cost -25.00000

Símbolos kg Kilogramos lts Litros


Bibliografía

+

Taha, Hamdy A. (2003). Investigación de Operaciones. Pearson Prentice Hall.

+

Hernández Castañeda, Sergio (2014). Sobre la economía matemática: algunas reflexiones generales. Publicación de la revista Economía Informa Núm. 388, Septiembre-Octubre 2014.

+

Walpole, Ronald; Myers, Raymond; Myers, Sharon y Ye, Keying (2012). Probabilidad y estadística para ingeniería y ciencias, 9na, Edición.

Revista Científica

213


MANUAL DE ESTILO CONSEJO EDITORIAL

FORMATOS DE ENTREGA

MISIÓN

El material tiene que ser entregado en procesador de texto WORD, con letra tipo Arial, a 12 puntos, con espacio sencillo y alineación a la izquierda.

El objetivo principal del Consejo Editorial es divulgar mediante una revista de corte científico, de publicación semestral, todos aquellos logros realizados por los investigadores de nuestra Universidad y sus aportaciones a beneficio de la sociedad.

VISIÓN

Formato carta, extensión mínima 3 cuartillas y un máximo de 10, incluyendo notas y bibliografía.

Con la difusión de estos avances obtendremos el reconocimiento de la comunidad y lograremos el posicionamiento de la Universidad Tecnológica de Ciudad Juárez, en áreas de desarrollo científico.

Utilizar sangría francesa al inicio de cada párrafo.

ATRIBUCIONES

Todas las páginas deberán estar enumeradas en secuencia, comenzando por la portada.

1. El Consejo Editorial tiene como objetivo cuidar y promover la imagen y prestigio de la UTCJ.

Las siglas deben venir en su forma destacada (p. ej. UTCJ, Universidad Tecnológica de Ciudad Juárez).

2. Realizar la corrección de estilo y todos los cambios ortográficos y de

Señalar la naturaleza del trabajo: artículo de investigación, avance, etc.

redacción que sean necesarios para mejorar la calidad de los artículos a publicar.

3. Verificar que todas las obras cuenten con los requisitos editoriales que marca nuestro Manual de Estilo y Normas de Publicación. 4. Contribuir en la difusión y distribución de nuestra revista científica.

Márgenes de 3 cm. superior y 2.5 cm. de derecha e izquierda.

El título de la obra debe ser colocado en la parte superior del documento, en forma centrada, destacado con negritas. Todos los textos deben incluir nombre completo del autor y/o colaboradores, grado académico y área de especialización, así como también un correo electrónico. Los nombres de los autores deben de aparecer en el orden de sus contribuciones.

5. Evaluar y supervisar el proceso editorial. 6. Vigilar la calidad de las obras que lleven el sello editorial.

LINEAMIENTOS I. Los artículos que se publiquen serán responsabilidad del autor. II. Cada artículo deberá contar con las siguientes características y lineamientos editoriales:

a. Tener como base los resultados de una investigación científica, original y relevante. b. Una vez publicado el artículo, los derechos de autor pasan a la Universidad Tecnológica de Ciudad Juárez. c. Cubrir parte del estado de conocimiento vigente. d. Estar escritos con un lenguaje adecuado y que atiendan la serie de condiciones formales y de contenido propio de un texto científico. Es importante que cada trabajo de investigación cuente con crédito de autor y/o colaboradores, crédito de fotografías (si las hay) y un correo electrónico.

214

Revista Científica

Anexar en el trabajo de investigación un currículum de autor (es). El solicitante y/o autor se compromete a estar disponible para atender cualquier asunto relacionado con su obra. En todos los casos, los manuscritos entregados no serán devueltos. La fecha de entrega del material será determinado por el editor y este a su vez se lo hará del conocimiento al autor. El autor debe incluir un resumen breve de los contenidos del artículo.

Los trabajos deberán enviarse al correo electrónico:

editorial@utcj.edu.mx Para mayor información comunicarse al Tel. +52 1 656 649 0604


THEOREMA No. 6

OCTUBRE - 2017 NÚMERO ESPECIAL

deben de ser claras y fáciles de leer. Figuras numeradas, en número arábigo seguido de pie de figura para la parte inferior de cada una de ellas e insertadas dentro del cuerpo del artículo y no al final de este.

ESTRUCTURA DEL ARTÍCULO TÍTULO EN INGLÉS Y ESPAÑOL

No debe ser mayor a 15 palabras y describir el contenido del artículo de una forma clara, exacta y concisa.

ABSTRACTOS

Incluir los resúmenes en español y en inglés (abstract), de 150 palabras, cada uno. Debe de indicar clara y brevemente el propósito de la investigación, de los procedimientos básicos, de los resultados y de las conclusiones principales. Evite el uso de abreviaturas y de términos altamente especializados en el extracto.

PALABRAS CLAVE

Presentar cinco palabras clave, en inglés y en español, estos términos deben de aparecer debajo del resumen, en la misma página. Se pueden utilizar palabras solas o términos compuestos.

ABREVIATURAS

Las abreviaturas deben de ser definidas la primera vez que se mencionan. Si fuera esto en el resumen, entonces debe de definirse de nuevo en el cuerpo principal del texto.

INTRODUCCIÓN

Este apartado plantea el propósito del artículo sin un despliegue extensivo del tema, utilizando solo las referencias más pertinentes. Indique las razones que motivaron a la investigación y cuando corresponda, dé cuenta de la hipótesis postulada.

MATERIALES Y MÉTODOS

Se describe el diseño de la investigación y se explica cómo se llevó a la práctica, justificando la elección de métodos, técnicas e instrumentos, si los hubiera, teniendo en cuenta la secuencia que siguió la investigación.

RESULTADOS

Se describen los resultados del estudio, resaltando los hallazgos relevantes (incluso los resultados contrarios a los objetivos propuestos, si es el caso). Los resultados se presentarán utilizando texto, tablas e ilustraciones.

DISCUSIÓN

Interpretación de los resultados y su significado sobre el trabajo de otros autores.

AGRADECIMIENTOS

Al patrocinio o proyecto son lo más breve posible.

LAS TABLAS Y FIGURAS

A fin de garantizar los más altos estándares para la calidad de las ilustraciones, estás deben de ir a una resolución de 300 dpi´s. Las figuras

Las tablas tienen que ser menores de 17 cm. x 20 cm., enlistadas en números arábigos y tener un título, y/o leyenda en la parte superior para explicar cualquier abreviatura utilizada en ella, del mismo modo estar insertas dentro del cuerpo del artículo.

FOTOGRAFÍAS E ILUSTRACIONES

Todo material de foto e ilustraciones deben de enviarse en un archivo del artículo. Como también en formato aparte JPG o PSD, con una resolución mínima de 300 dpi´s, en tamaño real. Tanto las tablas, figuras, fotografías e ilustraciones se entregarán en procesador Excel.

CITACIÓN

Para la citación textual larga, de 40 palabras o más, es necesario separar el texto citado y disminuir el tamaño de la tipografía un punto. Del mismo modo, se deben aumentar los márgenes laterales 1 cm. y colocar inmediatamente después (autor, año), al que se cita.

FECHA

Se cita al final del trabajo, precedido del lugar donde se redactó el original.

BIBLIOGRAFÍA

La exactitud de las referencias es responsabilidad de los autores. Se incorpora al final del artículo, numeradas, incluyendo en orden alfabético todas las obras citadas en el texto y en los pies de página. El autor debe revisar cuidadosamente que no hay omisiones e inconsistencias entre las obras citadas y la bibliografía. La redacción se presenta de la siguiente manera: Nombre del autor y colaboradores (en su caso), comenzando con el apellido paterno, seguido de los nombres. Año de la publicación entre paréntesis. Título del libro en itálicas (cursivas). Edición (de la segunda en adelante). Casa editorial, ciudad de publicación, país y páginas totales.

EJEMPLO DE REFERENCIAS LIBRO

Wiener, Norbert, Cibernética: o el control y la comunicación en animales y máquinas, Barcelona, Tusquets, 2003.

ARTÍCULO DE REVISTA

Ádem, José, 1991, ´Algunas consideraciones de la prensa en México´, Avances y Perspectiva, vol. 10, abril-junio pp. 168-170

PÁGINAS WEB

Ramírez, E., 2012, Economía futura en América Latina. Recuperado de http://www.economico-online.com.

Revista Científica

215


216

Revista CientĂ­fica


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.