Page 1


1

Editorial

La utilidad social del conocimiento

REVISTA

Ingeniería

L

1

as sociedades invierten recursos públicos y privados en la generación de procesos investigativos y formativos, los cuales en algunos casos son fuente de generación de conocimiento sin importar si este es o no de carácter científico. Lo que en general se espera o al menos lo que se desea, es que este conocimiento sea de utilidad para la sociedad que los genero o los patrocino. Pero, ¿porque no siempre se logra esto? Las respuestas deben partir de lo que se entiende por conocimiento útil y de la posibilidad real de su aplicación. En el primer caso, se parte que esta utilidad se manifiesta en la capacidad que tiene el saber para la resolver problemáticas de las organizaciones, bien sea en el campo de la empresa, la familia o la sociedad en general. Si bien el conocimiento puede resolver problemas o atender oportunidades, es posible que las condiciones del sistema en que se quiera aplicar no lo permitan, es claro que el conocimiento per se no resuelve estas problemáticas, sino que es a través del ser humano que con su potencial y talento puede realizar su implementación, desde luego sin desconocer los recursos y restricciones que implica dicho esfuerzo. La implementación de los avances tecnológicos derivados de la producción de conocimiento se encuentra sujeta a una serie de limitaciones que condicionan las

potencialidades de las organizaciones dificultando o, incluso, impidiendo su desarrollo. Estas limitaciones van desde la estructura del mundo material, definida por la lógica y las leyes científicas, hasta las de los recursos intelectuales, especificados por la situación del conocimiento científico y el saber tecnológico, pasando por las limitaciones derivadas de los recursos materiales, especificados por su disponibilidad en calidad y cantidad, sin desconocer las originadas por las condiciones sociales, identificadas por las restricciones jurídicas y políticas. Entonces se puede trasladar el interrogante acerca de la poca o mucha utilidad del conocimiento a la posibilidad humana de su implementación, campo en el que no solo se debe entender como una mera competencia de entendimiento, claramente identificada como un manejo de comprensión y sistematización del saber, si no a un deseo de hacerlo, es decir que es posible que el grado de satisfacción del conocimiento frente a las necesidades de la sociedad pase por el deseo de su utilización y en este aspecto caen consideraciones de carácter ético o moral, tema que desde luego no es el objeto de esta editorial. Si se centra el debate de la utilidad del conocimiento, al entendimiento que se tiene por parte de las comunidades responsables de su aplicación, es necesario

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

1


REVISTA

Ingeniería

2

entonces hablar del papel que juega los medios de difusión de este conocimiento y que en mucho son los encargados de difundirlos permitiendo de esta forma amplificar los impactos esperados mediante el incremento de la posibilidad de impactar a la sociedad, de esta forma se justifica todos los recursos empleados en favores y mantener los medios de comunicación de conocimiento, en la medida que impacten y permitan mejorar la sociedad. Entonces si se subsanase el problema de la difusión del conocimiento tampoco se garantiza la utilidad para la sociedad, ya que se podría disponer de un cumulo de conocimientos poco útiles en el campo del dominio de los actores de la comunidad, la difusión entonces no garantiza la calidad del contenido, se debe también entender como un problema de calidad y no de cantidad de conocimiento. Tema crucial a la hora de evaluar la gestión de los medios de difusión. Pero esta calidad en la cobertura de difusión del conocimiento pasa por evaluar la capacidad de las organizaciones para acomodar rápidamente sus estructuras organizacionales para aumentar su velocidad de aprender y con ello incrementar la flexibilidad para liderar

NUESTRA PORTADA: Ilustración del mapa de la Red Nacional Académica de Tecnología Avanzada y de respositorios digitales. Diseño gráfico y concepto: Grupo de creativos. GRUPO EDITORIAL GAIA

2

Vol.14 No.1

Ingeniería

los procesos de transformación de las estructuras y de los procesos, sin embargo este camino requiere de demasiados esfuerzos y cambios en los paradigmas de interacción en las organizaciones, prueba de ello son el aumento de la responsabilidad local en el proceso de toma de decisiones, el premio a la innovación individual y colectiva y finalmente, los cambios en las estructuras y jerarquías de mando. Muchas han sido las técnicas, filosofías y estrategias que en los últimos años se han desarrollado en torno a estos tópicos y que en su momento fueron difundidas por los medios apropiados como las revistas científicas. Es cierto que se ha adelantado en esta materia de responsabilidad social por generar conocimientos útiles en la Universidad, también lo es, que falta mucho por hacer pero se requiere de esfuerzos que partan desde los mismos organismos de dirección de la Universidad, es por ello que cada día la comunidad académica representada en docentes y estudiantes así como los entes de gestión, entienden de la importancia de la generación de saberes útiles a la sociedad y de esta forma es que la Revista de Ingeniería se pone al servicio de la difusión del quehacer de propios y terceros que quieren compartir su conocimiento.

PhD. Germán Méndez Giraldo Director Fe de erratas: En la revista Ingeniería Vol. 13 No. 2 año 2008, involuntariamente se publicó que el autor Javier Arturo Orjuela Castro es Ing. Químico y Researcher member of electromagnetic compatibility group, Universidad Nacional de Colombia. Lo correcto es: Ing. Industrial e Investigador del Grupo de Investigación en Competitividad de la Industria Colombiana - GICIC.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

2


3

Contenido

REVISTA

Ingeniería Vol. 14 No. 1 año 2009 REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS Publicación admitida en el Índice Nacional de Publicaciones Seriadas Científicas y Tecnológicas de Colciencias

Página

ISSN 0121-750X

4

Director PhD. Germán Méndez Giraldo

Diseño de un Metodo Heurístico para Secuenciación en Sistemas Flow Shop Estrictos con Buffers Ilimitados Diana Catherine Salamanca Leguizamón, Harry Andrés Ortiz Cabuya, César Amilcar López Bello

Profesor Universidad Distrital

Comité Editorial Juan Lorenzo Ginori Víctor Hugo Grisales Miguel Fernando B. Germán Méndez G. Ana María Peña Agustín Vega

U. Central Las Villas

Ph.D.

U. Distrital

Ph.D.

U. Politécnica de Valencia

Ph.D.

U. Distrital

Ph.D.

U. Distrital

Ph.D.

U. Distrital

Msc.

13

Comité Científico Jorge Matos Gómez Pedro José Arco R. Marco Aurelio Alzate Nelson Pérez C. Fernando Cancino Álvaro Betancourt U. ○

U. Central Las Villas

Ph.D.

U. Central Las Villas

Ph.D. Candidato

U. de los Andes U. Distrital

Ph.D. Ph.D.

U. Distrital

Ph.D.

U. Distrital

Msc.

18

Tutorial for the Design of FIR Digital Filters over FPGA César Augusto Hernández Suarez, Edwar Jacinto Gómez, Octavio José Salcedo Parra

Aplicabilidad del Modelo de Información de Edificios en el ámbito geoespacial para apoyar el Plan Maestro de Desarrollo Físico y Tecnológico de la Universidad Distrital José Nelson Pérez Castillo, José Ignacio Rodríguez Molano

25

Minimización de la tardanza ponderada total en talleres de manufactura aplicando colonia de hormigas Oscar Yecid Buitrago S., Rodrigo Britto Agudelo, Gonzalo Mejía D.

31

UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Principios para la Formalización de la Ingeniería de Software Sandro Javier Bolaños C., Víctor Hugo Medina G., Luis Joyanes Aguilar

Rector Carlos Ossa Escobar Vicerrector Orlando Santamaría

38

Decana Facultad de Ingeniería Laura Marcela Giraldo Carrera 7 No. 40-53 Teléfono: 323 93 00 ext. 2413 revista_ing@udistrital.edu.co www.revistaingenieria.net ○

47

Simulador para el Control Financiero de las Pymes Germán A. Méndez Giraldo, Patricia Parra, José Hurtado Portela

Sistemas de Información para el Control de Transferencia en una Cadena de Manufactura Jairo Humberto Torres Acosta

Gestión editorial, Diseño gráfico, Diagramación e impresión

Grupo Editorial Gaia

53

Consideraciones metodológicas para la síntesis automática de procesadores difusos en ANSI-C Edgar Forero, Edgar Garcia, Miguel Melgarejo

Tels: 482 2061 - 310 2668311 gaiaeditorial@gmail.com ○

Los textos de los artículos de esta publicación pueden ser reproducidos citando la fuente.

3

Los juicios emitidos por los autores son de su responsabilidad, por lo tanto no comprometen a la Universidad Distrital, a la Facultad de Ingeniería, ni al Comité Editorial. Los originales se conservarán como parte del archivo de la Revista Ingeniería.

59

Integración de Repositorios Digitales para la Gestión del Conocimiento en el ámbito universitario Colombiano Luís Eduardo Cano Olivera, Pedro Enrique Espitia Zambrano, José Nelson Pérez Castillo, Luis Joyanes Aguilar

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

3


4

Diseño de un Metodo Heurístico para Secuenciación en Sistemas Flow Shop Estrictos con Buffers Ilimitados Diana Catherine Salamanca Leguizamón1 Harry Andrés Ortiz Cabuya2 César Amilcar López Bello3

Resumen Este artículo propone un método heurístico para resolver el problema de secuenciación para sistemas Flow Shop Estrictos con Buffer Ilimitados, con una función objetivo que consiste en la minimización del tiempo de procesamiento de la última orden en el sistema, es decir, el makespan. La solución del problema se basó en la creación de un método de aproximación que presenta dos fases: la primera, donde se obtiene una secuencia inicial a través de una heurística constructiva y la segunda fase, donde se aplica una heurística de mejora, que toma como base la respuesta encontrada en la fase anterior, y a través de una serie de iteraciones se generan respuestas alternas dentro de las cuales se escoge la mejor secuencia. Con la utilización del método propuesto, se obtuvieron mejores respuestas respecto a las reglas FIFO, LPT, SPT y el método heurístico de Palmer para el objetivo trazado, en los indicadores Makespan, tiempo de flujo, tiempo promedio de flujo, porcentaje de utilización de máquina, porcentaje de ocio de máquina, tiempo total de espera y tiempo promedio de espera. Palabras clave: Buffer Ilimitado, Eficacia, Flow Shop Estricto, Indicadores de desempeño, Método heurístico, Secuenciación.

Designing a heuristic method for Sequencing Systems Strong Flow Shop with Buffers Unlimited 1

Ingeniera Industrial de la Universidad Distrital Francisco José de Caldas.

2

Ingeniero Industrial de la Universidad Distrital Francisco José de Caldas.

3

Investigador principal de grupo de investigación MMAI de la Universidad Distrital, Investigador grupo GIP Universidad Católica de Colombia, Investigador CITAD, Universidad de la Sábana.

Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

4

Vol.14 No.1

Ingeniería

Abstract This article proposes a heuristic method for solve the problem of sequencing for systems with Strong Flow Shop Buffer Unlimited, with an objective function that is the minimization the processing time of the last order in the system, the makespan. The solution to the problem was based on the creation of an approximation method or procedure heuristic, which has two phases: the first where he gets an initial sequence through a heuristic

constructive, and the second phase which applies a Heuristic improvement taking as a basis the response found in the earlier stage, and through a series of iterations, generated responses alternate, within which they choose the best sequence. By using the proposed method, we obtained better answers regarding the rules FIFO LPT, SPT and the Palmer Heuristic Method route to the goal, in the indicators Makespan, flow time, average flow time, rate of use of machine, percentage dead-time machine, total waiting time and average waiting time. Key words: Key words: Buffer unlimited, effectiveness, Strong Flow Shop, performance indicators, heuristic method, sequencing.

1. INTRODUCCIÓN El proceso de planificación y control de la producción consta de tres etapas, enmarcadas en los siguientes espacios de tiempo, largo plazo, mediano plazo y corto plazo. Respectivamente, el resultado obtenido es, la elaboración de la Planeación Estratégica, el Plan Táctico y, la Programación Operativa [3]. El trabajo realizado presenta un aporte en una de las actividades que se realiza para efectuar esa Programación, la secuenciación de operaciones. Consiste exactamente, en diseñar y probar un método heurístico de dos etapas, la obtención de una respuesta inicial y un algoritmo de mejoramiento de esa respuesta, a partir de operaciones sobre una matriz de trabajo, que sugiere un orden para procesar el grupo de trabajos requerido en una estructura productiva dada. El análisis hecho en la literatura para abordar el problema de la secuenciación de operaciones, fue sobre sistemas de producción basados en una configuración por lotes, que se procesan bajo un ordenamiento del tipo Flow Shop Estricto con Buffers Ilimitados, esto es, que todas las órdenes son procesadas siguiendo una misma ruta a través de todas las etapas del proceso, disponiendo de un solo tipo de máquina para cada proceso, con una capacidad ilimitada de almacenamiento del producto al final de cada operación y antes de pasar a la siguiente.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

4


5

Respecto al tema, se encuentra que los estudios realizados por el profesor Michael Pinedo [5] de la Universidad de Nueva York en los últimos 25 años han sido de gran reconocimiento, ya que ha sido uno de los investigadores con mayor especialización en el tema de la secuenciación, más conocido en la literatura como Scheduling, Adicionalmente, se tiene en cuenta los aportes de otros autores como Johnson [1954], Ignall y Schrage [1965] con su algoritmo de Bifurcación y Acotamiento, Campbell, Dudeck y Smith [1970], heurísticas como la de Palmer [1965], Ho y Chang [1991] y métodos como las Reglas de Prioridad. Algunos son muy simples y cubren parcialmente todas las restricciones del sistema productivo y otros, en cambio, son complejos algorítmicamente a medida que el número de órdenes de trabajo y de máquinas crece, siendo dispendiosa su utilización. Como resultado del trabajo que se presenta en este artículo, se generó una herramienta heurística con el propósito de facilitar el proceso de secuenciación de tareas en sistemas de producción tipo Flow Shop Estrictos con Buffer Ilimitados, para n órdenes de trabajo y m máquinas, y así lograr un nivel mínimo esperado de eficacia en términos de los criterios de desempeño definidos. Esta herramienta consta de dos etapas. En la primera, una heurística constructiva, en la cual se genera una secuencia inicial y, una segunda etapa, en la que se propone una heurística de mejora, donde con base en la respuesta inicial, se obtiene un conjunto de 20 respuestas alternas, para finalizar con la selección de la mejor de ellas, dado el mejor valor del criterio objetivo dado. Para soportar el desarrollo teórico, se desarrolló una herramienta informática que facilita la utilización del método propuesto. El nombre de este aporte es Planifier. Este aplicativo sirvió para ejecutar las pruebas diseñadas. En general, se ejecutaron 545 pruebas para la combinación de 11 diferentes valores de m y n. Los valores obtenidos con Planifier fueron comparados con seis métodos, tres reglas de prioridad: FIFO, SPT y LPT; y tres heurísticas: Palmer, CDS y Enumeración Completa.

2. MÉTODO DE SECUENCIACIÓN 2.1 Supuestos del Método Utilizando algunas acotaciones aceptadas para el problema de secuenciación propuestas por Conway, Maxwell y Miller [Conway 1967] [2], se formalizaron las siguientes restricciones al funcionamiento del método propuesto [1], [4], [7]: 5

1. La estructura de producción es tipo flow shop estricta. Todas las órdenes tienen la misma ruta por las máquinas y, el orden de procesamiento de los trabajos en todas las máquinas es el mismo. 2. Para cada operación i existe una sola precedente inmediata i-1, exceptuando la primera operación de cada pieza, que no dispone de precedente. 3. Para cada operación i existe una sola siguiente inmediata i+1, exceptuando la última operación de cada pieza, que no tiene siguiente. 4. No existen montajes de piezas (convergencias) ni particiones en lotes (divergencias); el número de órdenes entrantes es igual al número de órdenes saliente. 5. No pueden solaparse dos operaciones de la misma pieza en la misma máquina o en máquinas distintas; cada máquina elabora un solo proceso a la vez y a cada orden se le realiza un solo proceso a la vez. 6. Cada máquina tiene asociada una única operación. 7. Sólo hay una máquina de cada tipo en el taller. 8. El número de piezas es finito y, tanto las órdenes como las máquinas se encuentran disponibles desde el instante inicial 0 hasta T, con T arbitrariamente grande. 9. Cuando una operación ha comenzado, debe terminarse antes de empezar otra en la misma máquina y no se admiten interrupciones en la misma; máquina sin mantenimiento ni daños. 10. La única restricción activa en el taller es la relativa a las máquinas. No existen problemas de disponibilidad de mano de obra, materiales o de cualquier otra índole. 11. El tiempo de duración de la operación de la máquina i procesando la orden j es conocido con anticipación (determinístico). Este tiempo incluye tiempos de preparación, conclusión, colocación de piezas, retiro de piezas, tiempos suplementarios, etc. 12. El sistema productivo funciona con Buffers ilimitados. Al finalizar cualquier operación en una de las máquinas esta queda disponible aún si la siguiente máquina de la ruta no esta disponible, almacenando este producto en proceso en los buffers que se encuentran entre las máquinas (Número de buffers = m-1). 13. La programación de operaciones es hacia adelante, sin fechas de entrega establecidas. Producción para disponer. 14. No se tienen en cuenta los costos asociados a la operación. 15. La naturaleza del sistema es estática, conservando constantes los valores de las variables durante el período de programación.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

El método propuesto se desarrolla en dos etapas: la primera con una heurística constructiva y la segunda con una heurística de mejora.

Vol.14 No.1

Ingeniería

5


6

Se denomina cadena de valor “al conjunto de agentes económicos que contribuyen directamente a la producción, procesamiento y distribución hasta el mercado de un determinado producto” [4].

3. FORMULACIÓN 3.1 Objetivo Como se mencionó anteriormente, el objetivo del problema es minimizar el Makespan: Mín Cmáx, siendo Cmáx el instante en el que termina el procesamiento de la n-ésima orden en la m-ésima máquina. 3.2 Referentes i: Subíndice de referencia para las máquinas del sistema productivo; i = 1, 2,.., m j: Subíndice de referencia para las órdenes de trabajo; j = 1, 2,.., n j’: Subíndice de referencia para las órdenes de trabajo; j’ = 1, 2,.., n Es utilizado para indicar la segunda orden de una pareja de órdenes, separadas con una (_) [ej. orden j_orden j’]. Se diferencia de una combinación de máquina-orden, porque en general no utiliza separador y cuando lo requiere, se coloca (,) [ej. Máquina i, orden j]. 3.3 Parámetros m: Número de máquinas definidas para el sistema productivo. n: Número de órdenes de trabajo definidas a procesar en el sistema productivo. Tij: Duración de la operación a realizar en la máquina i sobre el trabajo j. R: Ruta de trabajo u ordenamiento de las máquinas para el procesamiento de las órdenes. O: Orden en que son recibidas en el sistema los trabajos por parte del cliente. (Necesario para la comparación con la regla de prioridad FIFO). 3.4 Variables S: Secuencia de procesamiento de las órdenes de trabajo, representada en un vector de n elementos ordenados por el criterio de iniciación. Iij: Momento o instante del tiempo en el que inicia el procesamiento de la orden de trabajo j en la máquina i. S: Secuencia de procesamiento de las órdenes de 3.5 Ecuaciones de equilibrio 1. Iij: Instante en el que inicia el procesamiento en la máquina i de la orden j (1). (1) Fij: Instante en el que finaliza el procesamiento de la orden j en la máquina i.

6

Vol.14 No.1

Ingeniería

Tij:: Duración de la operación a realizar en la máquina i sobre la orden j. 2. Fij Instante en el que finaliza el procesamiento de la orden j en la máquina i (2). (2) Iij: Instante en el que inicia el procesamiento en la máquina i de la orden j. Tij: Duración de la operación a realizar en la máquina i sobre la orden j. Cj: Tiempo de terminación de la orden j en la mésima máquina. 3. Ti Tiempo total efectivo de operación de la máquina i procesando las n órdenes (3). (3)

Tij: Duración de la operación a realizar en la máquina i sobre la orden j. n: Número de órdenes configuradas. 4. Tj Tiempo total efectivo de operación de la orden j en su procesamiento por las m máquinas (4). (4) Tij: Duración de la operación a realizar en la máquina i sobre la orden j. m: Número de máquinas configuradas. 3.6 Indicadores de Desempeño 1. Cmax, Tiempo de Completamiento ó Makespan: Tiempo en el que termina de ser procesada la última orden en el sistema ó, tiempo máximo de terminación de todas las órdenes (5). Objetivo: Minimizar. (5) Cj: Tiempo de terminación de la orden j en la mésima máquina. 2. Tt, Tiempo de Flujo: Suma de la finalización en la m-ésima máquina de las n órdenes (6). Objetivo: Minimizar. (6) Cj: Tiempo de terminación de la orden j en la mésima máquina. 3. Tp, Tiempo Promedio de Flujo: Promedio de la finalización en la m-ésima máquina de las n órdenes (7).

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

6


7

(8)

Tabla I. Matriz T MATRIZ [Tij] Matriz T 1

A T1A

B T1B

J T1j

n T1n

2

T2A

T2B

T2j

T2n

TiA

TiB

Tij

Tin

TmA

TmB

Tmj

Tmn

i m

Tij: Duración de la operación a realizar en la máquina i sobre la orden j. n: Número de órdenes configuradas. Cmáx: Makespan. 5. MO, % Ocio de Máquina: Es el porcentaje del tiempo de operación que las máquinas no se encuentran procesando las órdenes (9). Objetivo: Minimizar. %MO=1-%MU

Elaboración autores

Tij=tiempo orden

j en máquina i

(10) Iij: Instante en el que inicia el procesamiento en la máquina i de la orden j. Fij: Instante en el que finaliza el procesamiento de la orden j en la máquina i. 7. Wp, Tiempo Promedio de Espera: Promedio del inicio en la primera máquina de la operación de las n órdenes (11). Objetivo: Minimizar. Wt (11) Wp = n Wt: Tiempo total de espera. n: Número de órdenes configuradas.

4. HEURÍSTICA CONSTRUCTIVA 4.1 Paso 0: Información de entrada Los primeros parámetros a definir deben ser: m, n, R y O, para luego relacionar el tiempo que

(12)

4.2 Paso 1: Tiempo total en máquina de cada orden A partir de los datos anteriores, se calcula el tiempo total de operación para cada una de las órdenes en su paso por las máquinas (13).

(9)

% MU: Porcentaje de utilización de máquina. 6. Wt, Tiempo Total de Espera: Suma del inicio en la primera máquina de la operación de las n órdenes más, la suma del tiempo de diferencia entre la finalización en cualquiera de las máquinas y el inicio en la inmediatamente siguiente para todas las órdenes (10). Objetivo: Minimizar.

7

ÓRDENES DE TRABAJO

...

TF: Tiempo de flujo. n: Número de órdenes configuradas. 4. MU, % Utilización de Máquina: Es el porcentaje del tiempo de operación que las máquinas se encuentran procesando las n órdenes (8). Objetivo: Maximizar.

...

(7)

permanece cada orden de trabajo j en cada una de las máquinas i: Tij (12). Esto se hace en una matriz llamada T, de tamaño m filas (máquinas) y n columnas (órdenes) cuyos elementos son Tij.

MÁQUINAS

Objetivo: Minimizar.

(13)

4.3 Paso 2: Matriz Cmáx {j_j‘} Este paso es el origen del trabajo de investigación. Para recrear la metodología diseñada, supóngase un rompecabezas de n piezas lineales, donde el objetivo más allá de lograr una figura preestablecida, está en lograr que las piezas con sus diversas formas encajen una a otra, minimizando el espacio que quede entre las puntas de una pieza y el espacio de otra. Si un problema macro es abordado aisladamente por cada uno de sus componentes y, para cada uno de ellos se obtiene un óptimo, que sería el “óptimo local”, la implementación de ellos en conjunto no necesariamente corresponde al óptimo del ejercicio, aún así, es una buena solución factible. Eso mismo sucede con esta metodología, ya que se busca encontrar la pareja de piezas del rompecabezas que mejor encaja y, a este nuevo componente, compuesto por dos piezas, identificar la tercera pieza que mejor encaja. A este componente de tres piezas, se busca la pieza que mejor encaje, y así sucesivamente hasta que el componente complete sus n piezas. En el problema planteado en la investigación no hay piezas de rompecabezas si no órdenes de trabajo, con las cuales se desea hacer exactamente lo mismo, ordenarlas de tal forma que se minimice el tiempo (en el ejemplo era el espacio) que se inutiliza en las máquinas. Para determinar el ordenamiento, se efectúa el cálculo de máxima finalización para todas y cada una

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

7


8

de las posibles permutaciones de parejas, registrando los resultados en una Matriz cuadrada C de tamaño n, cuyos elementos de la diagonal principal están penalizados con un valor muy grande M; esta penalización se debe a que no es posible la existencia de una pareja de órdenes cuyos elementos son la misma orden. El cálculo se realiza utilizando la siguiente metodología, planteada por los autores para facilitar el desarrollo. Supóngase que se tienen dos órdenes de trabajo, A y B: a. Para la primera orden de la pareja, en este caso la A, se tiene que el tiempo de inicio en la primera máquina es 0 y, en las siguientes máquinas es igual al de finalización en la máquina inmediatamente anterior (14). De la misma manera, el instante de finalización en la i-ésima máquina es igual a la suma de los tiempos de operación desde la primera máquina hasta la i (15). (14) (15) b. Para el caso de la segunda orden de la pareja, en este caso B, se tiene que el instante de inicio en la i-ésima máquina, es igual al máximo valor entre el instante de finalización de la orden en la máquina inmediatamente anterior y, el de finalización de la anterior orden, A, en la máquina en la cual se desea iniciar la operación, i. Por su parte, el instante de finaliTabla II. Matriz X, que indica el zación en cualquiera de las máquimakespan de cada una de las nas, al igual que con la orden A, es parejas de órdenes. igual al instante de inicio en esa máquina más, el tiempo de operación correspon-diente de la orden. En las relaciones (16) y (17), se muestra el caso para orden j’ en la primera máquina. (16) (17) Para visualizar lo descrito, la Tabla II muestra ordenadamente el análisis permitiendo entender la metodología propuesta, a través de la Matriz denominada X.

Elaboración autores

8

Vol.14 No.1

Ingeniería

4.4 Paso 3: Mínimo Cj,j‘ en matriz C. Se debe buscar el elemento de la matriz C con menor valor. En caso de que haya más de un elemento

con valor igual al mínimo Cj_j‘ se recurre al siguiente criterio de desempate: Entre los elementos Cj_j‘ empatados, calcular el indicador de tiempo total en máquina para la pareja (j_j‘) de la forma Tj_ j ‘= Tj + Tj ‘ , seleccionando el elemento correspondiente al mayor Tj_j‘. Este criterio se basa en el índice % MU, porcentaje de utilización de máquina (18); entre las combinaciones (j_j‘) empatadas, los valores de m y Cj_j‘ son constantes, por tanto para maximizar el valor de % MU, se debe buscar el mayor Tj_j‘ que haga más grande la expresión. (18) •

De persistir el empate entre algunos elementos, se asocia un número aleatorio con distribución uniforme (mayor o igual a 0 y menor que 1) a cada mínimo Tj_j‘, seleccionando la pareja (j_j‘) con mayor aleatorio asociado. Los valores de la pareja (j_j‘) representan el primer elemento del vector S.

4.5 Paso 4: Agregar elementos a vector S Una vez identificada la pareja a ingresar al vector S, se debe validar si esta es la primera en ingresar o no. Para el primer caso, simplemente esta combinación de elementos (j, j´) es adicionada. Para el segundo caso, se debe determinar si la pareja de elementos ingresa al comienzo o al final del vector. Esto se hace con el siguiente criterio: Sea α el valor del primer elemento del vector S y Ω el último elemento. Si j´ = α => j va al comienzo de S precediendo al elemento j´; de lo contrario, es decir, j = Ω => j´ va al final de S posterior al elemento j. 4.6 Paso 5: Actualización de la matriz C Una vez ingresado el elemento (j, j´) al vector S, se debe actualizar la matriz C de modo que al iterar el procedimiento no se generen incoherencias. Se propone lo siguiente: 1. Eliminar ó penalizar la fila j de la matriz C: con ello se evita obtener un nuevo elemento (j, y), que al ingresar al vector S generaría un conjunto de elementos repetitivos, rompiendo con la naturaleza de la secuencia objetivo. j e y son valores de órdenes entre 1 y n. 2. Eliminar ó penalizar la columna j´ de la matriz C: se busca la no obtención de un nuevo elemento (x, j´) que al ingresar al vector S generaría un conjunto de elementos repetitivos, rompiendo con la naturaleza de la secuencia objetivo.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

8


9

j‘ y x son valores de órdenes entre 1 y n. 3. Eliminar ó penalizar el elemento (j´,j) de la matriz C: al haber ingresado al vector S el elemento (j,j´), la pareja (j´,j) causaría una incongruencia de forma en la secuencia objetivo. 4.7 Paso 6: Mínimo Cj,j‘ en matriz C Manteniendo la consistencia en la búsqueda de la secuencia, la siguiente pareja a ingresar debe ser una que contenga entre sus elementos el primero ó el último valor del vector S. Por ello la búsqueda se efectuará solamente en la fila j= Ω y la columna j´= α de la matriz C modificada, que llamaremos C ’. De los valores de los elementos de esta fila y esta columna se selecciona el menor, siguiendo con el paso 4; de haber empates se emplea la metodología expuesta en el paso 3. 4.8 Paso 7: Criterio de parada La iteración termina cuando la cantidad de elementos en el vector S es igual a n. A la vez esto se refleja, en que al concluir el paso 5 en la k-ésima etapa del proceso, la matriz C tiene todos sus n x n elementos penalizados. En este momento se tiene que el vector corresponde a la respuesta (secuencia) inicial.

5. HEURÍSTICA DE MEJORA 5.1 Paso 8: Algoritmo de respuestas alternas En la ejecución de pruebas preliminares se detectó que esta respuesta estaba distante del objetivo en una cantidad importante de veces, por tal motivo se diseñó un algoritmo que permite la obtención de respuestas alternas, para compararlas entre sí por el valor del criterio objetivo y seleccionar entre ellas la mejor.

9

S_0, se encuentra cual es el elemento (j, j´) con j = Ω y el elemento (j, j´) con j´ = α con menor valor, de modo que cada uno de ellos es un candidato a ingresar a la secuencia. Para el primer caso, j = Ω, se obtienen dos secuencias alternas así: S_1: En la secuencia S “pivotear” el elemento j´ a la última posición. S_2: En la secuencia S “pivotear” el elemento j a la posición inmediatamente anterior donde se encuentra j´. En el segundo caso, j´ = α, se obtienen otras dos secuencias alternas así: S_3: En la secuencia S “pivotear” el elemento j a la primera posición. S_4: En la secuencia S “pivotear” el elemento j´ a la posición inmediatamente siguiente donde se encuentra j. Esta es la primera iteración. En la segunda, se repite el procedimiento señalado a S_0, pero para S_1, S_2, S_3 y S_4, obteniendo como respuestas alternas de S_5 a S_20. Las 21 secuencias se enlistan, detectando cuales de ellas están repetidas para solo tener en cuenta en el siguiente paso las únicas. Ejemplo: S_0: D-E-C-A-B En este caso α = D, Ω = B En la matriz C se busca el elemento (j, j‘) de menor valor en la fila B y el de menor valor en la columna D. j = Ω; menor valor encontrado (j, j‘) = (Ω, j‘) = (B, E)

Parte de un análisis de sensibilidad sobre la respuesta inicial, y dos iteraciones. En cada iteración se obtienen cuatro secuencias alternas por cada secuencia principal. Es decir, que al finalizar la iteración 1 se obtienen 5 secuencias, la inicial y cuatro alternas, y, al finalizar la iteración 2 se obtienen 21 secuencias, las ya descritas y 16 alternas de las cuatro obtenidas en la iteración anterior.

S_1: D-E-C-A-B

=D–C–A–B–E

S_2: D-

=D–B–E–C–A

D-E-C-A-B

=A–D–E–C–B

Recordemos que en la Primera Etapa ingresaron al vector S, n-1 parejas de valores, de modo que el “análisis de sensibilidad” que se propone consiste en determinar esa n-ésima pareja de valores que debería entrar a la secuencia. Siguiendo la metodología propuesta en esa etapa, debe ingresar una pareja que su primer elemento sea el último de S ó, que su segundo elemento sea el primero de S.

S_4: D-E-C-A- B

=E–C–A–D–B

Sea α el valor del primer elemento del vector S y Ω el último elemento. Para una secuencia cualquiera

En el problema planteado no hay piezas de rompecabezas si no órdenes de trabajo, con las cuales se desea hacer exactamente lo mismo, ordenarlas de tal forma que se minimice el tiempo.

E-C-A-B

j´ = α; menor valor encontrado (j, j‘) = (j, α) = (A, D) S_3:

Con cada una de estas cuatro respuestas alternas, S_1 a S_4, se efectúa el mismo proceso que el realizado con S_0, de modo que se obtengan otras 16 respuestas alternas, de S_5 a S_20. Para S_1: D–C–A–B–E, se encuentra α = D, Ω = E En la matriz C se busca el elemento (j, j‘) de menor valor en la fila E y el de menor valor en la columna D.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

9


10

En cada iteración se obtienen cuatro secuencias alternas por cada secuencia principal.

j = Ω; menor valor encontrado (j, j‘) = (Ω, j‘) = (E, C) j´ = α; menor valor encontrado (j, j‘) = (j, α) = (A, D) 5.2 Paso 9: Selección de la mejor Solución Del conjunto obtenido en el paso anterior, se hace el cálculo del indicador objetivo, mínimo makespan, para cada una de ellas, seleccionado la secuencia que mejor indicador obtenga. El cálculo se obtiene aplicando las ecuaciones de equilibrio de iniciación y finalización descritas.

Para analizar el comportamiento del método respecto a variaciones en los valores de m y de n, se presentan las Figuras 2 y 3. Allí se muestra como se ve afectado el desempeño del método propuesto respecto al comporta-miento de los valores de m y n definidos para el indicador Makespan, que es el indicador que se quiere minimizar.

Si el makespan de más de una de las 21 respuestas es igual, se calcula a ellas el indicador Tiempo de Flujo y se selecciona la respuesta con menor valor en este segundo indicador. Si persiste el empate en dos ó más respuestas, se les calcula el Porcentaje de Utilización de Máquina, escogiendo entre las secuencias que persiste la igualdad la secuencia con mayor porcentaje. Por último y de darse como caso excepcional un equilibrio en los tres indicadores, se calcula el Tiempo Total de Espera para las secuencias cuyas respuestas han estado empatadas; se selecciona la que tenga menor este indicador ó de lo contrario se asigna un número aleatorio (0,1] a cada una y se escoge la que mayor valor se le haya asignado.

6. RESULTADOS Después de analizar individualmente el grado de eficacia de Planifier para cada indicador con respecto a los diferentes métodos de solución, se procedió a realizar un análisis conjunto de la eficacia involucrando todos los indicadores de desempeño y al mismo tiempo los métodos de comparación, con el fin de observar el rendimiento del método heurístico propuesto. Como se mencionó anteriormente, para el Tiempo de Espera sólo se tuvo en cuenta las heurísticas. También se escogieron los resultados de Tiempo Promedio de Flujo y Tiempo Promedio de Espera, ya que su comporta-miento es equivalente al Tiempo de Flujo y Tiempo de Espera respectivamente. Los resultados pueden observarse en la Figura 1.

Figura 2. Tendencia de la Eficacia respecto a variaciones de n.

Figura 3. Tendencia de la Eficacia respecto a variaciones de m.

5.3 Análisis Estadístico de Resultados Para calcular los intervalos de confianza de la eficacia esperada de Planifier respecto a los métodos de comparación seleccionados, con un 98% de confianza, se elabora una regresión para cada método comparando, las eficacias observadas en cada una de las pruebas realizadas con el valor de las variables exógenas m y n. 5.3.1 Eficacia respecto a heurística CDS

• • • • •

De acuerdo a la prueba con el estadístico Fisher, al menos un parámetro es diferente de 0. El coeficiente de intercepción es significativo individualmente en el modelo. El coeficiente de la variable m no es significativo individualmente en el modelo. El coeficiente de intercepción n no es significativo individualmente en el modelo. La eficacia de Planifier respecto a la heurística CDS esta entre el 98.42% y el 99.65% con un 98% de confianza.

5.3.2 Eficacia respecto a heurística de Palmer

• • Figura 1. Comportamiento General del Desempeño de Planifier en Relación a Métodos de Comparación. 10

Vol.14 No.1

Ingeniería

De acuerdo a la prueba con el estadístico Fisher, al menos un parámetro es diferente de 0. El coeficiente de intercepción es significativo individualmente en el modelo. El coeficiente de la variable m no es significativo individualmente en el modelo.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

10


11

El coeficiente de intercepción n no es significativo individualmente en el modelo. La eficacia de Planifier respecto a la heurística de Palmer esta entre el 101.29% y el 102.77% con un 98% de confianza.

5.3.3 Eficacia respecto al método de Enumeración Completa • De acuerdo a la prueba con el estadístico Fisher, al menos un parámetro es diferente de 0. • El coeficiente de intercepción es significativo individualmente en el modelo. • El coeficiente de la variable m es significativo individualmente en el modelo, impactando la eficacia esperada entre el -0.01% y el 0.02% por cada máquina que tenga el sistema. • El coeficiente de intercepción n no es significativo individualmente en el modelo. • Dado que m afecta la eficacia esperada, se tomó ésta como el promedio de las observadas, que es del 97.67%.

• •

• •

7. CONCLUSIONES •

El método propuesto facilita el proceso de secuenciación en sistemas tipo Flow Shop Estrictos con Buffers Ilimitados, ya que funciona con un algoritmo simple y sencillo en su estructura, que es fácilmente soportado por una aplicación informática y, con un nivel de eficacia esperado superior al 97% respecto a cualquier método y, superior al 110% respecto a cualquier regla de prioridad, con un 98% de confianza.

Con la utilización del método propuesto Planifier en problemas de secuenciación de operaciones para Sistemas del tipo Flow Shop Estrictos con Buffers Ilimitados, se obtienen mejores respuestas respecto a las reglas FIFO, LPT, SPT y el método heurístico de Palmer para el objetivo trazado, minimización ó maximización según corresponda, con un 98% de confianza, en los indicadores Makespan (Cmáx), tiempo de flujo (Tt), tiempo promedio de flujo (Tp), porcentaje de utilización de máquina (MU), porcentaje de ocio de máquina (MO), tiempo total de espera (Wt) y tiempo promedio de espera (Wp).

La herramienta informática que soporta la aplicación de el método heurístico Planifier, tiene capacidad de procesamiento para valores de m entre 2 y 150, y para valores de n entre 3 y 150, en una máquina con sistema Microsoft® Windows XP, Profesional versión 2002, Service Pack 2 con procesador Intel® Pentium® 4, CPU 2.39 GHz, 496 MB de RAM.

Con ese mismo equipo se pueden procesar mediante el método de Enumeración Completa, que es el detalle de todas las posibles combinaciones de secuencia, hasta ejercicios con valores de m no mayores a 10 y n no mayores a 15.

El algoritmo del método de Planifier solo es eficiente algorítmicamente para valores de n mayores a 4, ya que el selecciona la respuesta entre un conjunto de 21 secuencias y, por ejemplo, para n = 4 las posibles secuencias son apenas 16.

Para valores mayores o iguales a 5, el algoritmo es muy eficiente, ya que sin importar el número de

5.3.4 Eficacia respecto a la regla de prioridad FIFO

• • • • •

De acuerdo a la prueba con el estadístico Fisher, al menos un parámetro es diferente de 0. El coeficiente de intercepción es significativo individualmente en el modelo. El coeficiente de la variable m no es significativo individualmente en el modelo. El coeficiente de intercepción n no es significativo individualmente en el modelo. La eficacia de Planifier respecto a la heurística de Palmer esta entre el 114.04% y el 119.88% con un 98% de confianza.

5.3.5 Eficacia respecto a la regla de prioridad LPT

• • • • •

De acuerdo a la prueba con el estadístico Fisher, al menos un parámetro es diferente de 0. El coeficiente de intercepción es significativo individualmente en el modelo. El coeficiente de la variable m no es significativo individualmente en el modelo. El coeficiente de intercepción n no es significativo individualmente en el modelo. La eficacia de Planifier respecto a la regla LPT está entre el 117.57% y el 124.38% con un 98% de confianza.

5.3.6 Eficacia respecto a la regla de prioridad SPT

11

De acuerdo a la prueba con el estadístico Fisher, todos los parámetros son iguales a 0. Las conclusiones se desvirtúan, ya que la variable endógena no es explicada las variables exógenas. Sin embargo se visualiza que:

El coeficiente de intercepción es significativo individualmente en el modelo. El coeficiente de la variable m no es significativo individualmente en el modelo. El coeficiente de intercepción n no es significativo individualmente en el modelo. La eficacia de Planifier respecto a la regla SPT esta entre el 112.61% y el 119% con un 98% de confianza.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

11


12

n, que es quien determina la cantidad de posibles secuencias, solo hay selección entre un número fijo equivalente a 21. •

El desempeño observado del método Planifier, medido en términos de las respuesta obtenida para los indicadores Cmáx, Tt, Tp, MU, MO, Wt y Wp, es muy similar al de la heurística CDS de Campbell, Dudeck y Smith, distando la eficacia en tan solo un -1.9% en promedio, con un máximo de -1.58% y mínimo de -0.35%, con el 98% de confianza. El rendimiento comparativo de Planifier tiene a primera vista (gráficamente) un comportamiento escalonado de un peldaño decreciente, respecto a los valores de las variables m y n; Para valores de n menores a 25, la respuesta de Planifier es en promedio mejor respecto de 5 a 10%; para valores mayores a 25, la respuesta promedio decae en eficacia y tiende a ubicarse en un 98% para valores cercanos a 100, donde se presenta la convergencia; Para valores de m menores a 15, la respuesta de Planifier es en promedio mejor respecto de 5 a 10%; para valores mayores a 15, la respuesta promedio decae en eficacia y tiende a ubicarse en un 98% para valores cercanos a 25, donde se presenta la convergencia. La evidencia estadística que se deriva de este estudio, muestra que el comportamiento de la eficacia esperada, con un 98% de confianza, no es explicada por los valores de m y de n, ya que esos parámetros son no significativos en las pruebas realizadas. Aún así se presentó el análisis gráfico, porque se consideró que esos parámetros si determinan la calidad de la respuesta cuando su valor es alto. Respecto al método de Enumeración Completa, que es el detalle de todas las posibles combinaciones de secuencia, con Planifier se obtiene una respuesta desmejorada del 1.9% en promedio. Lo que significa, que los resultados con Planifier distan del óptimo el 1.9% en promedio. Solo en comparación con este método, se obtuvo significancia en el parámetro m, como variable explicativa de la eficacia esperada, validando lo

expuesto en el punto anterior respecto a la influencia de m y n en la calidad de la respuesta que se obtiene con Planifier.

REFERENCIAS BIBLIOGRÁFICAS [1] Alemán González. Estudio y aplicación del algoritmo Lomnicki Pendular al problema de Flow Shop sin pulmones intermáquina. Laboratorio de Organización industrial. Universidad Politécnica de Cataluña. España 2004. [2] Conway R. W., W.L. Mazwell, L.W. Miller. Theory of Scheduling. Adison-Wesley, Reading, MA, 1967. [3] José Domínguez Machuca. Dirección de operaciones. Aspectos tácticos y operativos en la producción y los servicios. Ed. Mc Graw Hill, Madrid, 1998. [4] Ruben Ruiz. Evaluación de heurísticas para el problema del taller de Flujo. XXVII Congreso Nacional de stadística e Investigación Operativa. Universidad Politécnica de Valencia. España. 2003. Disponible en www.upv.es/gio/rruiz/files/SEIO2003_heu.pdf [5] Michael Pinedo. Scheduling: theory, algorithms and system. Ed. Prentice Hall, 2002 [7] Agustín Alemán. Estudio y Aplicación del algoritmo Lomnicki Pendular al problema Fm/Block/Fmax. Laboratorio de Organización industrial. 2005. Disponible en https:// upcommons.upc.edu/pfc/bitstream/2099.1/2645/1/34561-1.pdf

Diana Catherine Salamanca L. Ingeniera Industrial Universidad Distrital Francisco José de Caldas, 2007. Proyecto de grado meritorio por el Diseño de un Método Heurístico de Secuenciación en Sistemas Flow Shop Estrictos con Buffers Ilimitados, bajo la dirección del docente MsC. Cesar A. López Bello. Actualmente cursando la Especialización de Gestión de Proyectos de Ingeniería en la Universidad Distrital, y ejerciendo como Ingeniera Investigadora del Centro de Investigación y Desarrollo Tecnológico de la Industria Electro Electrónica e Informática. dianitasale@gmail.com

Harry Andrés Ortiz Cabuya Ingeniero Industrial Universidad Distrital Francisco José de Caldas, 2007. Proyecto de grado meritorio por el Diseño de un Método Heurístico de Secuenciación en Sistemas Flow Shop Estrictos con Buffers Ilimitados, bajo la dirección del docente MsC. Cesar A. López Bello. Actualmente se desempeña como Auxiliar de informática vinculado al proyecto CIMA en Alpina S.A. harryortiz@gmail.com

César Amilcar López Bello Magister en Ingeniería Industrial, Universidad de los Andes. Especialista en Ingeniería de Producción, Universidad Distrital Francisco José de Caldas. Ingeniero Industrial Universidad Distrital Francisco José de Caldas. Profesor Asociado, Facultad de Ingeniería Universidad Distrital. Director de la Maestría en Ingeniería Industrial, Universidad Distrital. Investigador principal del grupo de Investigación MMAI de la Universidad Distrital, Investigador Grupo GIP, Investigador CITAD, Centro de Investigaciones en tecnologías avanzadas de decisión, Universidad de la Sábana. clopezb@udistrital.edu.co

12

12

Vol.14 No.1

Ingeniería

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


13

Tutorial for the Design of FIR Digital Filters over FPGA César Augusto Hernández Suarez1 Edwar Jacinto Gómez2 Octavio José Salcedo Parra3

Abstract This article presents a different and simple methodology in the design and implementation of digital filters with finite impulsional response, over a reconfigurable architecture like FPGA XC3S200. In this development were used CAD tools as FIR toolbox and ISE of Xilinx, obtaining with that results in record time, optimization in the hardware resources used and good performance in frequency, desirable characteristics in the development of systems oriented to the digital signal processing. Key words: Filters, FIR, FPGA, VHDL.

TUTORIAL PARA EL DISEÑO DE FILTROS DIGITALES FIR SOBRE FPGA Resumen Este artículo presenta una metodología diferente y sencilla en el diseño e implementación de filtros digitales con respuesta impulsional finita, sobre una arquitectura reconfigurable como la FPGA XC3S200. En este desarrollo se emplearon herramientas CAD como “FIR toolbox” e “ISE” de Xilinx, obteniendo con ello resultados en tiempo record, optimización en cuanto a los recursos de hardware utilizados y un buen desempeño en frecuencia, características deseables en el desarrollo de sistemas orientados al procesamiento digital de señales. Palabras claves: Filters, FIR, FPGA, VHDL.

1. INTRODUCTION

13

1

Magíster en Ciencias de la Información y las Comunicaciones de la Universidad Distrital. Docente de Planta de la Universidad Distrital.

2

Estudios de Maestria en Ciencias de la Información y las Comunicaciones de la Universidad Distrital. Docente de la Universidad Distrital.

3

Docente de Planta de la Maestría en Ciencias de la Información y las Comunicaciones de la Universidad Distrital. Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

The digital signal processing is an area of electronics that has had great advances in the last years due to technological developments in hardware. Today it plays an important role in areas such as communications, circuit design, acoustics, voice processing and energy regeneration and distribution systems, for this reason has been conceived an architecture of digital filter of high capacity y computation speed, obtaining with this more accuracy compared with the analogical circuits and the analogical signal processing systems.[9]. Other advantages of the digital filters with respect to its similar analogical filters are their small size, efficiency and the possibilities of a fast reconfiguration

in its tasks. This being supported by technologies with high scale of integration [7]. The digital signal processors (DSPs) are used to implement many of the DSP applications, among others are the digital filters. Nevertheless, even though the DSPs are programmable through software, the architecture of the hardware of these is not flexible; on the contrary is fixed, which is noted for example by the fixed number of multiplicator – accumulator blocks (MAC), or the width of the data bus. This constitutes a limitant for the DSPs with respect to reconfigurable architectures with the CPLDs and the FPGAs [11]. The CPLDs-FPGAs circuits provide a reconfigurable and efficient solution to implement DSP applications as the digital filters. These circuits can reach a higher throughput and more data processing potency than the DSPs [11]. This article pretends to expose a different methodology in the design and implementation of FIR digital filters by the use of CAD tools as FIR toolbox and ISE of Xilinx. The methodology proposed pretends to reduce considerably the time required to perform a FIR digital filter, and to optimize the available hardware resources in the FPGA XC3S200, selected as programmable logic device to implement such solution.

2. FILTER FIR DESIGN The digital filter to be designed is a FIR filter (finite impulsional response). The FIR filters have two main advantages with respect of the IIR filters (of infinite response) [6]. The first one is they can be designed with lineal phase, so that they do not phase present distortion. Also, they are unconditionally stable due to the fact that their transference function has only zeros. Nevertheless, an IIR filter requires a minor number of coefficients than a FIR filter [6]. A FIR digital filter has a response to the impulse of finite duration that can be expressed mathematically as:

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

(1) Vol.14 No.1

Ingeniería

13


14

Where N is the order of the filter. This expression indicates that the actual output value of an FIR filter is the function of actual entrance and of the N preceding entrances. In effect, the system behaves as a window. In the same way, an FIR filter can be described by its transference function as:

precision of the mathematical calculations, and thereby the designer based on experience will select the amount of bits according to the desirable performance of the filter. See Figure 4.

(2) In other words: H(z)=h0 + h1z-1 + h2z-2 + h3z-3 + . ...+ hN-1z-N+1 (3) The roots of this polynomial are the zeros of the filter. Therefore, the design problem of the FIR filters is simply to determine the N coefficients h(n) from a specification of the desired response frequency (HD(ω)). In this methodology the free software “FIR toolbox” developed by the company Mediatronix is the tool responsible to determine the coefficients h(n) of the filter, from configured parameters by the designer. This tool facilitates the development of this process and provides total compatibility with programmable logic devices. (See Fig. 1).

Figure 4. Selection of the sampling frequency, order of the filter and number of bits.

Next is selected the method of design from which will be calculated the coefficients of the FIR filter. See Figure 5.

In figure 2 can be observed the work area of the tool “FIR toolbox”. In the upper options can be selected the type of filter desired: low pass, high pass, band pass o band stop, with their respective cut frequencies at less than 3dB. See figure 3.

Figure 1. Software FIR toolbox.

Figure 2. Work area of the FIR toolbox software.

Figure 3. Selection of filter type. 14

Vol.14 No.1

Ingeniería

Next will be determined the sampling frequency, the order of the filter and the amount of bits. To select the sampling frequency the designer has to take in consideration the characteristics of the analog – digital convertor (ADC) and the final application of the filter. To select the order of the filter is necessary to take in consideration that it can affect the wideband of the filter. The number of bits determines the

Figure 5. Selection of the design method.

At last, the design option is pressed to obtain the fixed points to obtain a simple implementation that facilitates the calculations within the programmable logical device. Nevertheless, the tool provides a list of the coefficients with their representation in floating point and their respective fixed point representation, whose transformation depends on the amount of bits selected in the preceding procedure. See Figure 6.

Figure 6. Obtention of the filter coefficients.

The tool also provides the option to verify the behavior in time and frequency of the designed filter, as for their cut frequencies and their phases, as observed in Figure 7.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

14


15

Figure 7. Response frequency of the designed filter.

In last term, the archive of the filter coefficients with extension COE is exported, as shown in figure 8. This archive is compatible with the ISE from Xilinx, which allows a direct and simple implementation.

Figure 8. Coefficient file exported to Xilinx.

3. REALIZATION OF THE FILTER IN VHDL For the implementation of the designed filter with the “FIR toolbox” tool and the software ISE 8.1 of Xilinx, the FPGA Spartan3 XC3S200 was selected. The programming of this FPGA from a COE extension archive generated before was very simple. In first instance a new project was created as shown in Figure 9.

Figure 9. Creation of a Project in the ISE 8.1 of Xilinx.

Once the project was created a new source was added, but this time was not selected the option “VHDL module” but IP (Coregen & Architecture Wizard)” as indicated in Figure 10.

15

The IP source is an intellectual property module (IP: Intellectual Property), that allows the realization of fast designs optimizing the systems for specific applications as the one that is occupying us in this case.

Within a great variety of modules offered by the IP source, we selected “Distributed Arithmetic FIR Filter”, in other words a FIR filter with a parallel and massive hardware, which will use more gates than a FIL filter realized with an architecture based on MAC ( as a DSP), but with a higher processing level. After that, the amount of channels of the filter is configured, and the interpolation of the entrance data of it. According to the analog digital convertor used as entrance to the system, and its functioning mode, the type of data conditioning most appropriate was selected, as shown in Figure 11.

Figure 10. Addition of an “IP” source in the project.

Figure 11. IP Distributed Arithmetic FIR Filter.

Figure 12. Configuration of Distributed Arithmetic FIR Filter.

After the preceding step, depending on the filter grade, the amount of storing elements (Taps) is configured, the format of the output data and the width of the job word of the filter, as of the charge of the coefficients of the archive. All the preceding depends on the parameters used to calculate the digital filter in the “FIR toolbox” tool. See Figure 12. It is also important to note that in this point is given the option to choose among fixed coefficients or reconfigurable coefficients which will give the option to make adaptive filters, or to apply control strategies as evolutive hardware or any other type of implementation that has as base an equation in differences with reconfigurable coefficients. The last thing to do is choose the width of the entry data, if coming from the convertor with or without sign, also if fan implementation is going to be realized, serial or parallel, and if it will have a general reset to restart the system in case it is necessary, also is given the option to put an exit registry in the exit of the system.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

15


16

After having the core of the filter totally configured and loaded with the indicated coefficients, it is included in the project created in the ISE, in this case was included as a block in the graphic tool of this suite. See Figure 13.

bench. When trying to simulate a complex digital system it has the problem to simulate and verify the results of the system in higher ranges of time, and in this case we use a tool called ModelSim, that allows us to make simulations with big advantages, as for example a type of simulation that transforms digital data into analog, which can give an idea of what really is happening with the designed system.

Figure 13. Filter Project FIR ended.

4. RESULTS Once ended the implementation within the device a report of the use of it is shown, and in Figure 14 can be observed that only 17% of the available resources in the FPGA Spartan 3 of 200 thousand gates was used.

Figure 15. Matrix of delays of the signals

In Figure 16 can be observed a first simulation. In the upper part can be seen the clock signals and control of our digital system, which in this case has so high frequency that it’s changes cannot be visualized, in the inferior part we have visualized in analog format within the simulation, the entry signal of our system in green and exit in red, can be observed how it diminishes the signal of higher frequency and passes the signal that is within the functioning parameters of the pass-band filter, and also observe in detail the simulation time which lasted almost 7 milliseconds, that for the simulation of a configurable digital system is a considerable amount of time.

Figure 14. Report of state of the finished project.

It is important to note that the order of the designed filter is 50, which is very high and brings as consequence the great amount of gates used in the implementation. This number of gates can be reduced considerably by reducing the order of the filter. Another of the characteristics of this filter of great relevance is the maximum work velocity that limits the entry frequency of the signal to be filtered, as shown by a delay matrix, in which a list is made of the maximum times of transportation of the different signals in the implementation. In this case the maximum delay is 3.2 nanoseconds, which gives a maximum frequency of work of about 312 megas that divided by the 16 cycles that it takes to do each calculation of the new exit of the filter gives us the maximum sampling frequency, which is 19.5 megahertz , tests that will be made later. See Figure 15. After implementation we proceed to realize a simulation of the system, for which is generated an archive of hundreds of simulation vectors, which can be created in excel or in Matlab with the signals that enter to our system, this archive is called Test 16

Vol.14 No.1

Ingeniería

Figure 16. First Simulation.

In Figure 17 can be observed a much more interesting simulation. As in the preceding first 4 signals, it does not show us any relevant information, due to its high frequency, but in the last two: the entry signal in purple and the exit signal in red show an interesting behavior. In first place , a low frequency signal was injected, in which having zero crossings a typical response to impulse within our filter is shown, which stabilizes in one semi-cycle of oscillation, which is a very good response, in the following segment, a high frequency signal is injected which is almost absolutely diminished, and by last a period of time in which a same frequency as the filter resonance is injected and which passes totally.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

16


17

and in the time required for the development which was very reduced. The results obtained in the FIR filter tests, related to response times are very satisfactory, emphasizing the processing levels of the reconfigurable architectures.

Figure 17. Second Simulation.

In Figure 18. A test is made running the filter sampling to a higher frequency, to demonstrate that the filter can work at much more higher frequencies, and being these frequencies of such a high level, the test is satisfactory, and being this test on the limit noting small deformations in the signal not being able to reconstruct the entry signal, this test was made with an entry signal that coincided with the new frequency of resonance of the filter.

REFERENCES [1] ALTERA Corp., “FPGAs Provide Reconfigurable DSP Solutions”, White Paper, August 2002, version 1.0. [2] ALTERA Corp., “Implementing FIR Filters in FLEX Devices”, Application Note 73, February 1998, version 1.01 [3] ALTERA Corp., “Using PLDs for High-Performance DSP Applications”, White Paper, February 2002, version 1.0. [4] G. Proakis and D. Manolakis. “Tratamiento digital de señales”, Primera Edición, Prentice Hall. 1998. [5] K. Ogata. “Sistemas de Control en Tiempo Discreto”, Segunda Edición, Prentice Hall. 1996. [6] LAHUERTA Aguilar, Eduardo; MEDRANO Sanchez, Carlos y RAMOS Lorente, Pedro, et al. Implementación de un filtro digital en VHDL. Universidad de Zaragoza, España. [7] MELGAREJO, Miguel y PIRAJAN, Alexis, et al. Filtro FIR adaptativo sobre celdas lógicas programables FPGA. En revista Ingenieria, Universidad Distrital. Bogota, Colombia. 2000. [8] R. Hamming. “Digital Filters”, Editorial Prentice Hall. 1999. [9] R. N Vera. “Sistemas de Transmisión”, Segunda Edición, Mc Graw Hill. 1998.

Figure 18. Third Simulation.

By last, in Figure 19, a test was made that tests in real terms the filter. In the entry signal was made a multiplication between the signal that corresponded the resonance frequency of the filter with white sound (pseudo aleatory signal), giving as result a signal visualized in yellow, a signal totally deformed but that implicitly has the frequency that makes the filter to react trying to reconstruct (in red) the original signal of adequate frequency for our purposes, is a test very significative, due to the system being able to reconstruct deformed signals by systematic and totally aleatory errors, which is hard to find in a filter an less in a digital one.

[10] S. Haykin. “Señales y Sistemas”. Primera Edición, Prentice Hall. 1997. [11] VERA Lizcano, Mario; VEJARANO, Gustavo y Velazco Medina, Jaime, et al. Diseño de funciones DSP usando VHDL y CPLDsFPGAs. En revista: Ingenieria y Competitividad, Universidad del Valle. Cali, Colombia. 2006. [12] XILINX Corp., “Distribuited Arithmetic FIR Filter”.Marzo 2002.

César Augusto Hernández Suárez Nació en Villavicencio, Colombia. Es Ingeniero Electrónico de la Universidad Distrital F. J. C. de Bogotá, Colombia. Especialista en Interconexión de Redes y Servicios Telemáticos de la Universidad Manuela Beltrán. Magíster en Ciencias de la Información y las Comunicaciones de la Universidad Distrital, y actualmente adelanta estudios de maestría en Economía en la Universidad de los Andes. Actualmente se desempeña como Docente de planta en la Universidad Distrital F. J. C. en el área de los circuitos digitales y el procesamiento digital de señales. Lctsubasa@Gmail.com

Edwar Jacinto Gómez Nació en Bogotá, Colombia. Es Ingeniero de Control de la Universidad Distrital F. J. C. de Bogotá, Colombia. Actualmente adelanta estudios de Maestría en Ciencias de la Información y las Comunicaciones de la Universidad Distrital y se desempeña como Docente en la Universidad Distrital F. J. C. en el área de Circuitos Digitales.edwarjg@hotmail.com

Figure 19. Fourth Simulation.

Octavio José Salcedo

5. CONCLUSIONS The development of the FIR digital filter, through the methodology described in this paper has allowed to realize a satisfactory digital solution in terms of response times, filtering selectivity, optimization of available hardware resources in the FPGA selected

Ingeniero de Sistemas de la Universidad Autónoma de Colombia. Magíster en Teleinformática de la Universidad Distrital. Magíster en Economía (PEG) de la Universidad de los Andes de Bogotá. Estudiante del Doctorado en Ingeniería Informática de la Universidad Pontificia de Salamanca, España. Se desempeña como Docente de la Facultad de Ingeniería de la Universidad Distrital y en la Universidad Nacional de Colombia. Es director del Grupo de Investigación “Internet Inteligente” de la Universidad Distrital. ojsalcedop@unal.edu.co

17

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

17


18

Aplicabilidad del Modelo de Información de Edificios en el ámbito geoespacial para apoyar el Plan Maestro de Desarrollo Físico y Tecnológico de la Universidad Distrital José Nelson Pérez Castillo1 José Ignacio Rodríguez Molano 2

Resumen Algunas de las tareas de las Instituciones de Educación Superior colombianas, como los planes maestros, se gestionan generalmente por medio de un Sistema de Información Geográfica (Geographic Information System, SIG), en virtud a que los procesos en estas actividades requieren un alto nivel de integración de información geoespacial. Hoy en día, el Modelo de Información de Edificación (Building Information Model, BIM) tiene la capacidad de abarcar la geometría de la construcción, las relaciones espaciales, la información geográfica, y las propiedades de los componentes relacionados con cualquier edificio involucrado en un plan de desarrollo físico. En este contexto, la Universidad Distrital Francisco José de Caldas, en Bogotá Colombia, integrará estos dominios, en función del plan de desarrollo institucional. Esta investigación demuestra que es posible transferir la información adquirida a partir del BIM hacia el entorno geoespacial. Los resultados también confirman que el BIM proporciona el nivel y la cantidad de información suficiente para la perfecta integración entre la información geográfica y la información del edificio. Palabras clave: Interoperabilidad, Ciclo de Vida de Edificación, TICs Construcción, Gestión Ambiental, BIM, Ambiente Virtual de Edificación.

Applicability of Building Information Models in Geospatial Environment to Support Physical and Technological Development Master Plan of the Distrital University Abstract

1

Investigador principal Grupo de Investigación GICOGE

2

Miembro Grupo de investigación GICOGE

Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

18

Vol.14 No.1

Ingeniería

Some tasks in the higher education in Colombia such as master plans are usually managed by using a Geographical Information System (GIS), as the tasks in these processes require a high level and amount of integrated geospatial information. Nowadays, Building Information Models (BIMs) have the capacity for encompassing building geometry, spatial relationships, geographic information, and properties of the components related to physic development plan. In this context, the Distrital University Francisco José de Caldas at Bogotá, Colombia integrates these domains according to institutional development plan. This research has demonstrated that it is possible to transfer information acquired from BIMs into the

geospatial environment. The results also confirmed that BIMs provide a sufficient level and amount of information for the seamless integration between geographic information and building information. Key words: Interoperability, Building Cycle Life, ICT Construction, Environmental Management, BIM, Virtual Building Environment.

1. INTRODUCCIÓN 1.1. La integración de CAD/GIS/BIM Durante los últimos años, las comunidades del ámbito geoespacial y de la arquitectura, la ingeniería y la construcción (AEC), han venido trabajando en la perspectiva de la integración e interoperabilidad en estas dos importantes áreas de la actividad humana. Mientras que desde la perspectiva de lo geoespacial, el interés se centra en modelos correspondientes a entidades del mundo real con objetos en dos o dos y media dimensiones, como los que se encuentran en los mapas y en los modelos digitales del terreno, en el caso de los edificios y obras civiles en general la atención es puesta en un contexto tridimensional. En el campo de la AEC, el Modelo de Información de Edificación (BIM) busca facilitar la administración efectiva del uso compartido y el intercambio de información de edificación a lo largo del ciclo de vida completo de todos los proyectos. En [1] se define un BIM como una representación digital paramétrica, orientada a objetos, inteligente y muy rica en datos correspondientes a una instalación particular, de la cual se puede generar información, empleada posteriormente en la toma de decisiones y en los procesos de entrega de una edificación. También, un BIM se define [2], como una representación computable de todas las características físicas y funcionales de un edificio y su información de proyecto (ciclo de vida) asociada, que se convierte en un repositorio de información para los interesados en el proyecto. Adicionalmente, en [3] se afirma que un BIM es una nueva manera de crear, compartir, intercambiar y manejar la información del edificio a través del ciclo de vida completo del mismo. En tal sentido, los intercambios de información ocurren a través de los procesos del ciclo de vida entre todos los interesados, el conocimiento fundamental actúa como la espina dorsal de la información proporcionando datos históricos y datos al día, referentes a los procesos del ciclo de vida del edificio. De ahí que un BIM, pueda

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

18


19

concebirse como un elemento fundamental del conocimiento básico del ciclo de vida de la información de la edificación. En este contexto, las siguientes definiciones para un BIM son bien conocidas: Producto: representación digital inteligente de una construcción o edificio. Proceso colaborativo: que involucra los controladores del negocio, capacidades de procesamiento automatizadas, estándares de información abiertos para la sostenibilidad y fidelidad de la información. Facilidades: intercambios de información bien entendida, flujos de trabajo y procedimientos que los equipos usan de manera repetible, verificable, transparente e información sustentable basada en el entorno que se use durante el ciclo de vida de los edificios. Los BIMs cubren las diferentes fases del ciclo de vida de los edificios y son muy ricos en datos, dado que representan una gran cantidad de información semántica y geométrica. Adicionalmente, los BIMs son tridimensionales, de modo que las geometrías están espacialmente relacionadas unas a otras y se representan dentro de una estructura orientada a objetos. Otras características no menos importantes de los BIMs incluyen el hecho de ser extendibles, abiertos e independientes de los proveedores; con el fin de garantizar el uso compartido y el intercambio, los BIMs se almacenan digitalmente, como archivos físicos o bases de datos y pueden compartirse e intercambiarse entre aplicaciones. Además, pueden generarse varias vistas y modelos a partir de un BIM individual [4]. Los BIMs actuales son el resultado de la evolución de formatos de intercambio de facto tales como DXF a través de los modelos de información de la AEC, que se apoyan principalmente en las tecnologías de STEP. Entre los esfuerzos más significativos se destacan los del CIMSteel Integration Standards 2 (CIS/ 2) y las Clases Básicas de la Industria (Industry Foundation Classes, IFC) [5]. Los documentos CIS/2 son estándares abiertos para el intercambio y uso compartido de manera digital de información de ingeniería, relativa al ámbito del acero estructural. Trabajos recientes sobre el uso e implementación de BIMs y especialmente de las IFCs incluyen a [6],[7],[8],[9] y [10].

19

Por otra parte, el proceso de desarrollo de los estándares del Open Geospatial Consortium, OGC se soporta en pruebas de laboratorio, de modo que en la actualidad se trabaja activamente en la convergencia de las tecnologías geoespaciales y de la AEC. Estas tienen diferentes vocabularios, geometrías, paradigmas de computación, formatos de datos, esquemas de datos, escalas y vistas del mundo. Además, diferentes requerimientos de exactitud, verosimilitud (realismo) y ejecución de las animaciones. De hecho, las diferentes organizaciones

tienen procesos de negocios diferentes para los que han desarrollado sus propios formatos y procedimientos tanto digitales como análogos. El Grupo de Trabajo de Interoperabilidad CAD/GIS, está orientando sus esfuerzos hacia la integración AEC/CAD/OGC. Los miembros del OGC están trabajando sobre proyectos tales como: la integración de estándares internacionales para Modelos de Información de Edificios con la Especificación del Lenguaje de Marcado Geográfico (GML), el estándar de la industria más importante para la codificación en XML de la información geoespacial. XML hace posible describir y codificar muchas clases de datos de modo que el software pueda integrar y reconocer inteligentemente los datos para diversos propósitos.

Se afirma que un BIM es una nueva manera de crear, compartir, intercambiar y manejar la información del edificio a través del ciclo de vida completo del mismo.

Durante la última década la comunidad de la AEC estableció los estándares de las IFCs [11] para los elementos y propiedades de la construcción que impulsaran un movimiento del mercado desde el CAD 2D a objetos 3D [12]. La integración de estándares de los mundos geoespacial y de la AEC provee una excelente oportunidad para generar una base que habilitará a la industria para satisfacer los requerimientos de interoperabilidad planteados. Uno de los estándares que ha avanzado gracias a tales iniciativas es CityGML [13], un marco abierto del modelo de datos y un estándar de codificación basado en XML para el almacenamiento e intercambio de modelos urbanos virtuales 3D. CityGML provee esquemas de objetos topográficos para modelos 3D de ciudades y del paisaje con respecto a su geometría, topología, apariencia y semántica. CityGML representa edificios (incluyendo interiores), modelos digitales de terreno, cuerpos de agua, vegetación, transporte y muebles en cinco niveles de detalle permitiendo la conexión a datos que se mantienen en los sistemas catastrales y en los modelos de información de edificios [13]. También pueden intercambiarse, las propiedades observables de las superficies de entidades tales como los rayos infrarrojos y la emisión de ruido. Un modelo completo de IFC puede exportarse a CityGML, proporcionando la importante habilidad para aprovechar los componentes relevantes del BIM y así construir modelos urbanos realistas para un amplio rango de aplicaciones operacionales y de planeación. CityGML es una parte de un conjunto integrado de estándares del OGC que permiten el acceso amplio, el uso compartido y la integración y aplicación de geodatos a un sin número de tareas enfocadas a la solución de problemas [14]. 1.2. Modelamiento, Gestión y Planeamiento Urbano e Integración de BIMs y GISs En Colombia y particularmente en Bogotá, el crecimiento y desarrollo urbano, deben hacerse acordes con las normas establecidas para la gestión y planeación del territorio, en el Plan de Ordenamiento Territorial

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

19


20

En Bogotá, el Catastro Distrital mantiene los repositorios que constituyen la infraestructura de información indispensable para los procesos de selección de sitios.

(POT) y en el Plan Integrado de Gestión Ambiental (PIGA). Los Sistemas de Información Geográfica se usan en actividades de gestión y planeación urbana. La Ciencia y Tecnología de la Información Geográfica se usa en la planeación de: el catastro, el uso de la tierra, el crecimiento urbano, servicios públicos (agua, luz, alcantarillado, gas y telefonía) la renovación urbana, la gestión y planeación de la respuesta a emergencias, la entrega de bienes y servicios y del sector educativo. En Bogotá, el Catastro Distrital mantiene los repositorios que constituyen la infraestructura de información indispensable para los procesos de selección de sitios. Por lo general, los registros catastrales se almacenan y gestionan en la forma de modelos de geoinformación 2D y 3D. En tal sentido algunos de los trabajos más recientes incluyen [15], [16], [17] y [18]. En cuanto al uso de los GISs para la selección (localización) de sitios para la construcción de un tipo específico de edificación están los estudios de [19], [20] y [21]. En este orden de ideas, el Plan Maestro de Desarrollo Físico de la Universidad Distrital, se inscribe en el Plan de Ordenamiento Territorial de Bogotá y en consecuencia en el Plan Maestro de Educación según lo establece la Secretaría de Planeación Distrital de Bogotá. Por lo anterior, la integración de la información de edificios por sede con la información geoespacial de Bogotá en el Sistema de Información del Plan Maestro de Desarrollo Físico de la Universidad Distrital, se inscribe en los requerimientos de convergencia hacia una integración inconsútil a nivel de los estándares.

2. CASO DE ESTUDIO En el ámbito de la educación superior, la creciente integración de las tecnologías de la información y las comunicaciones en los ámbitos geoespacial y de la AEC, favorece de modo extraordinario el desarrollo de la sociedad, proporcionando, entornos de trabajo e investigación, antes no imaginados. En el caso específico de la educación superior, este fenómeno impacta los planes tácticos y estratégicos, de las universidades colombianas. En particular, en este documento se describe su influjo en la Universidad Distrital Francisco José de Caldas de Bogotá, Colombia. La Universidad Distrital Francisco José de Caldas, es una institución pública de educación superior que cuenta con aproximadamente veintiséis mil estudiantes. Esta institución de educación superior, se distribuye geográfica-mente en Bogotá, contando para ello actualmente, con cinco sedes y dos más para finales del 2010. Su prospectiva se hace plausible estratégicamente en su plan decenal, denominado “Saberes, conocimiento e investigación de alto impacto para el desarrollo humano y social”, que contempla en su política 6, el desarrollo Figura 1. Modelo del Plan Desarrollo Físico y Tecnológico de la infraestructura física y tecnológica de 20

Vol.14 No.1

Ingeniería

la universidad. La concepción del desarrollo físico y tecnológico, se esquematiza en la figura 1. 2.1. Plan de desarrollo físico y tecnológico de la Universidad Distrital Desde la perspectiva del desarrollo tecnológico y según la Figura 1, mirando de abajo hacia arriba, en relación con el Plan Maestro de Desarrollo Físico, se observa que se hace necesaria la creación del Sistema de Información del Plan Maestro de Desarrollo Físico. Desde el ámbito de la infraestructura de redes de comunicaciones es imperioso introducir completamente las Redes Avanzadas [25], mediante la implementación de la denominada Red de Investigaciones de Tecnología Avanzada (RITA). En la parte de la infraestructura de servicios se recurrirá a la computación Grid, cuya infraestructura se denominará Grid-UD. En la parte de las aplicaciones educativas, se pretende el uso intensivo y extensivo de las técnicas más avanzadas de e-learning, mediante el proyecto ADICDEV (Adquirir, Diseñar, Construir y Dotar la Infraestructura de la Educación Virtual). La Grid-UD, desarrollará su completo potencial, sobre RITA puesto que esta última, se encuentra conectada a la Red Universitaria Metropolitana de Bogotá (RUMBO), a la Red Académica Nacional de Tecnología Avanzada (RENATA) de Colombia, a la Red Latinoamericana CLARA y de ahí a la red Geant2 en Europa e Internet 2 en Norteamérica siguiendo el plan nacional de tecnologías de la información y las comunicaciones, emprendido por el estado colombiano, según se ve en la Figura 2. 2.2. El Sistema de Información del Plan Maestro de Desarrollo Físico El Sistema de Información del Plan Maestro de Desarrollo Físico, debe ser un entorno virtual de edificación (Virtual Building Environment, VBE) que haga posible al grupo de trabajo encargado del Plan Maestro de Desarrollo Físico, la creación de los Modelos de Información de Edificios por Sede y el uso y manipulación de los distintos modelos digitales. El Sistema de Información del Plan Maestro de Desarrollo Físico comprende la definición de un modelo de información geoespacial y de edificios por sede, de carácter distribuido y con una estructura de datos utilizada para la representación de la información de arquitectura e ingeniería acorde con el Plan de de Ordenamiento Territorial de Bogotá, elemento clave que orienta la planificación y el desarrollo urbano de la ciudad capital de Colombia. La pertinencia de esta formulación se funda en la necesidad de desarrollar un modelo de información que responda apropiadamente a los requerimientos de gestión académica y administrativa que plantea la ejecución del Plan Trienal de Desarrollo 2008-2010, de la Universidad Distrital Francisco José de Caldas.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

20


21

Desde el punto de vista geoespacial, cada sede debe disponer de su respectivo plan de regularización y manejo, como requisito sine qua non, para ajustar su desarrollo físico, de acuerdo con las normas que regulan el crecimiento urbano de la ciudad. Cada modelo de información de edificios por sede quedará integrado al sistema de información del Plan Maestro de desarrollo físico, superando las prácticas tradicionales estructuradas sobre la disyunción disciplinar, dando paso a un nuevo modelo integrado, estructurado sobre las jerarquías naturales de la organización, complejo y dinámico siguiendo los últimos avances en la integración de modelos de información de edificación y sistemas de información geográfica. 2.3. Aspectos conceptuales del Sistema de Información del Plan Maestro de Desarrollo Físico Desde lo conceptual, el modelo del sistema de información del plan maestro de desarrollo físico y tecnológico puede constituirse recurriendo a varias categorías gnoseológicas estructuradas de modo jerárquico en varios ámbitos a saber: urbano, macroarquitectónico, arquitectónico, espacial y constructivo. El ámbito urbano, corresponde a la ciudad como organización; entendida como un sistema abierto al territorio y estructurado en base a las relaciones entre espacios adaptados, que corresponden a aquellos en donde se realizan las actividades de la población. El ámbito macro-arquitectónico, corresponde al conjunto de edificios de la Universidad; debe ser abierto al sistema urbano y estructurado en base a la relación entre edificios. El ámbito arquitectónico, corresponde al edificio como organización; debe ser un sistema abierto al entorno y estructurado con base a la relación entre espacios cualificados. El ámbito espacial, corresponde al espacio individual cualificado como organización; debe ser un sistema abierto al edificio y estructurado en base a la relación entre elementos constructivos y componentes accesorios. El ámbito constructivo, se refiere a la parte física que se integra en una obra de construcción y al procedimiento usado para conseguirla; debe ser un sistema que puede ser abierto o cerrado y estructurado en base a las relaciones de otros elementos constructivos. Por ello, el Modelo Digital de Información de Edificios de cada Sede de la Universidad Distrital, es una unidad compleja resultante de la integración del conjunto de subsistemas disciplinares que tradicionalmente componen el edificio (arquitectura, estructura, electricidad, etc.). Esta integración implica establecer las relaciones entre estos subsistemas.

21

2.4. Sistema de Información del Plan Maestro de Desarrollo Físico y Plan Integrado de Gestión Ambiental Para cumplir con el Plan Integrado de Gestión Ambiental (PIGA), el sistema de calificación de

edificios verdes (Leadership in Energy and Environmental Design, LEED®) es un elemento de certificación crítico para el desarrollo sustentable de la Universidad, pues se está convirtiendo en una norma mundial para desarrollar edificios sostenibles con un uso adecuado de los recursos. Con la universalización de esta norma, la Universidad deberá adoptar para sus nuevos proyectos de construcción la certificación LEED, que califica los proyectos con arreglo al diseño del emplazamiento, la calidad medioambiental interior y el uso eficaz de la energía, los materiales y el agua. Una calificación LEED alta reconoce la calidad de un diseño de construcción verde y además convierte el proyecto en candidato a diversas ayudas financieras, con los importantes beneficios que ello implica para la Institución.

Desde el ámbito de la infraestructura de redes de comunicaciones es imperioso introducir completamente las Redes Avanzadas .

3. PROTOTIPO La implementación de la integración de las tecnologías BIM y geoespaciales, se ilustra de manera concreta, en los diseños correspondientes al Centro de Investigación y Desarrollo Científico y Tecnológico en Ingeniería, conocido con el acrónimo de CIDCYTEI [22]. 3.1. El contexto Geoespacial

De acuerdo con el Plan de Desarrollo Institucional, en particular el Plan Maestro de Desarrollo Físico y Tecnológico, las intenciones de expansión y crecimiento de la Universidad Distrital en la denominada Sede Central, ubicada en el sector central de la ciudad capital de Colombia, deben seguir los lineamientos legales expuestos en el Plan de Ordenamiento Territorial de Bogotá en general y en particular el desarrollo urbanístico de la localidad de Chapinero.

Figura 2. Red Nacional Académica de Tecnología Avanzada. Fuente: Ministerio de Tecnologías de la Información y las Comunicaciones de Colombia

No obstante, en el contexto de la localidad de Chapinero, es preciso considerar las Unidades de Planificación Zonal, que establecen los acuerdos comunitarios en relación con los aspectos dotacionales y el uso del suelo. Cumplidos los requisitos anteriores se

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Carrera 8 No. 40-60

Figura 3. Localización Geográfica del CIDCYTEI Vol.14 No.1

Ingeniería

21


22

procedió a la formulación de la Unidad de Actuación Urbanística para la Facultad de Ingeniería de la Universidad Distrital, ubicada en la Cra 7 Nº 40 – 53, fundamentándose en el Plan de Desarrollo Institucional, según se ilustra en la Figura 3. Por lo anteriormente expuesto, la formulación de la Unidad de Actuación Urbanística para la Universidad Distrital, Facultad de Ingeniería, dio lugar a la propuesta de construcción del Centro de Investigación y Desarrollo Científico y Tecnológico en Ingeniería (CIDCYTEI), que será un centro de investigación y desarrollo en las distintas áreas de conocimiento de la ingeniería, que hará uso intensivo de las tecnologías de la Información y las Comunicaciones, en el marco de los conceptos de eCiencia. 3.2. El contexto de la Construcción Atendiendo las 4 fases del IFC Solutions Factory [23], se siguieron los pasos siguientes: Requerimientos

• •

Cada sede debe disponer de su respectivo plan de regularización y manejo para ajustar su desarrollo físico. 22

Vol.14 No.1

Ingeniería

Se acordó un programa de necesidades en cuanto a ambientes, áreas y sus particularidades. Se propusieron estudios generales del proyecto tales como: diagramas de relaciones entre ambientes, flujogramas, funciones de cada ambiente y las particularidades arquitectónicas requeridas para esas funciones. Equipamiento y mobiliario por ambiente, calidad de la decoración, tipo de iluminación, etc. Se tuvieron en cuenta criterios preliminares de diseño tales como: espaciales, funcionales, formales, simbólicos, estructurales, eléctricos, hidrosanitarios, electromecánicos, instalaciones especiales, arquitectura accesible, materiales de construcción, sistemas constructivos, ventilación natural y electromecánica, obras exteriores, etc. Se consideraron criterios básicos de costos de construcción del proyecto y de mantenimiento del edificio del CIDCYTEI, instalaciones, obras exteriores, etc. Se tuvieron en cuenta, criterios básicos acerca de la forma administrativa que se empleará para la construcción de la obra.

3.3. Descripción de componentes del BIM del edificio del CIDYTEI Diseño arquitectónico del edificio. El diseño arquitectónico es básico y se usa como punto de referencia para los demás sistemas. Se diseña como un todo tridimensional de modo que permita la localización de otros subsistemas. Se consideraron las plantas típicas, plantas de techos, planos de elevaciones, secciones, cielos reflejados, puertas, ventanas, muebles, acabados, detalles de pasillos,

simbología y técnicas específicas. Diseño estructural. El diseño estructura caracteriza los soportes metálicos misceláneos y los puntos de conexión a los elementos externos al edificio. Se tuvo en cuenta el tipo y calidad de los materiales a utilizar, excavaciones, elevaciones y secciones estructurales, armaduras, techos falsos, obras exteriores, vigas, columnas y demás especificaciones básicas. Diseño eléctrico. Se tuvo en cuenta el sistema de iluminación y commutación, tomacorrientes de uso general, instalaciones de fuerza, programación de paneles, sistemas de aterramiento, pararrayos, simbología y demás especificaciones técnicas. Diseño de instalaciones sanitarias e hidráulicas. Comprende todos aquellos elementos constructivos relacionados con el manejo del agua incluyendo el abastecimiento de agua potable, los drenajes sanitario y pluvial, instalaciones hidrosanitarias, bombeo de agua potable, suministro de agua al sistema de protección de incendios, potabilización del agua, tratamiento y disposición final de aguas residuales, sistema de eliminación de basura e incineración de documentos. Estudio topográfico completo. Levantamiento topográfico del terreno planimétrico y altimétrico con curvas a nivel a un distanciamiento no mayor de 50 cms. Estudio de suelos. Análisis de estratos que conformen valores soportes para aplicaciones en el diseño estructural y recomendaciones para el diseño de bases, y espesores de pisos y pavimentos. Diseño de obras civiles de conjunto. Plano general del trazado de calles y estacionamientos y ubicación del edificio, planos constructivos de estas obras, descripción topográfica con rumbos, distancias de calles y estacionamientos. Estimados de costos. Se realizarán una vez terminados y aprobados los planos constructivos del proyecto y contendrán los costos por etapas y costos globales. Presupuesto de construcción y carpeta de ejecución de obra. Se realizará una vez terminados los planos constructivos y contendrá cantidades de obras por etapas, costos unitarios y avances físicos financieros, Red CPM y diagramas de Gant. Los resultados del proceso anterior, se concretan en el prototipo de diseño que se presenta en la figura 4.

4. BENEFICIOS DE LA APLICACIÓN DE LOS BIMs En realidad la mayor parte de los beneficios del Sistema de Información de Edificios de la Universidad

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

22


23

Distrital, en principio podrían considerarse como directos, no obstante, la mayoría de ellos resultan ser indirectos. Los beneficios directos se concretan en elementos tales como una visualización mejorada y la centralización de la información de las distintas edificaciones. Pero los beneficios indirectos incluyen la necesidad de la colaboración y la consecuente compresión mejorada de las tareas atinentes a la concreción del Plan Maestro de Desarrollo Físico de la institución, situación que ayuda a reducir los inevitables riesgos en los distintos frentes de la expansión física de la Universidad Distrital.

modelos adecuados de la información de edificaciones. La colaboración se refiere a la acción cooperativa de varios miembros del equipo de trabajo de tal manera que se vea estimulada y facilitada por los modelos de información de las distintas edificaciones. El manejo del conflicto se orienta a beneficios relacionados con los diferentes proyectos, tales como la reducción de riesgos y el peligro de despilfarro.

Las simulaciones digitales permiten planear y probar virtualmente un diseño, antes que el proyecto real sea construido. Un modelo evidentemente ayuda a visualizar los diferentes proyectos, a estimular el pensamiento con referencia a los diferentes requerimientos y ayuda en la descripción de un proyecto de manera eficiente. Los grandes beneficios de este cambio fundamental en la planeación y ejecución de los proyectos de construcción se harán palpables a medida que se implanten los diferentes procedimientos y procesos informáticos. En pocas palabras el beneficio principal del sistema de información de edificaciones se traduce en la reducción de los riesgos de los distintos proyectos del Plan Maestro de Desarrollo Físico.

4.1. Visualización investigación y Desarrollo Científico y Tecnológico en El beneficio más claro de un modelo Ingeniería (CIDCYTEI) 3D es la capacidad mejorada para visualizar (entender) qué es lo que se está representando. Muchas personas tienen dificultad para entender los diseños 2D, aún los expertos en ocasiones se ven sorprendidos cuando después de un estudio repentinamente algo no queda claro. Sin embargo, un modelo 3D representa claramente un proyecto y permite la visualización de muchas de sus características aún con pocos detalles. El cerebro humano se destaca en su habilidad para abstraer y entender el mundo gracias al uso de abstracciones. Los símbolos son una forma poderosa de portar una enorme cantidad de significado con muy poca información. La visualización implica que cada persona pueda enfocarse sobre características ligeramente diferentes para componer la visualización de un objeto o una idea y es esta diferencia la que con frecuencia causa malos entendidos entre personas que intentan comunicarse.

Vale aclarar que la simulación de un proyecto mediante el Modelo de Información de Edificios realmente requiere un gran esfuerzo de preparación por parte de los miembros del equipo asociado a cada proyecto. Es poco probable que una simulación completa de alta calidad pueda desarrollarse sin la colaboración del equipo completo del proyecto. Dado que el principio fundamental que subyace en el proceso de simulación es la eliminación del riesgo, se concluye que esta es una herramienta fundamental para la implementación de técnicas de construcción de apoyo. Es precisamente a partir de estos cambios en el proceso de planeación y ejecución de un proyecto que los mayores beneficios se obtienen. En definitiva, la solución a muchos de los problemas fundamentales de la industria de la construcción radica en una exitosa colaboración. Los beneficios para la Institución al adoptar los procesos atinentes al Sistema de Información de Edificaciones son inherentes a la naturaleza misma de los procesos, motivará a los participantes a realizar el uso más adecuado del proceso y por lo tanta a valorar sus beneficios.

23

La visualización, la colaboración y manejo adecuado del conflicto, son los tres pilares fundamentales bajo los cuales se organizan los beneficios de la implementación adecuada de los sistemas de información de edificios de la Universidad Distrital. La visualización beneficia primordialmente a los individuos, mejorando su comprensión personal, como resultado del uso de

Figura 4. Edificio del Centro de

La naturaleza de casi todas las relaciones, entre las personas, se basa en la comunicación, que a su vez se apoya en el intercambio de información bidireccional. El simple hecho de proveer información (emisión) no implica que necesariamente haya comunicación, un receptor tiene que hacer algo (responder) con la información de modo que se establezca la comunicación. Una buena comunicación puede conllevar a una evaluación y de ahí a una retroalimentación que a su vez afectará una simulación permitiendo el progreso y la evolución hacia estadios de calidad cada vez mayor en la realización de un proyecto. 4.2. Colaboración La necesidad de colaborar para emplear técnicas de simulación en la industria de la construcción es sin lugar a dudas su mayor beneficio. Se ha demostrado repetidamente que una pronta colaboración genera los mayores beneficios para la planeación y construcción de un proyecto de edificación; entonces el desarrollo de un modelo virtual se constituye en uno de los mejores medios para una rápida y profunda colaboración del equipo del proyecto en torno a los aspectos más relevantes de la planeación, diseño y construcción de un edificio. Cuando la

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

23


24

Los grandes beneficios de este cambio en la planeación y ejecución de los proyectos de construcción se harán palpables a medida que se implanten los procedimientos y procesos informáticos.

comunicación real tiene lugar, cuando dos personas se escuchan realmente la una a la otra y cuando son sensibles a las respuestas del otro, la conversación y la comunicación son mutuamente estimuladas entonces la comprensión mutua y el respeto llegan a ser posibles. La comunicación real se requiere para una colaboración verdadera, para la interdependencia y el mutuo apoyo entre los miembros del equipo de trabajo y para trabajar hacia las metas comunes del mismo. El ciclo de retroalimentación de la información representa la evolución continua de la información conectada con el proyecto. El BIM provee la fuente de generación de nueva información que se retroalimenta sí mismo, resultando en la adición y refinamiento de esta información.

Los conflictos pueden identificarse más fácilmente a través de la centralización del acceso a toda la información referente al proyecto. Los conflictos en la localización, el itinerario, etc. pueden detectarse gracias a las diversas vistas del BIM. De hecho es crítico que todas las fuentes de información que permiten el proceso se sincronicen en espacio, tiempo y formato.

5. TRABAJO FUTURO Al tenor de lo establecido en el Plan Maestro de Desarrollo Físico 2008-2016 de la Universidad Distrital Francisco José de Caldas [24], a mediano plazo, se consolidará la infraestructura de la Sede Central (Edificio Sabio Caldas, Torre Administrativa, Edificio Luis Alejandro Suárez, Edificio Central y la Casona) para la Facultad de Ingeniería. Dicha situación brinda la oportunidad para introducir de manera irreversible la integración de las tecnologías de la información geoespacial y de edificios al servicio del desarrollo y crecimiento de la infraestructura física y tecnológica de la Facultad de más larga trayectoria en los sesenta años de existencia de la Universidad Distrital.

REFERENCIAS BIBLIOGRÁFICAS [1] Associated General Contractors Guide, AGC Contractors’ Guide to BIM. Available from: <http://www.agcnebuilders.com/documents/BIMGuide.pdf/ >. (Visitado 12 de Abril de 2009). [2] NBIMS, National BIM Standard Purpose, US National Institute of Building Sciences Facilities Information Council BIM Committee, 2006. Available from: http://www.buildingsmartalliance.org/nbims/. (Visitado 12 de Abril de 2009). [3] NBIMS, National Building Information Modelling Standard Part-1: Overview, Principles and Methodologies, US National Institute of Building Sciences Facilities Information Council, BIM Committee, 2007. Available from: http:/ /nbimsdoc.opengeospatial.org/. (Visitado 12 de Abril de 2009). Vol.14 No.1

Ingeniería

[5] CISIFC, 2009, http://www.coa.gatech.edu/~aisc/cisifc/. (Visitado 12 de Abril de 2009). [6] Howard R., Bjork B., 2008. Building information modeling – experts’ views on standardisation and industry development, Advanced Engineering Informatics 22 (2), 271–280. [7] Lee, K., Chin S., Kim J., 2003. A core system fordesign information management using industry foundation classes, Computer-Aided Civil and Infrastructure Engineering 18 (4) 286–298. [8] Chen P., Cui L., Wan, C., Yang Q., Ting S., Tiong, R., 2005. Implementation of IFC based web server for collaborative building design between architects and structural engineers, Automation in Construction 14 (1) (2005) 115–128. [9] Tanyer, A., Aouad, G., 2005. Moving beyond the fourth dimension with an IFC based single project database, Automation in Construction 14 (1) 15–32. [10] Nour, M., 2007. Manipulating IFC sub-models in collaborative teamwork environments, in: Proceedings of the 24th CIB W78 Conference, Maribor, Slovenia, June 2007. [11] IFG, 2005. The Web Site for Industry Foundation Classes for GIS Project, 2005. Available from: <http://www.iai.no/ifg/Content/ifg_index.htm/>.

4.3. Manejo del Conflicto En virtud de la mayor habilidad para visualizar, comunicar, evaluar y coordinar las distintas fases de un proyecto gracias al uso de un BIM, es posible acelerar y mejor la comprensión, coordinación y el uso material en la gestión de un proyecto de construcción. El proceso del BIM ayuda a reducir los conflictos, los desperdicios y los riesgos del proyecto.

24

[4] Isikdag U., Underwood J., Aouad G., Wu S., 2007. Building information models: a review on storage and exchange mechanisms, in: Proceedings of the 24th CIB W78 Conference, Maribor, Slovenia.

[12] Benner, J., Geiger, A., Leinemann, K., 2005. Flexible generation of semantic 3D building models, in: Presentations of 1st International Workshop on Next Generation 3D City Models, Bonn, Germany, Available from: <http:// www.ikg.unibonn.de/ûleadmin/nextgen3dcity/pdf/NextGen3DCity2005_ Geiger.pdf/>. [13] CityGML, 2009. The Web Site for CityGML: An Information Model for Exchange and Storage of Virtual 3D City Models, 2006. Available from: <http://www.citygml.org/>. (Visitado 12 de Abril de 2009). [14] OWS-4, 2007. OWS-4 Summary document, OGC Document 07-037r4: Summary of the OGC Web Services, Phase 4 (OWS-4), 2007. Available from: <http://www. opengeospatial.org/projects/initiatives/ows-4/>. [15] Steudler, D., 2006. Swiss cadastral core data model – experiences of the last 15 years, Computers, Environment and Urban Systems 30 (5) (2006) 600–613. [16] vanOosterom, P., Lemmen, C., Ingvarsson, T., van de Molen , P., Ploeger, H., Quak, W., 2006. The core cadastral domain model, Computers, Environment and Urban Systems 30 (5) (2006) 627–660. [17] Coors, V., 2003. 3D GIS in networking environments, Computers, Environment and Urban Systems 27 (4) (2003) 345–357. [18] Billen, 2003. R. Billen, S. Zlatanova, 3D spatial relationships model: a useful concept for 3D cadastre, Computers, Environment and Urban Systems 27 (4) (2003) 411–425. [19] Li et al, 2005. H. Li, L. Yu, E.W.L. Cheng, A GIS-based site selection system for real estate projects, Construction Innovation 5 (4) (2005) 231–241. [20] Cheng, E., Li, H., Yu, L., 2007. A GIS approach to shopping mall location selection, Building and Environment 42 (2) (2007) 884–892. [21] Hernandez et al, 2004. J. Hernández, L. Garcia, F. Ayuga, Assessment of the visual impact made on the landscape by new buildings: a methodology for site selection, Landscape and Urban Planning 68 (1) (2004) 15–28. [22] Rodríguez Leonardo, “Proyecto CIDCYTEI”, documento inédito, Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, 2008. [23] JIBM, 2008 Journal of Building Information Modeling. An official publication of the National BIM Standard (NBIMS) and the National Institute of Building Sciences (NIBS) http://www.wbdg.org/references/jbim.php(Visitado 15 de Abril de 2009). [24] Oficina Asesora de Planeación y Control, 2009. Plan Maestro de Desarrollo Físico. Documento inédito presentado al Consejo Superior de la Universidad Distrital Francisco José de Caldas. [24] Cabezas, A., Bravo S. Redes Avanzadas en América Latina: Infraestructura para el Desarrollo Regional en Ciencia, Tecnología e Innovación. Libro Blanco. CLARA-ALICE2. Enero de 2010.

José Nelson Pérez Castillo Profesor Facultad de Ingeniería de la Universidad Distrital Francisco José de Caldas. Doctor en Informática Universidad de Oviedo. Magíster en Teleinformática Universidad Distrital Francisco José de Caldas. Especialista en Sistemas de Información Geográfica y Teledetección Espacial Universidad de Henares. Investigador Principal Grupo GICOGE. nelsonp@udistrital.edu.co

José Ignacio Rodríguez Molano Profesor Facultad de Ingeniería de la Universidad Distrital Francisco José de Caldas. Estudiante Maestría en Ciencias de la Información y las Comunicaciones Universidad Distrital Francisco José de Caldas. Especialista en Sistemas de Información Geográfica Universidad Distrital Francisco José de Caldas. Miembro Grupo GICOGE. jirodriguez@udistrital.edu.co

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

24


25

Minimización de la tardanza ponderada total en talleres de manufactura aplicando colonia de hormigas Oscar Yecid Buitrago Suescún1 Rodrigo Britto Agudelo2 Gonzalo Mejía Delgadillo3

Resumen Se estudio el job shop scheduling problem (JSSP) con el objetivo de minimizar la tardanza ponderada total. Este es un problema NP–Hard en el sentido fuerte y para resolverlo constructivamente se propone una implemen- tación de la meta-heurística colonia de hormigas. Las soluciones generadas se basan en el principio que la secuencia óptima se encuentra en el conjunto de los programas activos.

Dada la imposibilidad práctica de aplicar procedimientos matemáticos que garanticen la solución óptima en este tipo de problemas, se recurre a las meta-heurísticas ya que estas técnicas proporcionan soluciones buenas en tiempos razonables. Las más conocidas son los algoritmos genéticos, recocido simulado, búsqueda tabú y a partir de los años 90 Colonia de Hormigas (ACO).

Palabras clave: meta-heurística, colonia de hormigas, búsqueda tabú, programación de talleres

Con respecto a Colonia de Hormigas, fue propuesta por Marco Dorigo [3] para la solución de problemas combinatorios como el del agente viajero y el de asignación cuadrática [4] y se basa en la observación de hormigas reales ya que estos insectos tienen características de comportamiento que han llamado la atención de varios investigadores. Una de estas es la capacidad de la colonia para encontrar la ruta más corta entre el hormiguero y las fuentes de alimento a través de cooperación y comunicación por estímulos.

This research studies the minimization of the total weighted tardiness in the job shop scheduling problem (JSSP). This problem is NP – strongly Hard and to solve it constructively an implementation of the metaheuristic Ant Colony is proposed. The generated solution is based on the principal of optimal solution that is found in the set of active schedules. The values of different parameters were determined by experimental design. The performance of the proposed heuristic was compared with priority rules and meta-heuristics such as Tabu Search and Simulating Annealing in the solution of instances 5×5, 6×6 y 10×10 that had their optimal solution reported in the literature.

2

3

25

Profesor Universidad Central. Miembro del grupo de investigación CIPO. Estudiante del Doctorado en Logística de la Universidad de Maryland, USA. PhD., Profesor de la Universidad de los Andes. Miembro del grupo de investigación PYLO.

Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

Por otra parte, en nuestro medio es común encontrar ambientes de trabajo tipo taller, que consisten en un conjunto de máquinas en las que se debe procesar un determinado número de trabajos siguiendo un orden predeterminado. Aunque programar la producción en talleres parece un problema sencillo, dista mucho de serlo y esta clasificado como NP-Hard según [1] y [2].

El valor de los diferentes parámetros de colonia de hormigas se determino por diseño de experimentos. Se comparo el desempeño del algoritmo propuesto con los resultados obtenidos a través de reglas de despacho y las meta-heurísticas búsqueda tabú y recocido simulado, en la solución de problemas de tamaño 5×5, 6×6 y 10×10 de los cuales se han reportado las soluciones óptimas.

Abstract

1

compromisos de entrega de los pedidos sin incurrir en costos innecesarios de almacenamiento.

Key words: meta-heuristics, ants colony optimization, tabu search, job hhop scheduling.

1. INTRODUCCIÓN En un mundo globalizado como el actual, para las empresas manufactureras la forma de programar la producción es muy importante porque les permite aumentar la productividad y lograr la satisfacción de sus clientes mediante el cumplimiento en los

Mientras hacen sus recorridos las hormigas dejan un rastro de una sustancia química llamada feromona la cual es percibida por toda la colonia, así cuando tienen que escoger una ruta se deciden por aquella que tenga el rastro más fuerte. Este también les permite encontrar el camino de regreso al hormiguero (ó a la fuente de alimento) y transmitir esta información a otras hormigas [5]. Colonia de Hormigas se implementa en este trabajo porque es más nueva que las otras meta-heurísticas, es prometedora, no se encuentran reportadas muchas aplicaciones a situaciones de producción [6] [7], ninguna al problema considerado y porque es de tipo constructivo (no necesita una solución inicial). Es importante anotar que en esta investigación se pretende evaluar el efecto puro de la cooperación de los agentes (hormigas) que conforman una colonia para encontrar buenas soluciones. Es por ello que en

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

25


26

Sí se deben procesar 10 trabajos en 10 máquinas, el número máximo de soluciones esta acotado por 3.95 × 10 65. ¡Esta cifra es mucho más grande que la edad estimada del universo medida en milisegundos!

el algoritmo ACO diseñado no se consideran pasos de mejoramiento local para las soluciones creadas, como si se hace en otras investigaciones. Los procedimientos de mejoramiento local consisten en realizar modificaciones sobre las soluciones obtenidas, por lo tanto cuando se reporta una buena solución queda la duda si fue merito de la comunicación y cooperación entre las hormigas ó del procedimiento de mejoramiento local. Para la implementación de colonia de hormigas se adapto el algoritmo ACO general a la situación específica del problema de programación de la producción en talleres, se codificó en lenguaje de C de computador y con el programa obtenido se solucionaron problemas reportados en la literatura especializada para luego realizar las comparaciones con otros procedimientos; reglas de despacho, recocido simulado y búsqueda tabú disponibles en el software LISA.

2. EL PROBLEMA DE PROGRAMACIÓN DE PRODUCCIÓN EN TALLERES (JSSP) Un taller es un ambiente de producción en el que los trabajos deben ser procesados mediante múltiples operaciones que se realizan en diferentes máquinas. Cada trabajo para ser procesado, debe seguir un orden (ruta) a través de las máquinas. Si la ruta de todos los trabajos es la misma entonces se tiene un ambiente Flow Shop. Debido a que los talleres están diseñados para permitir la flexibilidad, en ellos usualmente se producen pequeñas cantidades de una gran variedad de artículos, incluyendo productos que son individualizados para cada cliente. Los bienes que son comúnmente elaborados utilizando un ambiente tipo taller incluyen partes de máquinas, muebles, químicos, semiconductores y productos farmacéuticos. En un problema de manufactura tipo taller de tamaño m × n, hay m máquinas y n trabajos. Cada trabajo tiene una secuencia de operaciones que indica el orden en que se procesan (la operación oij es la késima operación del trabajo j, y debe ser procesada en la máquina i), con un tiempo de proceso pij. Cada trabajo puede tener un tiempo de inicio rj antes del cual, ningún procesamiento del trabajo i puede llevarse a cabo y cada máquina puede tener un tiempo de alistamiento ui antes del cual no se puede realizar ninguna operación en ella. También existen un tiempo de entrega para cada trabajo, dj, y una medida de que tan importante es comparado con los otros, wj. Estos datos suelen ser de tipo entero. Además, cada máquina solo puede procesar una operación al mismo tiempo y solo una operación de cada trabajo puede ser procesada en cada máquina y sin permitir 26

Vol.14 No.1

Ingeniería

interrupciones. La solución se expresa mediante un programa que es la descripción de los tiempos en que deben ser procesadas cada una de las operaciones satisfaciendo las restricciones. En general, si se tienen m máquinas, n trabajos y cada uno requiere una operación en cada máquina, entonces existen n! formas diferentes de ordenar los trabajos en cada una de las máquinas, por lo tanto el número de máximo de soluciones posibles (si todas son factibles) esta dado por (n!)m. Por ejemplo, si se deben procesar 10 trabajos en 10 máquinas, el número máximo de soluciones esta acotado por 3.95 × 10 65, esta cifra es mucho más grande que la edad estimada del universo medida en milisegundos ó que el número de Avogadro. 2.1 Representación gráfica del problema. Una representación con grafos, G(N,A,B), como la mostrada en la figura 1 es útil para visualizar mejor el problema. En esté los nodos N representan las operaciones oij que se deben realizar sobre los n trabajos (una operación oij significa el proceso del trabajo j en la máquina i), los arcos continuos A representan las rutas que debe seguir cada trabajo y la longitud |(i,j) → (k,j)| = pij representa el tiempo de proceso de la operación (oij ).

Figura 1. Representación en grafo de un JSSP minimizando tardanza ponderada total en el caso de tres máquinas y tres trabajos [8].

B es el conjunto de arcos disyuntivos (punteados bidirigidos), que conectan las operaciones pertenecientes a diferentes trabajos pero se realizan en la misma máquina, formando un clíque. Del nodo U salen las primeras operaciones en la secuencia de cada uno de los n trabajos, cuyas operaciones finales concurren a los n nodos terminales Vj. La longitud de la ruta más larga desde el nodo U hasta el nodo terminal Vj representa el tiempo de terminación del trabajo j.

3. METODOLOGÍA Teniendo en cuenta las características del JSSP y de ACO se diseño un algoritmo, factores de visibilidad y se propusieron formas de inicialización y de construcción progresiva de soluciones, basándose en el principio que la solución óptima es un programa

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

26


27

activo. Para medir la eficiencia del algoritmo ACO propuesto, se buscaron en la literatura problemas empleados en estudios de comparación de los que se conoce la solución óptima [7]. Se seleccionaron el ABZ5, ABZ6, LA16 – LA20 y el MT10, todos disponibles en la OR–Library (http:// mscmga.ms.ic.ac.uk/info.html). En la determinación de los tiempos de entrega, dj, se utilizó la regla de trabajo total (TWK) según la cual dj = k Pj, siendo Pj la suma de los tiempos de proceso de las operaciones del trabajo j y k un parámetro. Se asignaron tiempos de entrega con k = 1.3 y con k = 1.5. También se generaron diez problemas de tamaño 5 × 5 y diez de 6 × 6, a los cuales por medio del programa LISA se les encontró la solución óptima aplicando procedimientos de ramificación y acotación. Tanto los problemas generados como los obtenidos de la literatura, se solucionaron por medio de reglas de las despacho; WSPT , EDD, SPT y LPT y de las metaheurísticas búsqueda tabú y recocido simulado del software LISA, luego se corrieron en el algoritmo ACO codificado en lenguaje de computador C utilizando un computador Athlon 900 MHz con 256 megas de memoria RAM. Los resultados obtenidos se tabularon para su posterior comparación y análisis. 3.1 Descripción del algoritmo ACO propuesto En el algoritmo ACO se crea una colonia de h hormigas que construyen secuencias activas de los n trabajos del problema en las m máquinas del mismo, obedeciendo ciertas reglas. Se indica un número máximo de iteraciones (tmáx ) y en cada iteración cada una de las h hormigas construye una solución activa factible. Finalmente se reporta la mejor secuencia de las h × tmáx construidas durante todo el proceso. Debido a la analogía en que se basa ACO, resulta conveniente visualizar el problema mediante la representación de la figura 1 ya que el algoritmo lo que hace es construir buenas rutas que conecten el nodo inicial con los nodos terminales. Con el fin de disminuir el número de búsquedas que realiza una hormiga en cada iteración, se crea un conjunto Ω [8]en el que se incluyen las operaciones que hacen que la secuencia que se construye sea activa y se escoge entre ellas de acuerdo con el rastro de feromonas Ωi,j y un factor de visibilidad fv. El factor que se utilizo en el presente trabajo esta definido por: f vi,j = rj + pi,j - dj

27

(1)

y con él se pretende ayudar en la elección del siguiente paso, dando prioridad a las operaciones que estén disponibles más rápido para ser programadas y que deben ser entregadas con mayor premura. Una hormiga escoge el nodo al que se va a ir, fijando el valor de un parámetro qo en el intervalo (0, 1), y

generando en cada iteración un número aleatorio q en el mismo intervalo. Si qo ≥q, la siguiente operación de la secuencia se escoge del conjunto Ω considerando la siguiente regla: (2) El subíndice l indica que la operación pertenece al conjunto Ω, mientras que α y β representan los exponentes del rastro de feromonas y del factor de visibilidad. Según las recomendaciones de la literatura [5] [6], estos exponentes toman valores entre 1 y 4. Si qo<q, entonces la siguiente operación en la secuencia se elige aleatoriamente del conjunto Ω. Para evitar caer en un óptimo local de forma prematura, se realiza una “evaporación” de feromonas mediante una disminución local del rastro τi,j dada por la Eq (3): (3) donde (4)

ρ l es una medida del nivel de disminución ó “evaporación” del rastro de feromona, τ i j( t ), y su valor esta entre 0 y 1. Finalmente se evalúan las h secuencias halladas durante la iteración y si el valor de la función objetivo en alguna de ellas es mejor que el que se tiene hasta el momento, entonces se realiza la actualización del mejor valor encontrado para la tardanza ponderada total y para la respectiva secuencia. Después de evaluadas todas las soluciones, se hace una actualización global de la intensidad de τ i j en la que se incrementa este nivel para cada par de operaciones ó nodos pertenecientes a la mejor secuencia de las h construidas durante la iteración. El incremento depende de la calidad de la solución y se realiza de acuerdo con la ecuación (5). (5) donde (6) La magnitud del incremento del rastro de feromonas esta dado por ρg , este parámetro toma valores en el intervalo (0,1). TPT* es el valor de la función objetivo correspondiente a la mejor secuencia de la iteración.

4. RESULTADOS Y DISCUSIÓN Se presentan los resultados obtenidos en cada una de las fases de la investigación. 4.1 Diseño de experimentos Para determinar los valores de parámetros exponente del rastro de feromona (α), exponente del factor de visibilidad (β), parámetro de evaporación

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

27


28

de feromona ( ρl ), parámetro de incremento de feromona ( ρg ) y el número aleatorio (q0 ), inicialmente se aplico el método del descenso más rápido [10], para ubicar la región donde se encuentra la respuesta óptima. El diseño escogido fue un factorial de dos niveles completo con dos replicas ya que es ortogonal y permite un buen ajuste de superficies de primer orden [11]. Para α y β el nivel bajo se fijo en 1 y el nivel alto en 2, mientras que para los restantes parámetros se fijaron 0.85 y 0.95 como niveles bajo y alto respectivamente. Con los datos obtenidos se realizo un análisis de regresión llegando a la siguiente superficie de respuesta lineal para la tardanza ponderada total TPT: TPT = 3191+119α-161β+1086ρl -956ρg +989q0 (7) Para verificar la validez del supuesto de linealidad de la superficie de respuesta, se realizó un análisis de varianza obteniéndose un valor p de 0.89, indicador de que la superficie lineal no es adecuada y por lo tanto no es correcto aplicar el método del descenso más pronunciado. Se procedió entonces a aplicar un diseño de experimentos simplex ya que permite acercase a la región del óptimo de manera eficiente, [12]. Cada combinación de parámetros se corrió cuatro veces. Para la aplicación se toma como valor del paso Δq0= 0.5. El simplex de partida esta formado por los 6 primeros puntos de la tabla 1. Los puntos que salieron son el 5, 2, 9 y 4 remplazados por 7, 8, 9 y 10. Tabla I. Puntos estudiados con el diseño simplex PUNTO α 1 1.50

β 1.50

ρ l 0.425

ρg 0.425

qo 0.50

TPT 4433

2 3 4

1.952 1.726 1.726

1.50 1.89 1.63

0.425 0.425 0.79

0.425 0.425 0.425

0.50 0.50 0.50

5297 4616 5011

5 6 7

1.726 1.726 1.726

1.63 1.63 1.63

0.517 0.782 0.517 0.496 0.5157 0.096

0.50 0.85 0.64

5364 4936 4663

8 9 10

1.6.36 1.682 0.649 1.599 1.70 0.60 1.548 1.73 0.25

0.287 0.167 0.13

0.696 4871 0.284 5421 0.54 4771

El valor de los parámetros se fijó de acuerdo al punto que obtuvo la mejor tardanza ponderada total (TPT) en promedio. En la figura 2 se ilustra la superficie de respuesta en la región de los exponentes α y β. 4.2 Resultados obtenidos con reglas de despacho Se emplearon las reglas de despacho longest procesing time (LPT), eaeliest due date (EDD), weigthted shortest procesing time (WSPT) y shortest 28

Vol.14 No.1

Ingeniería

procesing time (SPT). Los resultados son bastante altos y no resultan competitivos frente a los obtenidos por medio de las meta-heurísticas. En el mejor de los casos el alejamiento de la solución óptima supera el 20000%.

Figura 2. Superficie de respuesta (TPT) en función de los exponentes a (Alfa) y b (Beta).

Las mejores respuestas se obtuvieron el 65% de las veces al aplicar la regla WSPT, seguida del regla SPT con el 27 %. Esporádicamente alguna de las otras reglas reportaba mejores soluciones. Teniendo en cuenta los resultados no parece conveniente ubicar en las primeras posiciones de las secuencias las operaciones con tiempos de proceso grandes (por lo menos formar cadenas grandes siguiendo esta tendencia). Bajo esta observación se diseño el factor de visibilidad de las hormigas. 4.3 Comparación de ACO frente a búsqueda tabú y recocido simulado Las meta-heurísticas búsqueda tabú y recocido simulado utilizadas son las disponibles en el software LISA. Para cada una de ellas se crearon 5000 soluciones y el tiempo promedio de ejecución fue diez segundos. En cuanto a colonia de hormigas, para los problemas de 10×10 las corridas se hicieron con 15 iteraciones y 10 hormigas lo que da 150 soluciones creadas, el tiempo promedio de cada procedimiento fue 130 segundos. Para iniciar el procedimiento se empleo un tao inicial (τ0) de 0.001 y los valores de los parámetros son los que se determinaron mediante la optimización por diseño simplex (puntos 1 y 10 de la tabla 1). Para los problemas de 5 × 5 y 6 × 6 se emplearon 10 hormigas y se realizaron 50 iteraciones con lo que el tiempo de ejecución fue de dos minutos 20 segundos sin prácticamente ninguna variabilidad. La diferencia en el número de iteraciones esta claramente justificada por el consumo de tiempo computacional. Para analizar los resultados se elaboró un indicador llamado relación de calidad para las soluciones alcanzadas, el cual se define como la división entre el valor de la solución obtenida y el óptimo reportado. De esta forma, si un procedimiento permite encontrar la solución óptima el valor reportado del factor de calidad es 1. Si el valor óptimo reportado es 0 y la

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

28


29

solución obtenida con la meta-heurística es diferente, entonces se deja indicada la división. 4.3.1 Problemas de 5 × 5

De los resultados reportados en la tabla II se puede observar que la meta-heurística que reportó los mejores resultados es la búsqueda tabú (BT), encontró el óptimo el 90 % de las veces. La colonia de hormigas (ACO) acertó un 60% y recocido simulado (RS) el 50%. También es notorio que los peores resultados son los logrados con este último procedimiento, reportando la peor solución en la mitad de los problemas considerados. En tres ocasiones se presentan empates entre los tres procedimientos. Tabla II. Relación de calidad (valor solución / óptimo), problemas 5 × 5 PROBLEMA 1 2

ACO 1 1.05

BT 1 1

RS 1 1

3 4 5

1.46 1.17 1

1.11 1 1

2.10 1 653/0

6 7 8

1 1 33/0

1 1 1

1 2.82 160/0

9 10 % de óptimos

1 1 60

1 1 90

1 137/0 50

4.3.2 Problemas de 6 × 6

Las soluciones de más alta calidad siguen siendo las obtenidas con búsqueda tabú, aunque el porcentaje de óptimos hallados disminuyo a un 30%. Sin embargo en todas las ocasiones estuvo bastante cerca de alcanzar la solución óptima. Por otra parte, los resultados obtenidos con colonia de hormigas son claramente superiores a los del recocido simulado y competitivos con los obtenidos al aplicar la búsqueda tabú. Es notorio que con recocido simulado nunca se encontró la solución óptima. Los resultados se reportan en la tabla III. Tabla III. Relación de calidad (valor solución / óptimo), problemas 6 × 6

29

PROBLEMA

ACO

BT

RS

1 2 3

1.24 1.61 2.24

1.11 1.54 1.36

1.55 2.44 4.66

4 5 6

2.64 1 2.02

1.39 1 1.14

6.33 20/0 4.28

7 8 9

1.99 8.02 1

1.15 1.01 1

3.55 14.90 72/0

10 % de óptimos

323/0 20

1 30

2760/0 0

4.3.3 Problemas de 10 × 10

Al incrementar significativamente el tamaño de los problemas con ninguno de los procedimientos se logró obtener soluciones óptimas, pero los mejores resultados siguen siendo los obtenidos con búsqueda tabú. Cuando el factor k es 1.3, tabla IV, el recocido simulado (a diferencia de los problemas 5×5 y 6×6) muestra un mejor desempeño promedio que compite con el de colonia de hormigas. En el 50% de las veces, colonia de hormigas supera a recocido simulado y a su vez es superada en la restante mitad de los problemas analizados. Solamente en un problema la búsqueda tabú es superada por colonia de hormigas y recocido simulado. Tabla IV. Relación de calidad (valor solución / óptimo), problemas 10 × 10 con k = 1.3 PROBLEMA ABZ 5 ABZ 6

ACO 3.87 2.00

BT 1.76 1.90

RS 1.76 2.20

MT 10 LA 16 LA 17

6.39 5.05 6.40

3.11 1.52 3.28

5.56 2.95 5.42

LA 18 LA 19 LA 20

5.83 3.38 4.40

3.02 3.52 6.41

6.98 4.32 4.40

La tabla V muestra los resultados cuando el valor k se incrementa a 1.5. Con búsqueda tabú siguen reportándose los mejores valores de tardanza ponderada total. Es evidente que la calidad de las soluciones decreció y la colonia de hormigas y el recocido simulado no muestran diferencias significativas en cuanto a la proporción de veces que uno supera al otro. Tabla V. Relación de calidad (valor solución / óptimo), problemas 10 × 10 con k = 1.5 PROBLEMA

ACO

BT

RS

ABZ 5 ABZ 6 MT 10

34.8 4192/0 5.3

2.78 317/0 5.3

42.2 2878/0 7.1

LA 16 LA 17 LA 18

27.5 13.3 98.4

10.7 6.46 77.8

20.8 9.1 38.5

LA 19 LA 20

134 4141/0

58.1 3354

261 4885

5. CONCLUSIONES Para problemas de tamaño 5×5 y 6×6 la metaheurística colonia de hormigas reporta resultados competitivos frente a la de búsqueda tabú, la cual a su vez es la mejor de las analizadas. Como era de esperarse con el tamaño aumenta la dificultad del problema, en los problemas de 5×5 se

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

29


30

logra encontrar el óptimo el 60% y 90% de las veces con colonia de hormigas y búsqueda tabú respectivamente. En los problemas de tamaño 6×6 esta proporción disminuye para las mismas metaheurísticas a 20 % y 30% y en los de 10×10 nunca se encuentra la solución óptima. Al aumentar el valor del factor k empleado para la generación de los tiempos de entrega, se vuelve más difícil encontrar la solución óptima. Esto se evidencia observando el factor de calidad (a menor valor mejor solución) el cual es mayor para problemas generados con k = 1.5 que para los generados con k = 1.3. Para los problemas de tamaño cinco y seis, colonia de hormigas proporciona soluciones de prácticamente la misma calidad que búsqueda tabú y es superior al recocido simulado. Para problemas grandes el algoritmo de colonia de hormigas sin incluir pasos de mejoramiento local para las soluciones obtenidas, no resulta competitivo frente a la búsqueda tabú si se consideran a la vez el tiempo de ejecución y la calidad de las soluciones. Los resultados obtenidos por colonia de hormigas son alentadores y estimulan nuevas investigaciones, dado que con solo 150 soluciones generadas es competitiva frente a la búsqueda tabú (en problemas pequeños) y superior a recocido simulado, considerando que en estas dos últimas se prueban de a 5000 soluciones. El efecto cooperativo de la colonia de hormigas no es suficiente para construir buenas soluciones, por ello se espera que al incluir pasos de mejoramiento local para las soluciones, la calidad de las soluciones se incremente de forma significativa.

6. REFERENCIAS BIBLIOGRAFÍCAS [1] Lenstra Jk, Rinnoy Kan AHG, Bruckner P. Complexity of machine scheduling problems. In: Hammer PL, Johnson EL, Korte BH, nemhauser GL (eds) Studies in Integer Programming, Annals of Discrete Mathematics 1. North- Holland, Amsterdam, 1997, pp 343- 362. [2] Graham, R. ; Lawlwer, E :L ; Lenstra, J.K ; Rinnoy Kan A.H.G. Optimization and approximation in deterministic sequencing and scheduling ; A survey, Annals of Discrete Mathematics 5, 1979, pp 287 – 326. [3] Dorigo M. Optimization, Learning and Natural Algorithms (in Italian). PhD thesis, Dipartimento di Elettronica e Informazione, Politecnico di Milano, IT, 1992. [4] Gambardella L.M. and Dorigo M. Ant colonies for the traveling salesman problem. BioSystems, 43, 1997, pp. 73-81.

[5] Deneubourg Jl, PasteelsJm and Verhaeghe JC. Probabilistic behavior in ants: a strategy of errors? J Theor Biol 105, 1983, pp. 259-271. [6] Bauer A., Bullnheimer B., Hartl F. and Strauss C. Minimizing total tardiness on a single machine using Ant Colony Optimization. Cejor 8, 2000, pp. 125-141. [7] Gagne C., Gravel M & Pric W I. Comparing an ACO algorithm whit other heuristics for the single machine scheduling problem with sequence dependent setup times. Journal of the Operational Research Society. 53, 2002, pp. 895 – 906 [8] Pinedo M. & X.Chao. Operations Scheduling With Applications in Manufacturing And Service. Boston: Irwin/McGraw-Hill, 1999. [9] Pinedo,M. & Singer, M. A shifting bottleneck heuristic for minimizing the total weighted tardiness in a job shop., Naval Research Logistics; 46, 1999, pp.1–17. [8] Bauer A., Bullnheimer B., Hartl F. and Strauss C. Minimizing total tardiness on a single machine using Ant Colony Optimization. Cejor 8, 2000, pp. 125-141. [9] Gagne C., Gravel M & Pric W I. Comparing an ACO algorithm whit other heuristics for the single machine scheduling problem with sequence dependent setup times. Journal of the Operational Research Society. 53, 2002, pp. 895 – 906 [10] Montgomery D. C. (1997). Design and Analisis of Experiments, United States. Jhon Wiley & Sons. [11] Cox G M and Cocharan W. Diseños experimentales. Jhon Wiley & Sons, 1965. [12] Villaveces J. La optimización de procesos con ayuda del simplex. Química e Industria 13, 1987, pp. 2-14.

Oscar Yecid Buitrago Suescún Ingeniero Químico de la Universidad Nacional de Colombia, sede Bogotá. Magíster en Ingeniería Industrial en la Universidad de los Andes. Se desempeñó como profesor en la Universidad de Boyacá durante 3 años, donde ganó el premio al Merito Investigativo. Actualmente se desempeña como profesor en el área de Investigación de Operaciones y Producción en la Universidad Central de Bogotá y pertenece como investigador al grupo CIPO. obuitragos@ucentral.edu.co

Rodrigo Alberto Britto Agudelo Ingeniero Químico de la Universidad Nacional de Colombia, sede Bogotá. Magíster en Ingeniería Industrial en la Universidad de los Andes. Se desempeñó como profesor de la Facultad de Administración de Empresas de la Universidad de los Andes (a la cual esta vinculado). Actualmente adelanta estudios de Doctorado en Logística en la Universidad de Maryland en los Estados Unidos. robritt@uniandes.edu.co

Gonzalo Mejia Delgadillo Ingeniero Mecánico de la Universidad de los Andes. Magíster en Ingeniería Mecánica en la Universidad de los Andes. PhD en Ingeniera Industrial en la Universidad Lehigh de Pensilvania, Estados Unidos. Actualmente se desempeña como profesor Asistente del Departamento de Ingeniería Industrial de la Universidad de los Andes en el área de Producción y pertenece como investigador al grupo PYLO donde realiza investigaciones sobre Producción y Logística gmejia@uniandes.edu.co

30

30

Vol.14 No.1

Ingeniería

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


31

Principios para la Formalización de la Ingeniería de Software Sandro Javier Bolaños Castro 1 Víctor Hugo Medina García 2 Luis Joyanes Aguilar 3

Resumen En este artículo se presenta una propuesta para una ingeniería de software basada en la premisa de establecer un conjunto de principios necesarios para formalizar un cuerpo de conocimiento guiado no solo por actividades de trabajo, métodos y técnicas sino también fortalecida por propiedades que en efecto puedan ser utilizadas y aplicadas sin que haya discriminación en el tipo de proyecto que se realice. Palabras clave: Ingeniería de Software, Proyecto, Principios, Formalización.

Principles for the Formalization of Software Engineering Abstract In this article a proposal is presented for a software engineering based on the premise of establishing a necessary set of principles to formalize a body of knowledge guided not alone for work activities, methods and technical but also strengthened by properties that indeed can be used and applied without there is discrimination in the project type that it is carried out. Keywords: Software engineering, Project, Principles, Formalization.

1. INTRODUCCIÓN

1y2

Profesores Facultad de Ingeniería de la Universidad Distrital Francisco José de Caldas. Bogotá, Colombia. Miembros del grupo de Investigación GICOGE.

3

Profesor Facultad de Informática de la Universidad Pontificia de Salamanca campus de Madrid - España. Director del grupo de investigación: Ingeniería del Software y Sociedad de la Información y el Conocimiento, Universidad Pontificia de Salamanca.

31 Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

Los procesos de software, que se constituyen como una de las principales herramientas para hacer ingeniería de software, deben plantear el desarrollo como un proceso guiado no solo por un conjunto de actividades de proceso, sino que además deben apoyarse en un cuerpo teórico de principios y leyes que permitan articular las tareas de manera formal y controlada. Este planteamiento releva el individuo sin descuidar la organización y la naturaleza singular del producto. La responsabilidad de los flujos de trabajo y actividades no solo debe estar en suministrar un método de desarrollo, aún más importante es establecer criterios formales del manejo de la complejidad, incertidumbre, corroboración, singularidad y la rastreabilidad del conocimiento que constituye el insumo fundamental en el proceso. La propuesta que se presenta pretende impactar las formas convencionales de desarrollar software y

con ello replantear los enfoques clásicos que en cuanto a procesos se hacen en ingeniería de software. Esto traería consecuencias favorables como la disminución de fracasos en desarrollo, el manejo del software como conocimiento, fortalecimiento del cuerpo de conocimiento de la ingeniería de software, tratamiento del problema a diferentes niveles de la organización, integración de disciplinas, vista holística de los problemas de desarrollo, desarrollo de productos de calidad, entre otras.

2. EL MÉTODO COMO INSTRUMENTO FUNDAMENTAL EN INGENIERÍA DE SOFTWARE Las metodologías y procesos de desarrollo de software, han suplido por un espacio de tiempo importante las necesidades de abordar problemas de desarrollo de productos informáticos, sin embargo existe gran evidencia, que no han sido suficientes para dar soluciones satisfactorias a la gran diversidad y complejidad de los retos que se plantean en la disciplina. Existe una lucha fuerte de propuestas que pasan desde el formalismo y dogmatismo como los casos de CMMI, PSP y TSP, entre otros; hasta las propuestas ágiles y pragmáticas como Scrum [1], XP [2], Cristal [3], Evo [6], ASD [7], DRA [13], entre otros. Cada estilo de proceso o metodología reclama para si la supremacía y la verdad en cuanto a desarrollo se refiere. Lo cierto es que no hay un santo grial de proceso y parecería incluso que el problema no esta en las actividades que se desarrollen sino en un faltante que no se encuentra en el proceso en si, quizá cuando Karl R. Popper afirma: “Por regla general, empiezo mis clases sobre el método científico diciendo a mis alumnos que el método científico no existe… Solo hay problemas y el impulso de resolverlos…” [12]. Se nos esta planteando un importante cuestionamiento en la misma utilización de los procesos y metodologías. Sin bien es cierto, los procesos y más específicamente las actividades de proceso configuran un cuerpo disciplinar fundamental para resolver los problemas en esta área, también es cierto que esta disciplina en particular adolece de un componente científico de facto que le permita explorar de manera formal y con experimentación directa los fenómenos que se presentan en ella. Mientras el método científico en la mayoría disciplinas es de uso directo en ingeniera de software no es tan evidente, al fin de al cabo el

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

31


32

método científico permite seguir una rutina basada en fenómenos evidenciables y perceptibles de forma natural, en tanto que la disciplina del software es eminentemente artificial.

3. PRINCIPIOS PARA INGENIERÍA DE SOFTWARE Los procesos de desarrollo de software definitivamente no se pueden dejar de lado, en lugar de ello se deben fortalecer, es decir se debe armar un cuerpo disciplinar soportado en conjunto de principios, que permitan ajustar los problemas de manera formal, sin ambigüedades, dejando de lado la especulación y las prácticas ad hoc. Los defectos más comunes de los procesos están en considerar una serie de prácticas que funcionaron en determinadas situaciones. Pero no pasan de ser prácticas, que tarde o temprano no tendrán sentido en escenarios diferentes. Las tendencias sobre todo de los métodos heterodoxos están muy ligadas a la importancia que se da a las personas, el mismo manifiesto ágil propone: “Los individuos y la interacción por encima de los procesos y herramientas”. Y no es que las personas no sean importantes en la búsqueda del conocimiento, lo que es un punto débil es que el método de llegar al conocimiento dependa de la persona, la disciplina por si sola debe brindar los mecanismos formales que permitan seguir la senda al conocimiento, en este caso la senda al desarrollo. En otros palabras los fenómenos suceden para su naturaleza intrínseca y no por al interpretación de subjetiva de las personas que lo experimentan. Apuntando en la dirección de dar una directriz a la disciplina de software se formulan cinco principios fundamentales que restringen de manera formal el que hacer en esta área del conocimiento, así: Balance de la incertidumbre

Singularidad

Principios para la formalización de la Ingeniería de Software

Corroboración

Rastreabilidad

Complejidad controlable

Figura 1. Principios para la formalización de la Ingeniería de Software. Fuente: Los autores.

3.1 Balance de la Incertidumbre El desarrollo de software es un ejercicio creativo en el que se parte de un dominio del problema con gran incertidumbre para llegar a un dominio de la solución 32

Vol.14 No.1

Ingeniería

con gran certidumbre. En el dominio del problema hay más preguntas que respuestas, mientras en el dominio de la solución hay más respuesta que preguntas, por lo menos con respecto al problema resuelto. En este orden de ideas es de suponer que el ejercicio de desarrollar software esta en ir eliminando paulatinamente la incertidumbre para acercarse a la certidumbre permitida que nos de la solución. En este camino es de esperarse que se busquen mecanismos que faciliten el entendimiento del problema. Aparecen dos constantes importantes las preguntas y las repuestas. Por un lado las preguntas se originan de las posibilidades que puede tomar un problema mientras las respuestas se originan de las soluciones que se pueden adoptar ante un problema. Las preguntas son necesarias y pertinentes para resolver un problema, de no ser así tendríamos un problema predecible en donde no hay mas posibilidades que la obtenida en un primer razonamiento. Por ejemplo, un algoritmo generalmente esta dotado de preguntas pues es implícito en el las posibilidades o decisiones que se pueden adoptar ante un problema. El problema no radica en eliminar las preguntas, aunque sería bastante provechoso, sino más bien ante la inminencia de estas, realizar las mejores preguntas y que apunten a los orígenes del problema, cuyas soluciones necesariamente redunden en la solución del problema. Como premisa fundamental de las preguntas se podría plantear: Todo problema por la inminencia de la incertidumbre produce preguntas. • Si hay ausencia de preguntas por la naturaleza particular del problema, se tiene entonces un estado de certeza. Por su parte las respuestas son el resultado de las preguntas o de los estados de certeza de un problema. Estas deben ofrecer la solución a un problema. Desde otro punto de vista Se podría plantear que un problema se evidencia a través de las preguntas; mientras la solución se evidencia a través de las respuestas. Bajo esta consideración es de esperarse entonces que necesariamente, o por lo menos en su gran mayoría se produzca la dupla pregunta-respuesta. Desde un planteamiento deductivo podría pensarse en un marco de trabajo en donde no se vean problemas sino simplemente soluciones por tanto se eliminaría el complejo mundo de las preguntas, sin embargo este mecanismo es mucho mas complejo aunque no lejano del software. •

Las respuestas están en el lado de la solución pero son originadas por preguntas o son en esencia un estado de verdad transitorio para un problema. En este orden de ideas se podrían plantear en la siguiente premisa: •

Toda respuesta o proviene de una pregunta o de un estado transitorio de verdad.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

32


33

El desarrollo de un problema basado en un esquema lógico de programación sugiere que se realicen preguntas y respuestas, las cuales posibilitan que la transición de estados contenga la lógica necesaria para mostrar una solución. Ante estas evidencias vale la pena cuestionarse sobre la correlación que deben tener las preguntas y las repuestas, y producto de esta correlación podrían originarse los siguientes planteamientos: 1) ¿Una pregunta debería originar una sola respuesta? 2) ¿Una pregunta debería originar varias respuestas? 3) ¿Varias preguntas deberían originar una sola respuesta? Si se evalúa el segundo planteamiento se podría pensar en que el problema expresado en una única pregunta es resuelto a través de varios repuestas de las cuales alguna de ellas satisfacería la pregunta o simplemente de manera oculta de lo que se dispone como aparentes respuesta es de un protocolo en el que todas las aparentes repuestas hacen parte de un misma solución. En el primer caso el problema puede ser resulto con una de las respuestas en el segundo con la suma de todas las respuesta. En el tercer planteamiento se estaría ante una situación en la que se podría pensar en una respuesta inteligente capaz de proveer la solución a varios cuestionamientos, o simplemente se estaría ante la evidencia de la redundancia de preguntas que conduce a la misma repuesta. En el primer caso en el que la respuesta es una conclusión inteligente que resuelve varios cuestionamientos se esta ante un abstracción fuerte del problema en el que se debería descartar la redundancia, es de manejo cuidadoso pues las posibles combinaciones lógicas de las preguntas pueden apuntar a soluciones diversas que no se han visto con facilidad, cabe preguntarse además del espectro de las preguntas que se solucionan con una única respuestas, cual es su complemento pues en el puede haber elementos ocultos de la solución del problema. Por otro lado puede existir redundancia de preguntas y ante lo que parecen varios cuestionamientos puede resultar más bien malos planteamientos. El segundo y tercer planteamiento apuntan a un reflexión importante, ¿están en la muchas preguntas o muchas respuestas reflejado verdaderamente un problema de redundancia que debería ser normalizado para logran un balance en el que las preguntas podrían corresponder uno a uno con las respuestas? Y no es porque se trate de eliminar la riqueza de la pregunta o de la respuesta; más bien de lo que se trata es de converger los cuestionamientos y las soluciones. Esto trae ventajas en el manejo de la situación problemica. Pensemos en algunos ejemplos: 33

1) a.¿Qué número resulta de 10/2? b. ¿Cuál es el numero de dedos de una mano?

Las anteriores preguntas motivan una respuesta el número 5. Esta redundancia de preguntas podría centralizarse en una sola preguntas similar a: ¿Cual es la mitad de los dedos de la mano? dentro de la cual se expresa las preguntas a y b. 2) ¿Cuál es el conjunto de 5 números naturales? respuesta que origina un conjunto infinito. Podría normalizarse a al conjunto {1, 2, 3, 4, 5}. En las dos consideraciones anteriores se puede ver el concepto pregunta respuesta, además como se puede generar la normalización de la repuesta o la pregunta; esta normalización que produce asignación uno a uno de preguntas y respuestas es lo que se denomina equilibrio del balance de la incertidumbre. Una buena forma de seguir el progreso del desarrollo de software es la de estimar el balance este puede ser de tres formas, tal y como se ilustra en la Fig. 2. El primer tipo de 1! balance, aquel en el cual pesan más las a. 3? preguntas que las b. repuestas, este tipo de 1? 1! balance es de alta c. incertidumbre, existen 1? más preguntas que respuesta y puede 3! desencadenar difícil Figura 2. Balance de Incertidumbre. manejo en los Fuente: Los autores. desarrollos. El tipo de balance en donde las preguntas coinciden con las repuestas es el tipo de balance equilibrado el cual es el más aconsejado como medio de atacar la incertidumbre, pues cada interrogante tiene su solución. El tercer tipo de balance en el que es de mayor peso las repuestas que las preguntas, generalmente obedece a un conjunto de respuestas que hacen parte de protocolos o de respuestas múltiples. El mejor balance es el equilibrado pues se tiene una correspondencia uno a uno del problema y la solución. Para lograr balancear equilibradamente el software es necesario eliminar la redundancia en las preguntas o en las respuestas con nuevas preguntas o nuevas respuestas mejor establecidas. 3.2 Singularidad El debate sobre las metodologías y procesos de desarrollo puede tener tanto de ancho como de profundo, quizá el problema en si no lo constituya el proceso sino el producto. Querer desarrollar un producto de software por medio de un proceso atado a ideas convencionales puede ser la fuente del problema. El software es un producto con propiedades Figura 3. Software como producto. Fuente: Los autores. particulares (ver Fig.3).

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

33


34

• No es perceptible a los sentidos: es decir no se puede oler, degustar, tocar ver u oír, es una representación que existe en otros medios de almacenamiento y reproducción. • Vive en el mundo binario y no se ajusta en su naturaleza misma a leyes fácticas. • Es replicable fácilmente por tanto es fácil de reproducir. • No se degrada aunque si se pueda desactualizar. • Puede ser integrado y crear complejidades mayores. • Es consecuencia de la lógica y el raciocinio. Al ser el software imperceptible a los sentidos se pierde el poder de experimentación que podría realizarse directamente sobre él, por lo menos la experimentación convencional apoyada en las ciencias fácticas. El software entra mas en la categoría de un ente formal producto de nuestro pensamiento y por ende obedece a él. Como su nicho es la representación binaria no se puede controlar con un ciencia fáctica por tanto sigue mas en el terreno de lo formal. Se puede replicar fácilmente por tanto su producción es una sola vez. Como no se degrada, su ciclo de vida depende de la vigencia que pueda tener. Al ser integrado para crear complejidades mayores es escalable. Como es consecuencia de la lógica y el raciocinio depende del desarrollo paradigmático con el que se cuente. Estas características pueden ser benéficas o no si se compara con un producto convencional. Por ejemplo un producto que se puede manipular con los sentidos es predecible y manejable a través de disciplinas fácticas como la biología, química, y la física, sobre el software no se puede hacer un experimento directo que se ajuste a la ciencias básicas por tanto se pierde la fortaleza que esa experimentación puede dar, se debe entonces formular un ente formal que sea la representación del software y sobre el deducir comportamientos y leyes. Por su puesto esto es una tarea que reúne una gran complejidad. El que el software viva en el mundo binario tiene sus pros y contras, el espacio de problema por lo menos se sabe es restringido a este dominio pero quizá lo poco o mucho que hay al respecto parece no ser suficiente para controlarlo. El que sobre el software se haga replica con facilidad es una ventaja con respecto a un producto convencional, mientras el fabricar un producto convencional requiere de un complejo logístico que se debe utilizar una y otra vez; con el software no sucede, tan solo es necesario que se produzca una vez, pues después se replica con medios de reproducción de la lógica implantada. Al no degradarse el software no se le puede hacer un conteo de depreciación como sucede con un producto convencional esto es una gran ventaja pues este efecto negativo se puede evitar, el concepto mas parecido es el de desactualización que por su puesto sucede con cualquier otro producto. El que posibilite la integración para crear complejidades mayores permite un doble 34

Vol.14 No.1

Ingeniería

uso del software; uno como la unidad funcional para la que fue creado y otro como un unidad componente de un sistema mayor, propiedad poco común en otros productos. Al ser este, producto del raciocinio y la lógica también es posible pensarlo como el producto de la creatividad y la innovación características que lo hacen relevante frente a otros productos. Infortunadamente el software no se puede oler, ver, tocar o saborear convencionalmente pero si se le pueden asociar propiedades similares, esto a través de sus modelos en diseño e implementación, no es fácil pensar en medir un programa de hecho la misma medida resulta ser bastante relativa, aunque se puede asociarle al software el peso, como el número de bytes que contenga, lo que generalmente se conoce como el tamaño, este no necesariamente es un índice de calidad, tan solo es un índice de almacenamiento. La física, la biología y la química como disciplinas fácticas no pueden ser asociadas al software como convencionalmente se hace con otras disciplinas de ingeniería, lo más cercano son las ciencias formales: matemáticas, y sobre todo la lógica (ver Fig. 4).

Figura 4. Cercanía de las ciencias fácticas y formales. Fuente: Los autores.

3.3 Complejidad Controlable Desarrollar software implica un grado de complejidad considerable que se encuentra presente en todas y cada una de las actividades de proceso que se realicen para alcanzar este objetivo. Esta complejidad puede ser vista así: CTP ≥ Σ CAPi La complejidad del proceso CTP, es mayor o por lo menos igual a la sumatoria de las complejidades de las actividades de proceso i, CPAi. Es de esperar este razonamiento si se tiene en cuenta que la suma de las partes es mayor u igual al todo. Teniendo en cuenta todas y cada una de las actividades principales del proceso la complejidad puede ser vista como: Σ CAPi = Cingdereq + Cdiseño + Cimplementacion + Cprueba + Cmantenimiento Las complejidades de requerimientos, diseño, implementación, prueba y mantenimiento se pueden ver como: Cingdereq ≥ Ccomunicacion + Crepresentacion

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

34


35

Cdiseño ≥ Carquitectura + Cdiseñodebajonivel Cimplementacion ≥ Clenguaje + Cparadigma + Calgoritmo Cprueba ≥ CelabDeExperimentos + CaplicDeExperimentos Cmantenimiento ≥ Cestabilizacion + Cmejoramiento Los retos fundamentales de la complejidad de realizar la ingeniería de requerimientos están centrados en la comunicación y la representación. Por un lado la comunicación implica un proceso complejo de interacción de seres humanos y sistemas. No se pueden asumir que la obtención de requerimientos se reduce a la aplicación de métodos convencionales como: encuestas, entrevistas, cuestionarios, entre otras técnicas comunes. Los intereses y demás fenómenos que se producen por la relación que entablan las personas en la constitución de sistemas son de una índole amplia por involucrar personas y sistemas artificiales; que se han resumido en una vista parcializada desde la perspectiva de la ingeniería, sin abordar el problema desde la dimensión humana que resulta siendo en últimas la mas importante. Los sistemas que se desarrollen son para y por las personas, en esta dimensión un problema debería abordarse en un amplio espectro que involucre una elaborada sinergia de las disciplinas humanas y de ingeniería. Cuando se ha resuelto el problema de comunicación es necesario resolver el otro problema fundamental, el cual se encuentra en la necesidad de la representación. A pesar de tener frameworks y métodos de análisis y modelado de requerimientos, como por ejemplo los casos de uso [8], las historias de usuario [2], entre otras. Seria optimista pensar que estas herramientas son suficientes para resolver el problema de representación. La representación exige que sea fiel a lo representado y que a su vez sea simple. Sumar simultáneamente estas dos características no es sencillo, si se tiene en cuenta que un modelo fiel a lo planteado involucra complejidad y por el contrario un modelo simple termina siendo incompleto. Parece que las dos propiedades necesarias de representación entran en conflicto. Queda aquí un reto importante de revisar, que una vez resuelto puede llevarnos a un gran avance en ingeniería de requerimientos. Por su lado el diseño tiene una complejidad en la arquitectura y el detalle. La arquitectura como disciplina emergente tiene sus propios retos, pero quizá se deba prestar atención a la necesidad de contar con modelos estandarizados que sirvan como mapas de navegación, al respecto hay importantes aportes, Shaw y Garlan [14] apunta a una clasificación de alto nivel de posibles modelos arquitectónicos, el trabajo de la pandilla de los cuatro GoF [5], es otra importante aproximación al problema. Los lenguajes MIL y ADL1 también son un importante esfuerzo al respecto incluso UML 2.0

[8] se ha preocupado por dar soporte al problema Últimamente MDA [9] y el estándar MOF 2 . Afortunadamente se es conciente de la necesidad de aproximar el modelo expresado en lenguajes arquitectónicos a los modelos expresados en lenguajes de programación. Gran parte de la confianza en hacer arquitectura se centra precisamente reducir la distancia que tiene el modelo del diseño y el modelo de la implementación. Como en la práctica los modelos de la implementación son los funcionales, le reducen gran impacto a los modelos arquitectónicos. Podría plantearse entonces el por qué mejor no evitarlos, si terminan distando de los modelo que realmente funcionan. Infortunadamente los modelos de implementación requieren detalles en los cuales es peligroso entrar en fases tempranas del desarrollo. La complejidad de la implementación tiene su fuente en los leguajes de programación los paradigmas y los algoritmos. Si todo fuera tan sencillo como antes de la torre de babel, sin embargo la diversidad de lenguajes de programación y plataformas de desarrollo al contrario de hacerle un bien a la disciplina, produce problemas como la portabilidad la incompatibilidad entre otras. Un lenguaje es complejo desde la misma sintaxis, pasando por los mecanismos de gestión de memoria hasta la interpretación de los paradigmas. Los paradigmas de desarrollo similarmente a lo planteado por Tomas Kuhn [10], recurre a un conjunto de teorías, métodos y prácticas para la representación de un problema en términos de un lenguaje de alto nivel. A pesar de contar con nivel importante de abstracción los lenguajes aun distan de parecerse al lenguaje natural, el camino recorrido desde la expresión del sistema computacional al lenguaje natural, aun se encuentra corto. De ahí la necesidad de otros mecanismos y niveles de abstracción. Finalmente los algoritmos introducen su propia complejidad, al respecto hay importantes estudios sin embargo esto generalmente apuntan en una dirección, el rendimiento que pueden producir, abandonando otras perspectivas como la facilidad de mantenimiento, escalamiento, portabilidad entre otras propiedades. La prueba es una actividad de proceso que consume gran parte de los recursos del desarrollo, incluso invirtiendo grandes recursos es imposible realizar todo el conjunto de pruebas posible [11]. Hay un importante trabajo al respecto, pero gran parte del esfuerzo termina siendo labor personal, evidencia de que la disciplina de pruebas se debe formalizar no solo en su aplicación sino que además debe fortalecer su cuerpo de conocimiento. Lo que debería fortalecerse para mejorar esta actividad de proceso, es la planificación disciplinada del diseño de experimentos, teniendo en cuenta que la prueba se puede establecer como un experimento. Los

35 1

Lenguajes de interconexión modular y lenguajes de descripción arquitectónica [13].

2

MOF meta-object facility, http://www.omg.org/technology/documents/formal/mof.htm

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

35


36

experimentaos configuran un conjunto de pruebas con el objetivo de generar datos, que al ser analizados estadísticamente, proporcionan evidencias objetivas que permitan resolver los interrogantes planteados por el experimentador, sobre determinada situación [4]. El diseño de experimentos permite la introducción de la estadística con la cual es posible formalizar la prueba, el uso de un estadístico genera un nivel de confianza elevado a una disciplina que aun tiene muchos elementos de subjetividad. Una vez se haya diseñado el experimento es necesario aplicarlo, esto puede ser tan complejo como el mismo diseño, pero es en últimas la aplicación la que resulta trascendente, pues es con ella que se pone a prueba las hipótesis que se formulan. Las pruebas de software tienen un gran ingrediente científico en el diseño de experimentos, se debe aprovechar esta fortaleza para estabilizar una disciplina que resulta siendo más compleja en muchas ocasiones que el mismo desarrollo. Por otro lado el mantenimiento introduce dos tramos de complejidad, la complejidad ocasionada por el mejoramiento que el software sufre, y la estabilización producto de los posibles cambios que se den con el mejoramiento. Al software le es inherente el mejoramiento continuo, característica que es propuesta en varios modelos de proceso, incluso es la principal característica de propuestas como la de CMMI. El mejorar el software es equivalente al mejoramiento progresivo de los modelo propios del software sean estos de análisis, diseño o implementación. Las dimensiones del mantenimiento deben verse de manera más amplia a lo que clásicamente se trata, y debe ayudar al perfeccionamiento y la fiabilidad misma de ese perfeccionamiento. 3.4 Corroboración La corroboración, es la propiedad asociada a la capacidad de aprobación de los diferentes modelos del proceso de desarrollo. La corroboración es un concepto ampliado de prueba, necesario precisamente para obtener confianza en los modelos que se realizan a lo largo del proceso de desarrollo. Gran parte de la problemática ocasionada por la poca fiabilidad de una Figura 5. Modelo de Corroboración. Fuente: Los autores. implementación es producida por la sobrecarga que tiene el modelo de implementación “código en un lenguaje de programación”, esta carga es la carga de defectos altamente probables de los modelos anteriores a la implementación Figura 6. Rastreabilidad. y que no so corregidos al Fuente: Los autores. momento de implementar. 36

Vol.14 No.1

Ingeniería

Un modelo de análisis arroja errores de análisis, un modelo de diseño y arquitectura arroja errores propios del diseño y arquitectura, estos errores no se perciben hasta que se plantea el modelo de implementación que es sobre el que concretamente se puede probar. El efecto colateral que produce la corroboración es la fuerte necesidad de aprobar cada uno de los artefactos del desarrollo. Como evidentemente esta tarea no es tan común en modelos de análisis y diseño, parece extraña incluso imposible. Pero gran parte del esfuerzo podría centrase en logara tener lenguajes para cada uno de esto modelos, remplazando las técnicas que son poco formales. Los lenguajes son mas predecibles y parametrizados, por su puesto no es tarea fácil, pero indudablemente es una necesidad. Incluso el que se desarrollen lenguajes para otros modelos diferentes a los de implementación, posibilitaría abordar el problema de trazabilidad y alejarnos más de los detalles engorrosos de los lenguajes de programación. Un modelo de corroboración puede verse como en la Fig. 5. En el modelo de corroboración se identifican dos entradas por un lado el conocimiento y por otro lado las actividades de proceso: ingeniería de requerimientos, diseño de software, construcción de software, pruebas de software y mantenimiento de software. El procesamiento de estas entradas en una maquina de falseabilidad, arroja una salida estimada como el conocimiento validado. La primera entrada referida al conocimiento se constituye como el conjunto de técnicas, métodos y prácticas necesarias para la corroboración, por otro lado cada una de las actividades de proceso produce artefactos, los que a su vez deben ser seguibles a través de modelos y ojala lenguajes propios. La combinación del conocimiento necesario pera la actividades de procesos entran en una maquina de falseación, cuyo objetivo fundamental es poner a prueba las hipótesis que se formulen de la entradas, tratando de demostrar que no es correcta, después del procesos de falseación se produce una clase de conocimiento que se considera validado, ya sea que en este sea pudo falsear o acertar. La misma prueba puede ser falseada, sentido en el cual la corroboración puede ser considerada incluso como una metaprueba. 3.5 Rastreabilidad La rastreabilidad es otra propiedad que se debe conseguir en un software, esta podría confundirse con la trazabilidad pero al igual de la corroboración y prueba, la rastreabilidad y trazabilidad tienen una correspondencia similar. La rastreabilidad involucra un camino doble de construcción y de construcción de un concepto. Mientras en la construcción de un concepto se involucran un conocimiento ordenado y disciplinado ascendente, en la deconstrucción se involucra una revisión del conocimiento con la

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

36


37

posibilidad de seguir ese conocimiento de manera no solo sencilla sino constructiva de nuevo conocimiento (ver Fig. 6). Los procesos de la rastreabilidad, construcción y deconstrucción permiten la elaboración de conocimiento en ambas direcciones, ya sea de la ida hacia el producto o tomando el mismo producto hasta reconstruir la idea que lo origino. En estos dos caminos es posible no solo hacer seguimiento sino construcción de conocimiento. La rastreabilidad permite fortalecer disciplinas como la ingeniería inversa. El proceso de rastreabilidad visto desde otra perspectiva facilita la sinergia de las actividades de proceso las cuales no necesariamente deben ser lineales. Similarmente a seguir migas de pan, para adentrarse al bosque y poder salir sin perderse “Hansel y Gretel” la rastreabilidad permite sumergirse en el desarrollo construyendo conocimiento y regresar deconstruyendo, con la ganancia adicional de evolucionar en la concepción del producto.

CONCLUSIONES La ingeniería de software como área disciplinar, aún tiene muchos vacíos en el cual se pueden hacer importantes aportaciones, evidencia de esos vacíos, es la estadística poco disminuida de fracasos que aún se tiene. Los problemas en ingeniería de software están estrechamente asociados a la falta de un cuerpo de conocimiento más amplio. Es optimista creer que tan solo con el uso de los procesos se puedan obtener productos de calidad, es necesario además constituir un conjunto de principios que formalicen el desarrollo mismo y deje de ser una disciplina que descargue gran parte de la responsabilidad en las técnicas y habilidades personales.

[2] Beck Kent. Extreme Programming Explained: Embrace Change. Reading, Addison Wesley. 1999. [3] Cockburn Alistair. “Crystal Clear. A human-powered methodology for small teams, including The Seven Properties of Effective Software Projects”. Borrador. Humans and Technology, versión del 27 de febrero 2002. [4] Gutiérrez Pulido Humberto y De la Vara Salazar Román. “Análisis y Diseño de Experimentos”. Quinta edición. Ed. Mc Graw Hill. 2008. [5] Gamma Erich, Helm Richard, Jonson Raplh and Vlissides Jhon. “Design Patterns, Elements of reusable object-oriented software”. Ed. Addsion Wesley. 1995. [6] Gilb Kai. Evolutionary Project Management & Product Development (or The Whirlwind Manuscript), http://www.gilb.com/ Download/EvoProjectMan.pdf. 2003. [7] Highsmith Jim. Adaptive software development: A collaborative approach to managing complex systems. Nueva York, Dorset House. 2000. [8] Jacobson Ivar, Booch Grady and Rumbaugh James. “The Unified Modeling Language Referente Manual” Second edition. Ed Addison Wesley. 2005. [9] Kleppe Anneke, Warmer Jos and Basts Wim. “MDA Explained, The Model Driven Architecture: Practice and Promise”. Ed. Pearson Education. 2003. [10] Kuhn Thomas S., “La Estructura de las revoluciones cientificas”. Trad, Ed.Fondo de Cultura Econocmica. 2006. [11] Patton Ron. “Software Testing”. Ed. Sams. 2006. [12] Popper Kart R.. “Realismo y el objetivo de la ciencia”, Segunda edición. Ed. Tecnos, S.A, 1998. [13] Pressman Roger. “Ingeniería del Software”, Sexta edición. Ed. Mc Graw Hill. 2005. [14] Shaw Mary and Garlan David. “Software Architecture, Perspectives on an Emerging Discipline”. Ed. Prentice-Hall. 1996.

Sandro Javier Bolaños Castro DEA en el Doctorado en Ingeniería Informática de la Universidad Pontifica de Salamanca, campus de Madrid. Magíster en Teleinformática de la Universidad Distrital Francisco José de Caldas. Ingeniero de Sistemas de la Universidad Distrital Francisco José de Caldas. Actualmente es profesor asociado en la Universidad Distrital, en la Maestría en Ciencias de la Información y las Comunicaciones, en la Especialización en Ingeniería de software y en el Programa Curricular de Ingeniería de Sistemas. Área de Ingeniería de Software. Pertenece al grupo de investigación en comunicaciones, informática y gestión del conocimiento - GICOGE. sbolanos@udistrital.edu.co

Víctor Hugo Medina García Los principios aquí expuestos quieren poner de manifiesto la necesidad de utilizar un formalismo que aborde la problemática de manera no solo estandarizada sino y aun mas importante de manera objetiva. En la contrastación de la ingeniería de software con otras disciplinas, si bien es cierto se tienen grandes similitudes en la mayoría de los caso estas son aparentes, y mas bien se reclama un cuerpo de conocimiento propio dotado de principios leyes y axiomas propios de esta área que es mas de corte artificial que de corte natural.

REFERENCIAS BIBLIOGRÁFICAS

37

[1] Beedle Mike, Devos Martine, Sharon Yonat, Schwaber Ken and Sutherland Jeff. “SCRUM: A pattern language for hyperproductive software development”. En N. Harrison, B. 2. Foote, and H. Rohnert, eds., Pattern Languages of Program Design, vol. 4, pp. 637-651. Reading, Addison-Wesley. 1998.

PhD. Ingeniería Informática de la Universidad Pontifica de Salamanca campus de Madrid. Magíster en Informática de la Universidad Politécnica de Madrid. Especialista en Marketing de la Universidad del Rosario. Ingeniero de Sistemas de la Universidad Distrital Francisco José de Caldas. Actualmente es profesor titular en la Universidad Distrital, en la Maestría en Ciencias de la Información y las Comunicaciones y el Programa Curricular de Ingeniería de Sistemas, en el área de Ingeniería de Software y Gestión del Conocimiento. Es investigador del grupo GICOGE. Profesor asociado de la Universidad Pontifica de Salamanca y profesor invitado en la Universidad de Oviedo. vmedina@udistrital.edu.co

Luis Joyanes Aguilar Doctor en Informática de la Universidad de Oviedo. Doctor en Ciencias Políticas y Sociología de la Universidad Pontifica de Salamanca campus de Madrid. Licenciado en Ciencias Físicas de la Universidad Complutense de Madrid. Licenciado en Enseñanza Superior Militar de la Academia Militar de Zaragoza. Profesor Titular Agregado de Cátedra de Lenguajes y Sistemas Informáticos de la Facultad de Informática de la Universidad Pontificia de Salamanca. Se desempeñó como Decano de la Facultad de Informática, Director de Doctorado, Director de Masters y Director del Dpto de Lenguajes, Sistemas Informáticos e Ingeniería de Software, en la Universidad Pontifica de Salamanca campus de Madrid. Autor de mas de 40 libros de Informática y numerosos artículos en revistas y congresos internacionales.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

37


38

Simulador para el Control Financiero de las Pymes Germán A. Méndez Giraldo1 Patricia Parra2 José Hurtado Portela3

Resumen En el año 2004 se concluyó la investigación acerca del Diseño de un prototipo de Diagnóstico para las Pymes, de ahí en adelante se continuo el trabajo para seguir brindando oportunidades de mejora a este tipo de industria. El presente artículo muestra un resultado derivado de este trabajo y que se fundamentada en la metodología desarrollada al interior del grupo de investigación SES. Para ello se elaboró un modelo mental que dio lugar a un modelo de simulación con el que se permite identificar tendencias al interior del sistema, lo que hace posible realizar proyecciones del sistema financiero de la PyMe. Entre las principales variables de influencia se encuentran la liquidez, el capital de trabajo, las inversiones (tangibles e intangibles), la gestión y control de presupuestos, la rentabilidad y el financiamiento (interno o externo). Así mismo, se planteó un modelo de simulación continua para reflejar las políticas que definen las decisiones al interior del área, el perfil del empresario y otras variables y parámetros fundamentales en el análisis de la gestión financiera. Se concluyó después de realizar los diferentes escenarios de simulación que los principales problemas financieros de las PyMes no solo están relacionados con el crédito externo, como tradicionalmente se cree, también tiene una fuerte influencia la estructura interna y la cultura empresarial, pues las decisiones se toman de acuerdo a la visión del empresario y pocos tienen la conciencia de invertir en el mejoramiento de la empresa. Palabras clave: Simulador, Control financiero, PyMes.

Financial control Simulator for PyMes Abstract

1

Co-Director e Investigador del Grupo de Investigación Simulación y Sistemas Expertos.

2

Investigadora auxiliar del grupo SES.

3

Investigador auxiliar del grupo SES.

Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

38

Vol.14 No.1

Ingeniería

In year 2004 was finished the investigation about Prototype Design of Diagnosis for the SMEs, after that, the work was continuing in order to develop new opportunities to be better at these industries. The present article shows a result derived from this work and that based on the methodology developed by the group of investigation SES. For it a mental model was elaborated that gave rise to a simulation model with which it is allowed to identify tendencies to the interior of the system, which does possible to realise projections of the financial system for SMEs.

Between the main variables of influence they are the liquidity, the work capital, the investments (tangible and intangible), the management and control of budgets, the yield and the financing (internal or external). Also, It considers a model of continuous simulation to reflect the policies that define the decisions to the interior of the area, the fundamental profile of the maanger and other variables and parameters in the analysis of the financial management. One concluded after realising the different scenarios from simulation that the main financial problems of the SMEs not only are related to the external credit, as traditionally it is created, also has a strong influence the internal structure and the enterprise culture, because the decisions are taken according to the vision of the industralist and few have brings back to consciousness to invest in the improvement of the company. Key words: Simulator, Financial control, SMEs.

1. Introducción De acuerdo con el estudio “Gestión de la mediana y pequeña empresa en los países miembros del grupo andino” realizado por la Universidad EAFIT, en el año 1991 las pequeñas y medianas industrias en Colombia representaban aproximadamente el 79.4% del total de empresas lo que significa que en el país existen mas de 5000 industrias catalogadas como PyMes. [1]. Se consideran PyMes Colombianas a aquellas empresas con un número de empleados entre 11 y 200 y valor de activos entre 500 y 15000 Salarios mínimos Mensuales Vigentes [2]. Estas empresas se caracterizan por ser las de mayor participación en la economía y juegan un papel importante dentro de la generación de empleo. De hecho, según un estudio realizado por la Caja Social y basado en cifras del DANE, las PyMes generan más del 40% de la producción total de bienes y servicios y ocupan el 25% de los puestos de trabajo otorgados por las empresas privadas [3]. Lo anterior permite concluir que el conjunto de pequeñas y medianas empresas colombianas representan un papel fundamental dentro de la economía nacional y por lo tanto su fortalecimiento es clave para el desarrollo del país. Con la globalización y la apertura de los mercados se ha demostrado que gracias a sus características, las

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

38


39

pequeñas y medianas empresas están llamadas a representar un papel fundamental en la nueva economía dada la flexibilidad que las caracteriza y les permite adaptarse a los cambios del entorno [4]. Sin embargo, dentro de un marco proteccionista como el que primaba en las economías de la región antes de los años 90, la innovación y modernización del aparato productivo era prácticamente nula y por lo tanto la competitividad era baja con relación a la industria internacional [5]. Según un documento publicado por ALADI, las pequeñas y medianas empresas enfrentan una fuerte problemática relacionada con sus deficientes condiciones de producción y la baja calificación de su mano de obra[6]. Bajo estas circunstancias se hace urgente destinar mayores esfuerzos hacia este sector con el fin de crear estructuras sólidas de producción. Dado que la empresa pequeña y mediana enfrenta dificultades en el acceso al mercado financiero, los esfuerzos deben acompañarse de recursos suficientes y sobretodo de guías que permitan concentrar mayor atención en las áreas problema de la organización. Sin embargo, si las empresas pequeñas y medianas no cuentan con oportunidades de crédito que les permitan obtener los recursos necesarios para su financiamiento y crecimiento será muy difícil impulsar su fortalecimiento. La queja que las PyMes no tienen acceso al crédito que necesitan, es recurrente y pareciera no tener solución en el esquema tradicional de financiamiento bancario [7]. Esta problemática es recurrente en la PyMe Industrial ya que su financiamiento siempre ha estado acompañado de evaluaciones parciales que no reflejan a la empresa como un sistema. De acuerdo con Lysette Henríquez Amestoy, para que las PyMes sean más competitivas y se encuentren mejor integradas a su entorno económico es necesario mejorar su acceso al financiamiento por medio de políticas gubernamentales [8]. Bajo esta óptica y teniendo en cuenta la necesidad de fomentar el crecimiento y estructuración de las Pequeñas y medianas industrias se busca proponer un simulador que facilite el control financiero que permita medir a las empresas desde un punto de vista mas objetivo e integral y a la vez identifique los puntos críticos de la estructura económica de la empresa.

39

Teniendo en cuenta que una empresa funciona de acuerdo a la dinámica existente entre sus distintas áreas funcionales, un simulador debe incluir el análisis de cada una de éstas. En este trabajo se diseñará un prototipo basado en un enfoque sistémico con el fin de diagnosticar el desempeño del área financiera de las pequeñas y medianas empresas. Dicho prototipo

no sólo busca identificar el riesgo crediticio que pueda representar la empresa para las entidades financieras, si no que también esta orientado a facilitar su dirección, encontrar sus debilidades y brindar alternativas de solución a los problemas enfrentados en el área.

2. MARCO TEÓRICO En el contexto de las empresas y en particular de las PyMes es necesario conocer las implicaciones de ciertas actuaciones y decisiones gerenciales, respuestas que sólo se tendrían anticipadamente, es decir, antes que en realidad sucedan gracias a los modelos de simulación, estas respuestas ante los efectos de la liquidez, el control presupuestario, producción financiera, control y programación de la producción y otras más.

Con la globalización de la economía se ha demostrado que las PYMe están llamadas a representar un papel fundamental en la nueva economía dada la flexibilidad que las caracteriza.

2.1 La Gestión Financiera en la PyMe Dentro de la estructura de una empresa la gestión financiera administra los flujos económicos que permiten la operación de todas las áreas y el funcionamiento y realización de los proyectos emprendidos por la dirección. Según Horacio Irigoyen y Francisco Puebla, el eterno problema de las finanzas es hacer frente, con recursos limitados a necesidades ilimitadas, concepto aún más evidente en la administración financiera de PyMes [9]. La estructura del área de finanzas varía de empresa a empresa, sin embargo, hay lineamientos clásicos que determinan su funcionamiento. De acuerdo con Joaquín Rodríguez Valencia, la estructura general del área financiera en una empresa incluye por lo menos los siguientes aspectos: •

Obtención del financiamiento: El área financiera es responsable de adquirir recursos económicos por financiamiento externo e interno. Planeación y Presupuestos: la gestión de finanzas incluye la formulación de programas y planes que destinan recursos a todas las áreas de la empresa en pro de objetivos establecidos por la dirección. Contabilidad y costos: Dentro del área financiera se contempla el establecimiento de los costos y gastos ocasionados al producir y administrar la organización. Para ello es esencial contar con un sistema contable estructurado que permitan formular la información financiera. Crédito: Los responsables del área financiera incluyen dentro su gestión la elaboración y seguimiento de políticas de crédito a clientes de acuerdo a las necesidades y condiciones particulares de la empresa. Cobranzas: Recuperación y control de cuentas por cobrar

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

39


40

Control del efectivo: Manejo adecuado del efectivo, control de pagos y recepción de cobros. • Administración del Capital de Trabajo: Distribución de recursos para garantizar la operación de la empresa. La gestión financiera debe garantizar los recursos para la nómina de la organización, las materias primas del proceso productivo, los gastos y costos asociados a la actividad y el funcionamiento de todas las áreas de la empresa [10]. Dentro de los objetivos de la gestión financiera se puede decir que una empresa es un conjunto de proyectos de inversión y financiación ya que este circuito financiero rige su funcionamiento. Así, entre los objetivos de la gestión financiera se encuentra la consecución y disponibilidad del dinero, la administración de los recursos existentes con el máximo de eficiencia y productividad para crear valor y el logro de rendimientos esperados sobre las inversiones. En resumen, la liquidez y la rentabilidad son objetivos clásicos en la gestión financiera [11]. La orientación dada a la administración financiera de una PyMe influye considera-blemente sobre su funcionamiento y los objetivos de ésta administración son claves para la organización. Dichos objetivos generan las estrategias y planes de acción que rigen el flujo de efectivo y permiten alcanzar los objetivos, tanto del área financiera como de toda la empresa. Las estrategias son la base del plan financiero en donde se analizan los recursos disponibles y su utilización en un periodo de tiempo determinado. Prácticamente, el plan financiero es la traducción cuantitativa de las estrategias, expresadas en términos cualitativos [11] [12].

Las estrategias son la base del plan financiero en donde se analizan los recursos disponibles y su utilización en un periodo de tiempo determinado. 40

Vol.14 No.1

Ingeniería

Analizando el mundo de la Pequeña y Mediana empresa colombiana, se encuentra que el principal objetivo financiero es maximizar las utilidades desligándolo de la calidad en la gestión. Esto evidencia la visión a corto plazo de los empresarios ya que en muchos casos se persigue la rentabilidad sin enfocarse en el buen funcionamiento de la organización, situación que a largo plazo causa perjuicios que repercuten en toda la empresa [1]. Para que la planeación financiera responda a las necesidades del negocio es indispensable que la información sobre la que se realiza sea precisa significativa y oportuna [13]. Un sistema de información inadecuado es uno de factores principales de los fracasos de los pequeños negocios ya que sin un sistema de datos robusto se comenten errores en la administración del capital. Igualmente, la información financiera permite determinar si se están produciendo utilidades

convenientes en relación con los activos y el capital invertido [14]. Muchos empresarios de empresas pequeñas y medianas consideran una perdida de tiempo el proceso de registro de información financiera. Sin embargo, la información financiera ordenada, procesada por medio de un sistema contable estructurado permite conocer la situación patrimonial de la empresa, analizar las disminuciones y aumentos en el patrimonio y la evolución de la empresa, puntos clave para la toma de decisiones [15]. La información base del proceso de planeación proviene del sistema contable y de costos establecidos en la empresa, los pronósticos de ventas proyectados para periodos posteriores y la retroalimentación de periodos anteriores. 2.2 Simulación Dinámica La simulación hoy en día es una de las técnicas preferida en los procesos de toma de decisión, probablemente en sus orígenes fue considerada como un método de aproximación matemática para problemas en donde la optimización clásica era inconveniente por su implementación o por su mismo alcance. La Dinámica de Sistemas es una técnica desarrollada por el Profesor Jay Forrrester del MIT (EE.UU), para el estudio y análisis de sistemas complejos como corporaciones (empresas de diverso giro o tamaño) o sistemas sociales (ciudades, regiones, países, el mundo) que surgió de la búsqueda de una mejor comprensión de la administración [16]. La dinámica de sistemas combina la teoría, los métodos y la filosofía para analizar el comportamiento de los sistemas y su cambio a través del tiempo. Este conocimiento puede luego ser expresado en un modelo de simulación por computadora y ser usado para comprender la forma cómo funciona dicha estructura y diagnosticar las causas de los problemas, diseñando diversos cursos de acción para mejorar la situación inicial encontrada [17]. Es uno de los desarrollos dentro de lo que se conoce como el Pensamiento de Sistemas ó la Sistémica y es útil para el estudio, comprensión y búsqueda de propuestas a diversos y complejos problemas. El pensamiento sistémico permite comprender integralmente la estructura de los procesos existentes en las organizaciones y sus interrelaciones. De acuerdo con Jay Forrester, la mayoría de los problemas se originan por causas internas aunque generalmente se culpe a causas externas. Igualmente, las acciones que se emprenden para solucionar

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

40


41

problemas pueden ser la causa del mismo. Por otra parte, la propia naturaleza de la estructura dinámica realimentada de un sistema tiende a conducir a acciones que son ineficaces o contraproducentes. Una política es una regla que determina la toma de decisiones. La dinámica de sistemas es muy útil a la hora de entender como las políticas afectan al comportamiento de un sistema. El énfasis se debería poner en el diseño de políticas capaces de producir sistemas con un comportamiento más favorable. El modelo de simulación asociado a un sistema mostrará la corriente de decisiones controladas por las políticas incorporadas. Si el comportamiento es indeseable se busca un mejor conjunto de políticas que produzca mejores resultados. La dinámica de sistemas ha demostrado que existe la manera de combinar conjuntamente la información numérica y la descriptiva en modelos que permiten la simulación de sistemas complejos. Igualmente, no esta restringida a sistemas lineales y puede hacer uso de las características no lineales de los sistemas, a la vez que permite determinar el comportamiento de los sistemas no lineales complejos. La estructura realimentada se puede definir, como aquellos procesos circulares en que las decisiones conllevan cambios que influyen en decisiones ulteriores. Todas las acciones tienen lugar dentro de tales estructuras circulares [16].

3. DISEÑO Y DESARROLLO DEL MODELO DE SIMULADOR DE CONTROL FINANCIERO 3.1. Metodología Utilizada Los principales pasos que se siguieron para el desarrollo del modelo fueron: •

41

Recopilación bibliográfica: Se basó en textos, artículos, documentos gubernamentales y legales provenientes de autores calificados que se refieren al entorno de la PyMe, su problemática y situación actual. Así mismo, se profundizó en el campo de la dinámica de sistemas y teoría financiera para garantizar la validez de la información que sustenta el desarrollo del simulador. Matriz de Expertos: Dado que la investigación se basa en conocimiento de los expertos, se elaboró una matriz que permite apreciar los autores que se refieren a las causas identificadas dentro de la problemática financiera de las empresas pequeñas y medianas. Las causas se seleccionan de acuerdo a la relevancia dada por los expertos. Ésta matriz presenta todas las causas asociadas a los expertos que las consideran. Esta matriz se deta-

lla en la obra de G. Méndez y L. Alvarez [18]. Diagrama Causa-Efecto: A partir de la información bibliográfica se identificaron las causas asociadas a las problemática financiera de las PyMes. Se elaboro un diagrama causa efecto en el que se pueden apreciar las principales relaciones causales al interior del área financiera de la PyMe. Este diagrama permite organizar y representar las diferentes teorías propuestas sobre las causas de un problema. Modelos causales: A partir del estudio de las relaciones causales presentes en el área financiera de la PyMe se elaboró un modelo causal que refleja el comportamiento del sistema y la interrelación entre las variables que lo componen. Estos diagramas hacen posible identificar las causas de los efectos. Ya que una empresa es un sistema dinámico es posible visualizarla como tal utilizando ésta herramienta. Modelo de Simulación en IThink: A partir del modelo causal se elaboró un modelo de simulación en el software IThink. Este modelo refleja el comportamiento de las diferentes variables que intervienen en la gestión financiera de la empresa y permite identificar los efectos de las variaciones sobre el sistema.

El modelo de simulación asociado a un sistema mostrará la corriente de decisiones controladas por las políticas incorporadas.

3.2. Modelo Verbal y Causal Toda empresa necesita captar recursos externos por medio del financiamiento para asegurar su actividad productiva. Uno de los factores que afecta su consecución es la tasa de interés. Así, entre más alta sea la tasa de interés más costoso será el financiamiento. Por ello se plantea una relación inversa entre la tasa de interés y el financiamiento representada por el signo (-), ver figura 1.

Figura 1. Modelo Causal Área de de Liquidez

El financiamiento contribuye a alcanzar niveles de liquidez necesarios para el funcionamiento de la empresa por lo que entre mayores sean las fuentes de financiamiento mayor es la liquidez de la organización. Así mismo, la liquidez influye directamente sobre el capital de trabajo ya que para

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

41


42

garantizar el funcionamiento de todas las áreas de la empresa es necesario contar con dinero efectivo en el instante en que éste se requiera. La liquidez favorece la realización de inversiones como compras o mejoras en los activos fijos o proyectos especiales que permitan la expansión de la PyMe. Una empresa que mantenga elevados niveles de endeudamiento incurrirá en dificultades de financiamiento porque las instituciones son reacias a prestar dinero a organizaciones con elevados niveles de deuda. Cuando la empresa tiene niveles adecuados de liquidez aumentará su capacidad de pago, disminuyendo sus niveles de endeudamiento. El nivel de financiamiento externo está condicionado a las garantías de respaldo que está en capacidad de ofrecer la organización, estas garantías se definen a partir del nivel de activos fijos y de liquidez de la empresa. Por otra parte, entre mejor sea la política de la empresa para asignar créditos menor será el riesgo de que las deudas no sean recuperadas. La rotación de cartera también se ve afectada por la gestión del departamento de cobranzas que debe garantizar la recuperación de los créditos e influye directamente sobre la liquidez pues la empresa cuenta con este dinero para financiar su operación. La liquidez también se ve afectada por la rotación de inventarios ya que este es el activo corriente menos líquido y su acumulación representa una disminución en la capacidad de generar efectivo para desarrollar las actividades de la empresa. Esta variable depende del comportamiento del mercado y de la gestión de producción.

Una empresa que mantenga elevados niveles de endeudamiento incurrirá en dificultades de financiamiento porque las instituciones son reacias a prestar dinero a organizaciones con elevados niveles de deuda. 42

Vol.14 No.1

Ingeniería

La rentabilidad se ve afectada por el precio y el nivel de ventas. De igual forma, la rentabilidad está determinada por la rotación de cartera pues de nada sirve vender si no se puede cobrar; por los costos y gastos asociados a la actividad, y por los correspondientes al pago de intereses. Por otra parte, los niveles de impuestos a que están sujetas las actividades de la organización disminuyen la rentabilidad de la misma, siendo éstos determinados de acuerdo a los niveles de ingreso. Si la rentabilidad es alta se beneficia la liquidez de la empresa, así que se establece una relación directa entre estas variables. El conocimiento de los costos y la correcta proyección de ingresos (pronósticos de ventas) son fundamentales para garantizar que el sistema de información financiera sea confiable y arroje información verídica. Igualmente, el conocimiento de la rentabilidad influye en la validez del sistema de información financiera que alimentará la gestión y control de los presupuestos. Si los presupuestos están bien elaborados y su información es confiable la empresa contará con los niveles de liquidez requeridos. Ver figura 2.

Figura 2. Modelo Causal Área de Rentabilidad

Finalmente, el financiamiento de las actividades de la empresa incluye el financiamiento interno (aportes de capital de los socios) y la reinversión de utilidades; la cantidad de dinero que no se reinvierte es normalmente destinada a la repartición de dividendos, de acuerdo a la política establecida. Los excesos de liquidez pueden representar saldos ociosos para la compañía por lo que en muchos casos se opta por la realización de inversiones temporales. Estas decisiones dependen del perfil de empresario, quien determina el direccionamiento de la organización. Así mismo, ésta variable determina la asignación de recursos disponibles para la realización de proyectos especiales al interior de cada área funcional. 3.3. Modelo de simulación El modelo de simulación propuesto refleja el comportamiento del área financiera de una PyMe a partir del modelo causal determinado. Permite apreciar como la empresa destina recursos financieros a los diferentes usos posibles y visualizar las fuentes de dinero. El modelo es dinámico, así que es posible apreciar el estado de ellas variables a través del tiempo y evidenciar las causas de los resultados obtenidos. Las variables que usa el modelo se distinguen las de nivel, las de tasas y las auxiliares en las que se distinguen los parámetros del modelo, a fin de ilustrar el modelo en la tabla 1 se definen las variables de nivel y en la tabla 2, las de tasa.

Figura 3. Gráfico de Modelo de Simulación (Afectación de Efectivo)

Como ya se mencionó, para el desarrollo del modelo simulador se utilizó el software diagramático ITHINK. Ver Figura 3, en el se puede distinguir como el modelo está dividido en sectores

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

42


43

interconectados que representan las variables principales estableciendo las relaciones al interior de cada uno. Inicialmente, el conjunto de sectores principales reflejan el ciclo de los negocios de la empresa y sus variables se miden en dinero. En la figura 3, se denota una parte del modelo diagramático que afectan el nivel de efectivo. El nivel de efectivo permite medir en cualquier momento el dinero disponible, las variables que influyen sobre éste nivel se encuentran conectadas mostrando las entradas y salidas de dinero. Para ello se consideran los ingresos por ventas, las entradas de capital por medio de financiamiento o por ingresos diferentes a la actividad de la empresa. También se evalúa la capacidad de la empresa para recuperar su cartera y se considera la salida de dinero para la operación de todas las áreas funcionales (capital de trabajo), inversión en activos fijos, en proyectos especiales e inversiones temporales. Los impuestos y la repartición de dividendos se incluyen también en el análisis. Por otra parte, es posible medir características de administración Financiera, como la gestión y control de presupuestos a partir de la evaluación de las variables que influyen sobre ésta. Así mismo, evalúa la gestión de cobranzas y la política de créditos, Tabla I. Variables de Nivel

43

TIPO N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N N

VARIABLE Gestión y control de presupuestos Política de crédito Validez de información financiera Gestión de cobranzas $ Total administración $ Total calidad $ Total finanzas $ Total I&D $ Total medio ambiente $ Total mercados $ Total producción $ Total RRHH Cartera recuperada CC promedio Costo de ventas Depreciación acumulada Deuda amortizada Deuda total Dinero para funcionamiento Dinero requerido total Efectivo Historial de pago de impuestos Historial de repartición de dividendos Histórico de pagos de deudas Ingresos por ventas Inversiones temporales Inversión en activos fijos Inversión en proyectos Nivel de cuentas por cobrar Nivel de endeudamiento Nivel de prevención Partida total para corrección Valor total de activos fijos Ventas totales Ventas totales a crédito

NOMBRE NGCONPR NPOLCRE NVALIDZ NGESTCO N$ADMIN N$CALID N$FINAN N$IN&DE N$MEDAM N$MERCA N$PRODU N$RRHHU NCARREC NCCPROM NCOSVEN NDEPACU NDEUAMO NDEUTOT NDINFUN N$REQTO NEFECTI NHISIMP NHISDIV NHPADEU NIGRDEU NINVTEM NINVACF NINVPRO NCUENCO NENDEUD NPREVEN NPARCOR NVALACF NVENTOT NVENTCR

Tabla II. Variables de Tasa T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T T

Gestión de cobranzas Validez de información financiera Gestión y control de presupuestos Política de créditos $ Para inversiones en proyectos $ Para inversiones temporales con fin. Ext. Adición a activos Administración Cartera recuperada Compra de activos fijos con capital propio Compra de activos fijos con finan. Ext. Corrección Costos y gastos Cuotas de amortización Depreciación Descarga presupuestal Dinero medio ambiente Dinero para amortización Dinero para calidad Dinero para finanzas Dinero para investigación y desarrollo Dinero para mercados Dinero para prevención Dinero para produccion Dinero para recursos humanos Dividendos Financiación externa Financiación interna Fracción de cuentas por cobrar Ingresos Ingresos por especulación Ingresos por periodo Ingresos por ventas a crédito Ingresos por ventas de contado Ingresos periódicos Intereses por deuda Inversiones temporales con saldos Otros ingresos Pago de impuestos Pago de deudas Partida para funciones Pago de deuda Préstamo Préstamo con intereses Renovación de activos Requerimiento de capital Utilización de ahorro para imprevistos Ventas a crédito por periodo Ventas a crédito de cada periodo

TGESTCO TVALIDZ TGESCPR TPOLCRE T$INVPR T$INVTE TADIACT TADMINI TCARTRE TCOMACP TCOMAFE TCORREC TCOSYGA TCUOTAS TDEPREC TDESPRE TDINMEA TDINAMO TDINCAL TDINFIN TDINI&D TDINMER TDINPRE TDINPRO TDINRHU TDIVIDE TFINEXT TFININT TFRCPCO TINGRES TINGESP TINGPER TINVEAC TINVECO TINPERI TINTDEU TINVTSA TOTROIN TPGIMPU TPGDEUS TPPFUNC TPGDEUD TPRESTA TPRCONI TRENOAC TRECCAP TUTIAHI TVENCRP TVENCPE

Los excesos de liquidez pueden representar saldos ociosos para la compañía por lo que en muchos casos se opta por la realización de inversiones temporales.

resultados que pueden explicar problemas en la rotación de cartera. Estas variables se operan porcentualmente y su valor se determina a partir de calificaciones obtenidas a partir de la encuesta. El modelo incluye un panel especial que permite visualizar si existen problemas de liquidez y su influencia sobre el capital de trabajo y la inversión. El modelo tiene la capacidad de representar las condiciones pasadas de la empresa mediante el ingreso de información histórica que puede ser manipulada para visualizar diferentes escenarios y tendencias de comportamiento del sistema. Así es posible identificar los aspectos que afectan el desempeño del área y plantear posibles soluciones a los problemas. Algunas ecuaciones del Modelo de I Think se presentan a continuación:

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

43


44

El modelo incluye un panel especial que permite visualizar si existen problemas de liquidez y su influencia sobre el capital de trabajo y la inversión.

Índice de endeudamiento AINDEND = APASTOT/AACTTOT

(1)

APASTOT = 25500000

(2)

Índice de rotación de cartera NCARREC(t) = NCARREC(t - dt) + (TCARTRE) * dt (3) TCARTRE = AHCARRE

(4)

NCCPROM(t) = NCCPROM(t - dt) + (TFRCPCO) * dt (5) TFRCPCO = (NCUENCO+TVENCRP-TCARTRE)/ ANUMPER (6) NCUENCO(t) = NCUENCO(t - dt) + (TVENCRP TCARTRE) * dt (9) (7) TVENCRP = AHVENCR

(8)

NVENTCR(t) = NVENTCR(t - dt) + (TVENCPE) * dt (9)

4. VALIDACIÓN DEL MODELO El Modelo de simulación permite apreciar gráficas que reflejan las relaciones entre variables y el comportamiento del sistema. Las gráficas que se muestran a continuación permiten visualizar parte de la dinámica generada por corridas de 12 periodos. En este caso se tomaron 12 periodos mensuales que representan el movimiento anual correspondiente a los ejercicios contables de nuestro país. 4.1. Caso de validación No. 1 El primer escenario simulado es para una empresa que enfrenta una paulatina disminución de liquidez, representada por la disminución de sus reservas iníciales, por su bajo ingreso operacional y baja recuperación de cartera. En la gráfica de la figura 4 se tienen las variables de inversiones temporales, en proyectos de áreas funcionales y en activos fijos, que se ven afectadas por entradas de dinero proveniente de financiación. Ver tabla 3.

El nivel de inversión temporal está representado por la línea 1. Según su trayectoria se puede concluir que la entrada de dinero por financiación interna influye sobre su valor. Esta empresa tiene programado realizar inversiones en proyectos de las áreas funcionales en un periodo determinado, también se ha estipulado que será utilizado cierto porcentaje de la financiación externa para este fin, por lo cual solo es posible realizar este tipo de inversión si no se ve afectada la consecución de dinero, como en este caso. No se programó la compra de activos en el horizonte simulado. La gráfica de amortización, ver figura 5, permite observar la influencia del financiamiento externo sobre el nivel de efectivo. Por ello, las líneas correspondientes a nivel de endeudamiento (línea 2) y efectivo (línea 1) conservan una tendencia similar. Sin embargo, dado que el plazo para el inicio del pago de las cuotas es muy corto, la empresa se ve obligada a desembolsar cuotas desde el periodo siguiente a la consecución del crédito. En este caso la amortización está pactada a 48 meses, plazo que es muy pequeño para el pago de una deuda considerablemente grande.

Figura 5. Gráfico de Amortización

El Financiamiento es de dos tipos. El crédito externo (línea 2) aparece en el momento en que los niveles de efectivo disminuyen considerablemente. El financia-miento interno proviene de aportes programados para un periodo en particular. En este caso, el financiamiento interno no tiene el suficiente impacto sobre el nivel de efectivo y lo único que logra es desacelerar su caída, ver figura 6.

Figura 4. Gráfico de Inversión Tabla III. Resultados del Caso de Validación No. 1.

Figura 6. Gráfico de Financiación

Los ingresos por ventas de contado (línea 1) influyen sobre el nivel de efectivo pero no en 44

Vol.14 No.1

Ingeniería

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

44


45

magnitudes considerables para el sistema, ver figura 7. Se observa que cuando los ingresos disminuyen, el efectivo también aunque deben observarse otras causas de esta disminución. Puede suponerse que el ritmo de pago de la deuda se interrumpe justo cuando el dinero llega a un punto crítico, pero se recupera al aumentar el volumen de ingresos por ventas.

Figura 7. Gráfico de Ingresos, Efectivo y Pago de Deuda

4.2. Caso de validación No. 2 Como otro ejemplo, se realiza una corrida de 12 periodos aumentando los valores de ingreso por ventas de contado, para observar la reacción de las demás variables. El financiamiento se da en los mismos periodos que en el caso 1, pero el periodo de amortización y la fecha de inicio de pagos son mayores. Ver tabla 4. Tabla IV. Resultados del Caso de Validación No. 2.

45

Los ingresos por ventas (línea 1) aumentan en relación al caso 1, factor que junto con la ampliación del plazo para cancelar deudas contribuye disminuir el ritmo de pérdida de efectivo (línea 2). Además, el dinero para el funcionamiento de la empresa (línea 3) se estabiliza finalmente en el nivel presupuestado, permitiendo así el desarrollo del ciclo del negocio. En resumen, por medio de las gráficas es posible visualizar algunas relaciones entre variables importantes del sistema, demostrando por ejemplo, que el financiamiento juega un papel primordial en el desarrollo del ciclo operativo. Las condiciones de la deuda pueden afectar los niveles de efectivo, involucrando posteriormente las partidas presupuestadas de dinero para la inversión y para el capital de trabajo, a la vez que se dan espacios para el desarrollo de la actividad productiva. El mantenimiento de niveles de venta regulares junto con una efectiva política de cobranzas asegura un

ingreso en magnitudes acordes a las necesidades de capital de la empresa.

4. CONCLUSIONES De acuerdo con la información recopilada durante la investigación sobre diagnóstico de la PyMe, sumada al desarrollo del modelo de simulación que aquí se presenta, se considera como la PyMe industrial colombiana enfrenta una compleja problemática financiera debido a múltiples agentes tanto al exterior como al interior de la organización. Siendo las causas internas las de mayor deficiencia. Si bien el mercado financiero restringe los créditos a éste tipo de empresas, es importante anotar que sus dificultades parten de los inadecuados esquemas de gestión, normalmente enmarcados dentro de políticas tradicionales y poco eficientes, situación que se refleja en las falencias estratégicas para administrar los flujos económicos (Ausencia de Planes y presupuestos entre otros). El simulador financiero permite analizar las incidencias de las principales variables financieras representadas tanto en las variables de nivel como en las de tasa ya mencionadas arriba, partiendo de ésta situación, se evidencia la pertinencia del simulador encaminado a facilitar el direccionamiento de la organización al evaluar las políticas propias de la gestión financiera. Es importante resaltar la importancia del apoyo de entes externos para impulsar el desarrollo sostenible de las PyMes. Uno de los factores que afecta el crecimiento de la empresa es la percepción que tienen las fuentes de financiamiento sobre su voluntad y capacidad de pago. Aunque se han creado diversos mecanismos dirigidos al financiamiento de PyMes, pero se ha demostrado que son insuficientes dada la magnitud de la problemática, por lo que es importante sensibilizar a la sociedad en general acerca de la importancia de su fortalecimiento. Por otra parte, debe considerarse que las condiciones del mercado han cambiado sustancialmente y por lo tanto la PyMe no debe competir bajo los parámetros tradicionales. Ello implica que no es posible aumentar los precios de venta en la misma proporción en la que aumentan los costos debido a que los altos niveles de competencia especializada no lo permiten. Por lo tanto, el pequeño empresario debe hacer esfuerzos por controlar sus costos y gastos sin sacrificar la calidad de sus productos para sostener sus niveles de rentabilidad. Prueba de lo anterior se da frente al nivel de efectivo que se maneja en la empresa cambiando las políticas

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

El pequeño empresario debe hacer esfuerzos por controlar sus costos y gastos sin sacrificar la calidad de sus productos para sostener sus niveles de rentabilidad. Vol.14 No.1

Ingeniería

45


46

de venta que se manejen. Contrario a lo que en apariencia se evidencia de la venta de contado como mecanismo para generar efectivo, resulta mejor las políticas de crédito que brinda la PyMe. De igual manera, el simulador permite establecer las conexiones del área Financiera con las otras áreas funcionales de la PyMe, midiendo su influencia a la vez que analiza el comportamiento del sistema en función del tiempo para apreciarlo como un ente dinámico y en continua transformación. Finalmente, cabe anotar que la utilización de herramientas de diagnóstico diseñadas en el marco de la dinámica de sistemas es muy pertinente dadas las actuales condiciones del entorno industrial, que exigen organizaciones más competitivas e inteligentes.

[10] LLANO MONELOS, Pablo de y PIÑEROS, Carlos. Modelos de gestión financiera. Mc Graw Hill. 2007. México. P. 56 [11] DIEZ DE CASTRO, Luis y LÓPEZ, Joaquín. Dirección Financiera. Planificación, Gestión y Control. España, 2001 [12] DUMRAUF, Guillermo L. Finanzas Corporativas. México. Alfaomega Grupo Editor. 2006. p. 163 [13] BREALEY, Richard. Principios de finanzas corporativas. Madrid. McGraw-Hill, 2003 [14] LONGENECKER, Justin y MOORE Carlos. “Administración de pequeñas empresas, Un enfoque emprendedor” 11ª edición. International Thomson Editores. 2001. USA Cit. P. 483 [15] ENCICLOPEDIA PRÁCTICA DE LA PEQUEÑA Y MEDIANA EMPRESA. Op Cit. p 452 [16] FORRESTER, Jay. Diseñando el futuro. 15 de diciembre de 1998. Universidad de Sevilla. España. [17] ARACIL Javier y GORDILLO Francisco, Dinámica de Sistemas; Editorial Alianza 1997. [18] MENDEZ G. y ALVAREZ, L. Diseño de prototipo diagnóstico para la pequeña y mediana empresa, PYME. Enfoque mediante sistemas dinámicos. Ed. Nomos. Bogotá 2005.

5. REFERENCIAS BIBLIOGRAFÍA [1] EAFIT. Gestión de la mediana y pequeña empresa en los países miembros del grupo andino. Colombia. 2000. [2] REPUBLICA DE COLOMBIA, MINISTERIO DE DESARROLLO ECONÓMICO. Promoción del desarrollo de la micro, pequeña y mediana empresa colombiana. Ley MiPyMe. 2000. [3] VELEZ, Diego. Dinámica de la empresa familiar pyme: estudio exploratorio en Colombia. Bogotá, Fundes. 2008. pp. 20-30 [4] NIVIA, Leonardo. La pyme y sus aportes al desarrollo de Colombia: la historia de Acopi 1951-2006. Bogotá: Acopi; Fundación Konrad Adenauer, 2006. [5] VELEZ, Francisco Javier. Estudio sobre la informalidad y las MIPYMES en Colombia: análisis y propuestas: informe final. ANDI; OIT. Bogotá. 2006. [6] WENGEL, Jan Ter. Dinámica y productividad de la industria colombiana: empleo, exportaciones y la pequeña empresa. Bogotá: Pontificia Universidad Javeriana, 2006.

Germán Méndez Giraldo Ph.D. Es Ingeniero Industrial de la Universidad Distrital Francisco José de Caldas, de Bogotá, Colombia. Obtuvo su título de Maestría en 1998 en la Universidad de Los Andes de Bogotá, Colombia. Obtuvo su doctorado en 1999 en la Universidad Central de Las Villas, Santa Clara, Cuba. Actualmente es el Co-director del grupo de investigación Sistemas Expertos y Simulación SES, docente de la Maestría en Ingeniería Industrial en la Universidad Distrital Francisco José de Caldas de Bogotá. gmendez@udistrital.edu.co

Patricia Parra Es Ingeniera Industrial de la Universidad Distrital Francisco José de Caldas, de Bogotá, Colombia. Su trabajo de grado lo realizado en el grupo de Investigación SES. olgapatriciaparra@hotmail.com

[7] CASTAÑEDA, Pablo, elarea.com. Artículo publicado el 13/2/2002 [8] HENRIQUEZ, Lysette. Programa de Naciones Unidas para el Desarrollo. Memorias de la conferencia “Financiamiento a la PyMe, Algunas reflexiones”. Semana de la PyMe. México, Septiembre 2001. [9] IRIGOYEN, Horacio y PUEBLA, Francisco. PyMes: Su Economía y Organización. Argentina. Ediciones Macchi, 1997. p. 126

José Hurtado Portela Es Ingeniero Industrial de la Universidad Distrital Francisco José de Caldas, de Bogotá, Colombia. Su trabajo de grado lo realizado en el grupo de Investigación SES. jguillermo78@starmedia.com

46

46

Vol.14 No.1

Ingeniería

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


47

Sistemas de Información para el Control de Transferencia en una Cadena de Manufactura Jairo Humberto Torres Acosta PhD. P.E.1

Resumen La actividad de transferencia de la denominada corriente física de unidades en una cadena de manufactura, requiere para su monitoreo y control un robusto sistema de información. Este debe constar de un subsistema de entrada, cuyos componentes son a su vez información de salida de otros sistemas precedentes; un subsistema operacional, que permite determinar los diferentes comportamientos de interés entre los diferentes procesos de la cadena de manufactura y un subsistema de salida que permita con sus resultados establecer el monitoreo, control y trazabilidad. Una cadena de manufactura por procesos, es un sistema complejo y el control de transferencia de su corriente física de unidades, requiere un sistema de información de alta complejidad. El desarrollo de este artículo genera la estructura del sistema de información operacional para el control de transferencia de una cadena de manufactura por procesos. Palabras clave: Transferencia de unidades, corriente física de unidades, sistema de información, operacional, control de transferencia, manufactura por procesos.

Information Systems for the Transfer of Control in a Chain of Manufacturing

Abstract

1

Profesor T.C. Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas. Director Grupo de Investigación MMAI

47 Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

The activity of transference of the physical current of units in a manufacture chain, it requires for its monitoring and control a robust information system. This it must consist of an entrance subsystem, whose components are information of exit of other preceding systems; an operational subsystem, to determine the different behaviors of interest between the different processes of the manufacturing chain and exit subsystem that it allows with its results of establishing the monitoring and control. A chain of manufacture by processes, it is a complex system and the control of transference of its physical current of units and it requires an information system of high complexity. The development of this article generates the structure of the operational information system for the control of transference of a chain of manufacture by processes.

Key words: Transfer of units, physical current of units, information system, operational information system, transference control, manufactures by processes.

1. INTRODUCCIÓN La tarea de control en una cadena de manufactura, es una actividad con un alto nivel de complejidad, razón por la cual la característica del sistema de información operacional requerido para este propósito, debe poseer en su modelación y estructura todas las características que permitan que la información resultado sea confiable, pertinente y oportuna, pues de otra forma el sistema quedará fuera de control trayendo como efecto el colapso del mismo, generando alto nivel de perdida por el consecuente aumento de costos. Otro aspecto que se debe tener en cuenta en el sistema de información operacional, es la cantidad de variables de resultado que se deben generar y que son las que finalmente permiten desarrollar el control de transferencia de un proceso a otro de la cadena de manufactura. La transferencia es una macro actividad de los procesos de manufactura, denominada igualmente corriente física de unidades [1] [2] y se registra en un sistema de información que debe permitir establecer el comportamiento estadístico que se presenta en las diferentes secciones o procesos de la cadena de manufactura y la forma en que va fluyendo el producto a través del sistema de transformación [3]. La corriente física de unidades, corresponde a todos los productos del tipo i (i = 1,…, I ) que pueden ser fabricados por la cadena de manufactura. Los componentes de esta macro actividad son transversales a todos los procesos que hacen parte de la línea de manufactura y a todos los elementos del costo [4]. La información estadística generada a través del sistema de información operacional, permite establecer el control de cada proceso componente de la cadena en relación con [5] [6]: • • • • •

Unidades empezadas Unidades terminadas Unidades rechazadas Unidades aceptadas Unidades transferidas, etc.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

47


48

2.

Estructura del sistema de información operacional El sistema de información esta compuesto por tres subsistemas a saber: • Subsistema de entrada: Esta determinado por información inicial e información de salida de otros sistemas precedentes y permite contar con los insumos requeridos para el proceso de transferencia y control que desarrolla el sistema de información operacional propiamente dicho. • Subsistema operacional: Permite con base en la información de entrada y las heurísticas desarrolladas, generar todos los cálculos para el control de transferencia. • Subsistema de salida: Genera la información estadística que permite establecer el monitoreo, control y trazabilidad de la transferencia de unidades a lo largo de la cadena de manufactura. En el gráfico 1 se puede apreciar su estructura. Cadena de manufactura

Información inicial

Heurísticas

Subsistema de entrada

Información de saida de otros subsistemas

Subsistema operacional

Subsistema de salida

Estadísticas

Figura 1. Estructura del sistema de información operacional

3.

Subsistema de Entrada El subsistema de entrada esta determinado por los siguientes componentes:

• Unidades ordenadas: QOi Es la cantidad de productos que deben entregarse de acuerdo con la orden u órdenes de producción cursadas. • Inventario inicial de productos en proceso: Iois Cantidad de productos que se tienen en el proceso. Puede ser constituido por productos totalmente terminados en la sección que fueron retenidos y por productos que quedan en la sección o proceso, pero que no han sido terminados íntegramente por lo cual debe establecerse el porcentaje del nivel de avance de obra. • Entrada de materiales al proceso: Define el proceso o sección s en el cual se incorpora el material tipo k a la cadena de manufactura. • Probabilidad de aceptación en el proceso: Se designa como Pa y establece la probabilidad que los productos cumplan con la especificación cuando el proceso esta funcionando en condiciones normales. Es el porcentaje de productos aceptados. • Lotes de producción obtenidos con capacidad ampliada: Esta información corresponde al subsistema de 48

Vol.14 No.1

Ingeniería

salida del sistema de información sobre capacidad de manufactura.

4. SUBSISTEMA OPERACIONAL El subsistema operacional, permite determinar los diferentes comportamientos de interés para la actividad de transferencia de unidades entre los diferentes procesos de la cadena de manufactura. Este subsistema de divide en dos componentes a saber: unidades por distribuir, que corresponde al total de unidades de producto tipo i en un proceso s (s = 1,…, S), constituidas por los inventarios iniciales y las recibidas de procesos precedentes; distribución de unidades, que con base en la información del componente anterior establece la cantidad terminada, las unidades aceptadas y rechazadas, así como las transferidas, retenidas y en proceso. Para una perfecta comprensión de los comportamientos, se explicará en primer termino todo lo concerniente al proceso s = 1 y posteriormente para los demás (s = 2,…, S). 4.1. Proceso s=1 El primer proceso de la cadena de manufactura es en el que se recepcionan las órdenes de producción liberadas, razón por la cual tiene un comportamiento diferente a los demás procesos de la cadena, en lo que hace referencia a los componentes definidos. ˆ Unidades por distribuir: Este componente esta determinado por la información correspondiente a los siguientes ítems: • Unidades ordenadas: QOi Cantidad de productos tipo i que deben entregarse de acuerdo con la orden u órdenes de producción cursadas. • Inventario inicial de productos en proceso: Ioi1 Cantidad de productos tipo i que se tienen en el proceso. Puede ser constituido por productos totalmente terminados en la sección, los cuales fueron retenidos, y por productos tipo i que quedan en la sección o proceso, pero que no han sido terminados íntegramente, por lo cual debe establecerse el porcentaje del nivel de avance de obra. • Unidades empezadas: UEi1 Esta información se presenta únicamente para el primer proceso y su comportamiento se establece mediante la relación (1). (1) UEi1 = Q0i1- Ioi1 • Unidades recibidas del proceso anterior: Esta información se aplica a partir del segundo proceso. • Total de unidades por distribuir: TUDi1 En el primer proceso, el total corresponde a la suma de las unidades empezadas y el inventario inicial. La relación que permite su cálculo es la (2). TUDi1 = UEi1+Ioi1 (2)

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

48


49

Distribución de unidades: Los ítems siguientes determinan la estructura de la distribución de unidades en el primer proceso (proceso 1) • Unidades terminadas: UTi1 Esta información se calcula con base en los lotes realmente terminados en correspondencia con los lotes de producción obtenidos con capacidad ampliada. La relación utilizada es la (3): (3) UTi1= LTRi1 × Qi1* • Unidades rechazadas: URi1 Es la cantidad de productos que no cumplen con la especificación y su cantidad corresponde al nivel porcentual de rechazo que se presenta al final del período de acumulación y monitoreo del costo, teniendo en cuenta que esta cantidad se distribuye proporcionalmente en los S procesos, tal como ya se había clarificada. La relación es la que permite el cálculo es la (4). URi1 = TUDi1 × (PFRi /S) (4) • Unidades aceptadas: UAi1 Es el resultado de la diferencia entre las unidades terminadas y las unidades rechazadas en el proceso 1 de la cadena de manufactura. UAi1 = UTi1+ URi1 (5) • Unidades transferidas: UTFi1 En el proceso 1, las unidades transferidas son equivalentes a las unidades recibidas en el proceso 2 y están en concordancia con el comportamiento establecido con la cantidad de productos tipo i realmente procesados en s = 2. Su calculo se establece mediante la relación (6): UTFi1 = URBi2 (6) • Unidades retenidas: URTi1 Son aquellas unidades aceptadas, que por la capacidad disponible del siguiente proceso no pueden ser procesadas. Su resultado es la diferencia entre las unidades aceptadas y las unidades transferidas al siguiente proceso. URTi1 = UAi1+UTFi1 (7) • Unidades que quedan en proceso: IFPPi1 Corresponde a la diferencia entre el total de unidades por distribuir y las unidades terminadas. La relación que permite su cálculo es la (8): IFPPi1 = TUDi1+UTi1 (8) 4.2. Proceso s= 2, …, S En estos procesos de la cadena de manufactura, hay recepción de unidades por la transferencia efectuada desde los procesos precedentes. Los ítems de los componentes definidos son: 49

Unidades por distribuir: En concordancia con lo expuesto para el proceso 1, en el comportamiento para s =2,…, S se tiene: • Inventario inicial de productos en proceso: Iois Cantidad de productos que se tienen en el proceso s al iniciar el período de control y monitoreo, constituido por productos totalmente terminados y retenidos y por productos que no han sido terminados íntegramente para los cuales se definió su nivel de avance. • Cantidad de productos tipo i realmente trabajados en el proceso s: QPRPis es la relación de resultado generado mediante la relación (9): (9) QPRPis = LPRis × Qi* *

En donde, Q i es el lote óptimo de productos tipo i. • Unidades recibidas del proceso anterior: URBis El cálculo de esta información se aplica a partir del conjunto de reglas de decisión (10), en donde :

Sí QPRPis < UAi s - 1^ (Iois + UAis-1) > QPRPis _ URBis = QPRPis Iois Sí no URBis = UAi s - 1

(10)

• Total de unidades por distribuir: TUDis El total de unidades por distribuir corresponde a la suma de las unidades recibidas y el inventario inicial del producto tipo i en el proceso s. La relación que permite su cálculo es la (11): (11) TUDis = URBis + Iois • Distribución de unidades: Los ítems siguientes determinan la estructura de la distribución de unidades en los procesos s = 2,…, S • Unidades terminadas: UTis Esta información se calcula con base en los lotes realmente terminados en correspondencia con los lotes de producción obtenidos con capacidad ampliada. Las reglas de decisión utilizadas son las identificadas con (12):

Sí LTRis × Qi* < TUDis UTis = LTRis × Qi* Sí no UTis = TUDis

(12)

• Unidades rechazadas: URis Es la cantidad de productos que no cumplen con la especificación y su cantidad corresponde al nivel porcentual de rechazo que se presenta al final del período de acumulación y monitoreo del costo, teniendo en cuenta que esta cantidad se distribuye proporcionalmente en los S procesos. La relación correspondiente es la (13). (13) URis = TUDis × (PFRi /S)

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

49


50

• Unidades aceptadas: UAis Es el resultado de la diferencia entre las unidades terminadas y las unidades rechazadas en el proceso s de la cadena de manufactura. (14) UAi1 = UTis + URis

6. DESARROLLO DE UN EJEMPLO DEL CONTROL DE TRANSFERENCIA

• Unidades transferidas: UTFis En el proceso s, las unidades transferidas son equivalentes a las unidades recibidas en el proceso s-1. Su calculo se establece mediante la relación (15): (15) UTFis = URBis+1 + URis

6.1. Subsistema de entrada.

• Unidades retenidas: URTis Son aquellas unidades aceptadas, que por la capacidad del siguiente proceso no pueden ser trabajadas. Su resultado es la diferencia entre las unidades aceptadas y las unidades transferidas. (16) URTis = UAis + UTFis • Inventario final de productos en proceso: IFPPis Corresponde a las unidades que quedan en proceso y es la diferencia entre el total de unidades por distribuir y las unidades terminadas. La relación que permite su cálculo es la (17): IFPPis = TUDis + UTis (17)

5. SUBSISTEMA DE SALIDA Además de la información referenciada en los acápites anteriores, en el contexto de la corriente física de unidades se acostumbra a proporcionar la siguiente información referencial: • Porcentaje de aplicación de materiales: %AMiks. Fundamentalmente se determina en que proceso o sección se incorpora al producto cada materia prima, material auxiliar e insumo de producto, expresado como un porcentaje [7]. • Porcentaje de aplicación de mano de obra, costos de operación y costos generales de fabricación: Es la información concerniente a la mano de obra aplicada a la transformación de materiales en cada uno de los procesos e igualmente se expresa como un porcentaje.

Para el desarrollo del ejemplo sobre control de transferencia en la corriente física de unidades, se toma como marco de referencia la información siguiente:

Tabla I. Gama de productos

50

Vol.14 No.1

Ingeniería

Nombre

1.

Aro soporte

Tabla II. Niveles de inventario inicial en los procesos de cadena de manufactura y su nivel de procesamiento Proceso Io Avance de 1 150 90% 2 250 80% 3 150 85% 4 150 90%

Probabilidad de aceptación estándar del proceso Pa = 95% Demanda pronosticada (Plan Maestro de Producción PMP) 12.000 Tamaño óptimo de lote Q* 1.000 Porcentaje final de rechazo PFR 4% Matriz de entrada de materiales al proceso Tabla III. Entrada de materiales al proceso Item Materia Prima Material Auxiliar Insumo de Producto

Material Aro (1) Platina (2) Tornillos (3) Caucho (4) Envoltura (5) Caja (6)

Proceso 1 Proceso 2 Proceso 3 Proceso 4 1 2 3 4 5 6

Tabla IV. Lotes de producción obtenidos con capacidad ampliada Item Proceso 1 Proceso 2 Proceso 3 Proceso 4 Tiempo por lote 300,00 800,00 400,00 300,00 Lotes que se pueden procesar 12,55 11,28 13,54 9,48 Lotes procesados 12,55 11,28 11,00 9,48 Lotes terminados 12,00 11,00 11,00 9,00 Lotes en proceso 0,55 0,28 0,48

6.2. Subsistema operacional En relación con el subsistema de entrada, los resultados sobre la utilización del subsistema operacional se pueden observar en la tabla 5. El comportamiento de los cálculos obtenidos para los procesos s = 1 y s = 2,…, S es el que se describe a continuación: A.

• Nivel de avance de obra del inventario final: NAOis Es la información porcentual estimada sobre el nivel de avance de procesamiento de las unidades que quedaron como inventario en cada sección o proceso. Su cálculo se establece a través del cociente entre el número de unidades que quedan en proceso y el tamaño de lote Q*.

Número P.

Unidades por distribuir

• Unidades ordenadas: Proceso 1: QO11 = 13.000; para los demás procesos esta información no aplica, pues las órdenes de producción liberadas evidentemente se recepcionan en el comienzo de la cadena de manufactura. • Inventario inicial de productos en proceso: Proceso 1: Io11 = 150

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

50


51

Proceso s = 2,…, S: Io12 = 230; Io13 = 150; Io14 = 150 • Unidades empezadas: Proceso 1: UE11 = 12.400; para los demás procesos no aplica, pues únicamente el proceso 1 es el que inicia la cadena de manufactura. • Unidades recibidas del proceso anterior: Proceso 1: No aplica para este proceso, pues por ser este el inicio de la cadena de manufactura no tiene precedentes. Proceso s = 2,…, S: Para URB12 se tiene el siguiente comportamiento al aplicar el conjunto de reglas de decisión (10) La proposición (QPRP12 = 11.280) < (UA11 = 11.875) y (Io12 + UA11 = 230 + 11.875 = 12.105) > (QPRP12 = 11.280) se cumple, por lo cual URB12 = QPRP12 – Io12 = 11.280 – 230 = 11.050 Para URB13 (QPRP13 = 11.000) < (UA12 = 10.888) y (Io13 + UA12 = 150 + 10.888 = 11.038) > (QPRP13 = 11.000) Se cumple, por lo cual URB13 = QPRP13 – Io13 = 11.000 – 150 = 10.850 Para URB14 (QPRP14 = 9.480) < (UA13 = 10.890) y (Io14 + UA13 = 150 + 10.890 = 11.040) > (QPRP14 = 10.890) Se cumple, por lo cual URB14 = QPRP14 – Io14 = 9.480 – 150 = 9.330 • Total unidades por distribuir: Esta información corresponde a los siguientes resultados. Proceso 1: TUD11 = UE11 + Io11 = 12.400 + 150 = 12.550 Proceso s = 2,…, S: TUD12 = URB12 + Io12 = 11.050 + 230 = 11.280; TUD13 = 11.000; TUD14 = 9.480 B. Distribución de unidades Para la distribución de unidades se tiene:

51

• Unidades terminadas: Proceso 1: UT11 = LTR11 x Q*1 = 12 x 1.000 = 12.000 Proceso s = 2,…, S: Para los cálculos del proceso 2 al S, se utiliza el conjunto de reglas de decisión (12) obteniendo los siguientes resultados:

La proposición (LTR12 x Q*1 = 11 x 1.000 = 11.000) < (TUD12 = 11.280) se cumple, por lo cual UT12 = 11 x 1.000 = 11.000, para los demás procesos se tiene UT13 = 11.000; UT14 = 9.000 • Unidades rechazadas: Proceso 1: UR11 = TUD11 x (PRF1/S) = 12.550 x (0.04/4) = 125 Proceso s = 2,…, S: UR12 = 112; UR13 = 110; UR14 = 94 • Unidades aceptadas: Proceso 1: UA11 = UT11 - UR11 = 12.000 – 125 = 11.875 Proceso s = 2,…, S: UA12 = 10.888; UA13 = 10.890; UA14 = 8.906 ·• Unidades transferidas Proceso 1: UTF11 = URB12 = 11.050 Proceso s = 2,…, S: UTF12 = 11.850; UTF13 = 9.330; UTF14 = 8.906 • Unidades retenidas Proceso 1: URT11 = UA11 - UTF11 = 11.875 – 11.050 = 825 Proceso s = 2,…, S: URT12 = 38; URT13 = 1.560; URT14 = 0 • Unidades que quedan en proceso Proceso 1: IFPP11 = TUD11 - UT11 = 12.550 – 12.000 = 550 Proceso s = 2,…, S: IFPP12 = 280; IFPP13 = 0; IFPP14 = 480 6.3. Subsistema de salida En cuanto a la información correspondiente al subsistema de salida, que es de carácter complementario, se tiene el cálculo de los siguientes resultados.

Tabla V. Resultados del control de transferencia de la “corriente física de unidades” Tipo de unidades Unidades por distribuir

Distribución de Unidades

Estado unidades Ordenadas Inv. Inicial P.P. Unidades empezadas Unidades recibidas del proceso anterior Total unidades por distibuir Unidades Terminadas Unidades Rechazadas Unidades Aceptadas Unidades Transferidas Unidades Retenidas Inventario final de productos en proceso

% de aplicación de materias primas % de aplicación de materiales auxiliares % de aplicación de insumos de producto

Aro (1) Platina (2) Tornillos (3) Caucho (4) Envoltura (5) Caja (6)

% de aplicación de mano de obra % de aplicación de costos de operación CO’S % de aplicación de costos generales de fabricación Nivel de avance de obra del inventario fonal TOTAL UNIDADES PROCESADAS

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Proceso I 13.000 150 12.400 12.550 12.000 125 11.875 11.050 825 550

Proceso II

Proceso III Proceso IV

230 11.050 11.280 11.000 112 10.888 10.850 38 280

150 10.850 11.000 11.000 110 10.890 9.330 1.580 -

150 9.330 9.480 9.000 94 8.906 8.906 480

100% 100% 0% 0% 0% 0% 100% 100% 100% 55,00% 12.550

0% 0% 0% 100% 0% 0% 100% 100% 100% 28,00% 11.280

0% 0% 100% 0% 0% 0% 100% 100% 100% 0,00% 11.000

0% 0% 0% 0% 100% 100% 100% 100% 100% 48,00% 9.480

Vol.14 No.1

Ingeniería

51


52

• Porcentaje de aplicación de materiales: Teniendo en cuenta los cuatro procesos de la cadena de manufactura y el conjunto de materiales utilizados en la fabricación del producto en referencia y el hecho que los porcentajes de aplicación sean en un 100% para materias primas, materiales auxiliares e insumos de productos, define en que momento del desarrollo de la producción se van incorporando al proceso. Por ejemplo, en relación con las materias primas “aro (1)” y “platina (2)”, éstos entran a la cadena de manufactura en el proceso 1, por lo cual su porcentaje de aplicación es referido como el 100%. Los materiales auxiliares “tornillos (3)” entran en el proceso 3, mientras que “caucho (4)” entra en el proceso 2. Finalmente, los insumos de productos “envoltura (5)” y “caja (6)” entran a la cadena de manufactura en el proceso 4. • Porcentaje de aplicación de mano de obra, costos de operación y costos generales de fabricación: En cada uno de los procesos que estructuran una cadena de manufactura, la aplicación de mano de obra debe ser del 100% para que los productos allí trabajados puedan ser transferidos al siguiente proceso hasta obtener el producto final, salvo para aquellos productos que quedan en proceso, para los cuales se determina el porcentaje de nivel de avance de obra. • Nivel de avance de obra del inventario final: De acuerdo con la información de la tabla 5, los inventarios IFPPis tuvieron un porcentaje de aplicación de mano de obra. Teniendo en cuenta la cantidad de productos que quedaron en proceso y el tamaño óptimo de los lotes, los resultados son los siguientes: NAO11 = IFPP11 / Q*1 = 550 / 1000 = 0,55 = 55%; NAO12 = 28%; NAO13 =0% y NAO14 = 48%

7. CONCLUSIONES Con el tratamiento de este artículo, se comprueba la necesidad de desarrollar sistemas de información que permitan poner en funcionamiento los sistemas de manufactura, de tal manera que la información que se va generando a través del subsistema operacional permita establecer la trazabilidad y el control requeridos, en razón al alto nivel de complejidad que representa un sistema empírico de manufactura por procesos.

Una ventaja fundamental del desarrollo de sistemas de información para el control de transferencia en una cadena de manufactura, es la posibilidad de efectuar la trazabilidad y el control del sistema en tiempo real, a la vez que permite verificar los resultados de eventos normales en el funcionamiento de la cadena tales como los niveles de aceptación y de rechazo, los niveles de inventario que quedan en proceso en cada componente de la cadena, la cantidad de productos retenidos y transferidos, con lo cual se verifica el comportamiento real del sistema. Otro aspecto que es necesario resaltar, es la novedad científica que representa el desarrollo del presente artículo, pues en el estado del arte de esta área especifica del conocimiento no existe ningún referente sobre este tipo de desarrollo alcanzado.

REFERENCIAS BIBLIOGRÁFICAS [1] Torres Acosta, J.H. Costos de producción. Teoría y aplicación. Serie biblioteca de catedráticos. Fondo editorial UDFJC. Bogotá 1991 [2] Hargadon, B. y Munera, A. Contabilidad de costos. Editorial Norma. Bogotá D.C. 1997. [3] Torres Acosta, J.H. ingeniería de costos. Un enfoque para la manufactura. Inédito. En publicación 2005 [4] Torres Acosta, J.H. Guía de cátedra: Costos y Presupuestos. Especialización en Ingeniería de Producción. UDFJC. Bogotá. 1999. [5] Torres Acosta J.H. Elementos de producción. Planeación, programación y control. Sistema de investigaciones UCC. Editorial Puntos Gráficos Ltda. Colombia. 1994. [6] Torres Acosta, J.H. Introducción a la logística. Inédito. 2003 [7] Backer y Jacobsen. Contabilidad de costos. Un enfoque administrativo y de gerencia. McGraw-Hill. México. 1988.

1.

Jairo Humberto Torres Acosta

Ingeniero Industrial de la Universidad Distrital Francisco José de Caldas, Bogotá, Colombia. Especialista en Ingeniería de Producción en la Universidad Distrital Francisco José de Caldas, Bogotá, Colombia. Magister en Investigación de operaciones en la Universidad Nacional Autónoma de México. Doctor de la Universidad Central Martha Abreu de las Villas, Cuba. Profesor de las áreas de investigación de operaciones, manufactura, ingeniería de calidad e ingeniería de costos a nivel de pregrado y postgrado. Ha publicado cuatro libros en el área de Ingeniería de Manufactura y Costos. Profesor invitado de la Universidad de Oviedo y de la Universidad Pontificia de Salamanca campus de Madrid. Director grupo de investigación “Modelos Matemáticos Aplicados a la Industria MMAI” e investigador grupo “GICOGE”. Presidente de la empresa JHTA Inversiones, empresa del sector de transformación de la madera y director Sénior de la empresa SEIP LTDA. (Servicio de Ingeniería y Productividad). jatorres@udistrital.edu.co

52

52

Vol.14 No.1

Ingeniería

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


53

Consideraciones metodológicas para la síntesis automática de procesadores difusos en ANSI-C Resumen

Edgar Forero1 Edgar Garcia2 Miguel Melgarejo

3

Este documento presenta algunas consideraciones metodológicas para desarrollar una herramienta que genere automáticamente especificaciones de procesadores difusos, las cuales puedan ser implementadas en dispositivos de hardware empotrado. La descripción de las consideraciones se hace de manera general de tal modo que serviría de guía para desarrollar herramientas de síntesis automática de procesadores difusos sobre diferentes tecnologías hardware. Como caso específico se presenta una herramienta automática para generar código en lenguaje de programación ANSI C de modelos de procesadores difusos especificados en una herramienta de alto nivel. Además, se presentan algunos resultados prácticos obtenidos por medio de esta herramienta. Palabras clave: lógica difusa, procesadores difusos, hardware difuso, diseño electrónico automático, diseño asistido por computador.

Methodological considerations for automatic synthesis of fuzzy processors in ANSI-C Abstract This paper presents some methodological considerations for developing an automatic tool that generates specifications of fuzzy processors. Our considerations are presented generally so that they could guide the development of automatic tools for synthesizing fuzzy processors over different hardware technologies. Additionally, It is presented a particular case of an automatic tool that synthesizes fuzzy processors specified in a high-level description tool. Some practical results obtained by using this tool are presented and discussed.

1

2

3

53

C 1 Ingeniero electrónico Universidad Distrital FJC Ingeniero electrónico Universidad Distrital FJC Profesor asistente, Facultad de Ingeniería, Investigador, LAMIC Universidad Distrital FJC

Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

más de 40 años. En especial, la lógica difusa se utiliza en la industria desde hace varios años con resultados satisfactorios [1,2,3]. Es común que en el contexto de la lógica difusa se utilicen plataformas de cómputo especializadas para realizar las implementaciones, dando lugar al concepto de procesador difuso [3,4]. Los procesadores difusos están presentes en aplicaciones donde el consumo de potencia, la velocidad de procesamiento y el espacio ocupado son parámetros importantes [5]. En general, se utilizan plataformas hardware que cumplen con las especificaciones del problema. Sin embargo, la implementación de los procesadores difusos en estas es un proceso lento y costoso si se aborda manualmente [4,12-15]. Esta particularidad se debe a que el proceso de diseño e implementación requiere de desarrolladores con conocimientos en lógica difusa y que además sean especialistas en desarrollo de hardware. Lo anterior ocasiona que en aplicaciones, donde implementar un sistema difuso es una estrategia viable, se decida utilizar otra metodología, pues los costos se incrementan al necesitar mano de obra especializada y al elevar el tiempo de especificación de los sistemas. Al encontrarse actualmente algunas herramientas para la descripción de sistemas difusos [4], es evidente la posibilidad de desarrollar una herramienta que interprete los datos que se obtienen al realizar descripciones de sistemas difusos en alto nivel. Además esta interpretación permitiría realizar la generación automática de una especificación en un lenguaje de programación y que esta fuese llevada a un dispositivo hardware.

1. INTRODUCCIÓN

Por tanto, este trabajo busca presentar algunas consideraciones metodológicas para la síntesis automática de procesadores difusos en lenguaje ANSI C. En la formulación de estas consideraciones se toma como referencia el esquema general de un sistema difuso para proponer un modelo computacional de implementación. Luego, se describe cómo se puede sintetizar este modelo computacional en una especificación ANSI C a partir de un sistema difuso modelado por medio de una herramienta de diseño asistido.

Los sistemas difusos son una técnica de inteligencia computacional que se ha venido desarrollando por

En la actualidad es posible encontrar algunas herramientas que realizan síntesis automática de

Key words: Fuzzy Logic, Fuzzy processors, Fuzzy hardware, Electronic Design Automation, Computer Assisted Design.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

53


54

procesadores difusos [4,6]. Sin embargo estas fueron desarrolladas considerando casos específicos de plataformas hardware y no se aborda el problema con una propuesta general que pueda ser utilizada en la síntesis de procesadores difusos sobre diferentes plataformas hardware. El artículo está organizado como sigue: En la sección 2 se presenta el modelo computacional general para realizar la descripción de de los tres componentes de un sistema difuso. En la sección 3 se presentan las consideraciones metodológicas para generar automáticamente los componentes descritos en la sección 2. En la sección 4, como caso particular, se presenta una herramienta para la síntesis automática de sistemas de inferencia difusa en lenguaje ANSI C. Luego en la sección 5 se muestran y discuten algunos resultados prácticos obtenidos con la herramienta. Finalmente se dan algunas conclusiones y se comenta el trabajo en desarrollo en la sección 6.

Para la fusificación es necesario contar con las funciones de pertenencia de las entradas. Calcular una función de pertenencia tipo trapezoidal demanda el conocimiento de cuatro parámetros. Estos parámetros corresponden a los mostrados en la Figura 3. La función de pertenencia de tipo triangular es un caso especial de la función de pertenencia de tipo trapezoidal en donde los parámetros P2 y P3 son iguales. FUNCION DE PERTENENCIA TRIANGULAR

P1

P2

P3

P4

Figura 3. Parámetros que describen la función trapezoidal.

En el cálculo de los segmentos de recta que forman la función de pertenencia triangular se utilizan dos expresiones:

2. MODELO COMPUTACIONAL La estructura de un sistema difuso con fusificación y defusificación se presenta en la figura 1 [1-4]. El fusificador mapea valores puntuales en conjuntos difusos, luego el motor de inferencia se encarga de ejecutar una implicación de los conjuntos de entrada sobre los conjuntos de salida a partir de una base de reglas predefinida. Finalmente, el defusificador obtiene un valor puntual de salida a partir de la agregación de los conjuntos resultantes de la implicación.

R EGLAS Entrada

F USIFICADOR

conjuntos difusos de entrada

D EFUSIFICADOR

Salida

I NFERENCIA conjuntos difusos de salida

Figura 1. Esquema general de un sistema difuso tipo 1.

2.1. Fusificación Tal como se muestra en la Figura 2, en el proceso de fusificación se mapean valores puntuales en los conjuntos difusos que describen los universos discursos de las entradas. Las funciones de pertenencia ENTRADA I consideradas en este modelo computacional serán de tipo trapezoidal, mientras que la VALOR DE fusificación será de tipo PERTENENCIA singleton. Esto debido a que la combinación del los mismos conlleva a los más bajos costos de implementación independientemente de la Figura 2. Fusificación singleton empleada en el modelo computacional. plataforma de cómputo [4]. 54

Vol.14 No.1

Ingeniería

(1) (2) donde x es representa la variable de entrada a fusificar. Estas expresiones se evalúan dependiendo del intervalo en que se encuentre la variable con respecto a los cuatro parámetros que definen la función. Si el valor de la variable se encuentra entre P1 y P2, el valor de la función de pertenencia se calcula mediante la ecuación 1. Si el valor de la variable dentro del universo de discurso está entre P2 y P3, la función de pertenencia toma el valor de 1. Si el valor de la variable se encuentra entre P3 y P4, se utiliza la ecuación 2 para realizar el cálculo de la función de pertenencia en ese intervalo. En cualquier otro caso el valor de la función es cero. Por tanto, computacionalmente hablando, la fusificación singleton consiste en ubicar el valor puntual de entrada dentro del universo de discurso y aplicar luego el cálculo de la función de pertenencia para este punto a través de una rutina [5].

Figura 4. Algoritmo para la realización de un fusificador singlenton.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

54


55

El proceso de fusificación, por el método descrito anteriormente, se aplica a todas las funciones de pertenencia de todos los universos de discurso de las entradas, tal como se describe en el diagrama de flujo presentado en la Figura 4. De esta forma se obtienen todos los valores de pertenencia con los cuales operará el motor de inferencia que es la siguiente etapa en el modelo computacional. 2.2. Motor de inferencia El motor de inferencia se desarrolla a partir de las características encontradas en la literatura para motores de inferencia tipo Mandami [1-4]. Para modelar el motor de inferencia se propone un esquema basado en dos etapas: un proceso de implicación y un proceso de agregación. De esta manera, a la salida se obtiene un único conjunto difuso. Para la implicación y la agregación se emplea un algoritmo basado en sentencias condicionales “si” y bucles “para”.

En este modelo computacional se utiliza el método del centroide: Este método consiste en tomar la sumatoria de los valores del universo de discurso discretizado ponderados por el valor de pertenencia en cada uno de esos puntos. Este valor se divide entre la sumatoria del valor de pertenencia en los puntos del universo de discurso discretizado [1,2]. El conjunto difuso que se opera en el proceso de defusificación es el resultante de realizar la agregación de reglas en el proceso de inferencia. Se realiza un algoritmo, que se presenta en la figura 6, para evaluar estos valores siguiendo (3) Donde xi es el punto evaluado dentro del universo de discurso de la salida y m(xi) es el valor de pertenencia del conjunto difuso resultante.

En la implicación se direccionan los valores de pertenencia almacenados según lo especificado en la base de reglas, es decir, a partir de los antecedentes, consecuentes y conectores de cada regla se realiza la operación de mínimo o máximo según se requiera[2]. Además se necesita saber el grado de activación de cada función de pertenencia de acuerdo con la entrada del sistema. En la agregación se toman los conjuntos resultantes de evaluar cada una de las reglas y se realiza una operación máximo entre ellos. Los conjuntos involucrados en esta operación dependen de las reglas que se activen en el proceso de implicación. El resultado de este proceso es un único conjunto de salida, el cual es la entrada al proceso de defusificación. La figura 5 muestra de manera resumida este proceso. Figura 6. Algoritmo de defusificación.

3. CONSIDERACIONES METODOLÓGICAS PARA LA SÍNTESIS AUTOMÁTICA DE PROCESADORES DIFUSOS

Figura 5. Representación del proceso de implicación y agregación.

55

2.3. Defusificación La defusificación es el mapeo de un conjunto difuso a un valor puntual [1]. Existen varios métodos para realizar la defusificación en un sistema difuso [1-4].

3.1. Consideraciones generales Para generar automáticamente especificaciones de sistemas difusos en un lenguaje de programación, se propone inicialmente especificar una estructura general que represente el modelo computacional de un sistema difuso. La estructura del modelo computacional de los módulos para la fusificación, inferencia y defusificación se considera como un

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

55


56

modelo estático. Esto es general e independiente para cualquier sistema, pues siempre se tiene la misma estructura que va a interpretar y procesar los datos para generar una especificación en un lenguaje de programación. Se presenta dinamismo al considerar los sistemas de entrada, puesto que las características particulares de cada sistema difuso a trabajar son diferentes. Esto no cambia el modelo computacional como tal, sin embargo, dependiendo de estas características el desempeño en tiempo y ocupación de memoria del modelo varían. Al tener este modelo, es necesario especificar las variables que se necesitan en cada etapa. Inicialmente se utiliza una herramienta de descripción de sistemas difusos de alto nivel para modelar el sistema de interés. Es necesario que esta herramienta permita la descripción de los sistemas de acuerdo con las características y limitaciones que hayan sido establecidas. De esta descripción se obtiene una especificación que contiene todas las características del sistema difuso descrito y los datos necesarios para realizar la síntesis automática. Las variables especificadas dependen de los datos adquiridos del modelo desarrollado en la herramienta de alto nivel y los tipos de datos se conocen dependiendo de las características del sistema difuso que se esté trabajando. Para el proceso de generación automática que se plantea, se debe en primer lugar extraer los parámetros de la especificación en alto nivel de manera correcta. Para esto se necesita interpretar la estructura de la especificación y ubicar todos los parámetros necesarios. Luego se deben generar todas las variables que se van a utilizar en el algoritmo. Estas variables definen el sistema difuso dando características de las entradas y salidas, de los operadores difusos utilizados, del tipo de funciones de pertenencia, de la base de reglas, del tipo de fusificación, etc. El tamaño y tipo de estas variables se especifica de acuerdo con los valores extraídos en la especificación de alto nivel. Un esquema que representa las etapas y los elementos necesarios se presenta en la figura 7. Cuando se consideran lenguajes de programación de plataformas hardware, es necesario realizar la generación de sentencias que sean características del lenguaje y variables que se utilizan en el cuerpo de un programa estándar, pero que no son propias del procesador que se quiere generar. Por ejemplo, los archivos cabecera necesarios para el uso de bibliotecas, variables de configuración de puertos, etc. Esta consideración varía dependiendo del tipo de hardware al que se enfoque el desarrollo. Inclusive, si son plataformas con un mismo lenguaje de programación, en general la configuración del dispositivo cambia dependiendo del fabricante [16,17]. 56

Vol.14 No.1

Ingeniería

Rango U.D. Parámetros No. M.F. No. Entradas No. Entradas

Fusificador

Motor de Inferencia

Agregación Implicación Interpretación Vec. entrada de la base de Conectores reglas Consecuentes Antecedentes

Defusificador

Figura 7. Componentes generados automáticamente y datos necesarios.

3.2. Propuesta de síntesis automática Aquí se propone realizar la especificación del fusificador de la siguiente manera: Se generan las variables necesarias para calcular las funciones de pertenencia de entradas y salidas del sistema difuso. Luego se procesan estas variables y se generan las funciones de pertenencia mediante el modelo presentado en la segunda sección de este documento. Para esto se utiliza un módulo generador de funciones de pertenencia para las entradas y las salidas. El módulo de generación de funciones de pertenencia trabaja como sigue: Inicialmente se toman los valores referentes a las entradas y las salidas del sistema difuso. Estos valores son para cada entrada o salida, universo de discurso, número de funciones de pertenencia y parámetros de cada una de estas funciones. El resultado del generador es un código que calcula las funciones de pertenencia de acuerdo con los parámetros de entrada. Para realizar la síntesis de las funciones de pertenencia de la entrada se especifican dos rutinas. Una exterior que referencia al número de entrada que se está trabajando y otra interior que referencia la función de pertenencia que se está calculando. Lo mismo se hace para generar las funciones de pertenencia en las variables de salida. En la síntesis del motor de inferencia se sigue el método descrito en la sección dos de este documento. Para la generación de este módulo no es necesario conocer la arquitectura del dispositivo hardware en donde va a ser empotrado el procesador. Esto debido a que se busca un modelo general de generación automática y el entrar en detalles de la arquitectura del hardware particulariza el modelo. El motor de inferencia se reduce a la generación de un código que siga el modelo planteado. Este modelo se basa en sentencias de bajo nivel encontradas en los lenguajes de programación utilizados en varías familias de procesadores [16,17]. En la defusificación se genera

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

56


57

automáticamente el algoritmo que se presenta en la sección dos para el cálculo del centroide.

4. HERRAMIENTAS PARA LA GENERACIÓN AUTOMÁTICA DE SISTEMAS DIFUSOS EN ANSI-C Como caso específico de aplicación de las consideraciones metodológicas descritas, se describe una herramienta de síntesis automática de procesadores difusos en ANSI C, considerando lo siguiente: una caja de herramientas para sistemas difusos se utiliza como interfase de especificación de sistemas difusos de alto nivel. Esta plataforma igualmente se utiliza para hacer la especificación de la herramienta de generación automática. Finalmente se escoge generar código ANSI C, el cual es un lenguaje de programación utilizado en varias tecnologías que se encuentran en el mercado como micro controladores y procesadores digitales de señales [11,16]. Para realizar esto, inicialmente se realiza la generación automática de sistemas difusos en lenguaje de especificación alto nivel. Luego se utilizó el modelo computacional descrito para generar especificaciones en C. La generación automática de los sistemas difusos, se realizó utilizando comandos especiales de la plataforma empleada para este propósito [8]. La tabla 1 muestra las características de la herramienta. Las restricciones del número de entradas, salidas y reglas dependen del hardware donde se proyecte la implementación. Tabla I. Características de la herramienta de generación de código ANSI-C. Fusificación

singlenton

Numero entradas

Sin restriccion

Numero de reglas Sin restriccion

Numero de salidas Sin restriccion

Resolución

Tipo de funciones Trapezoidales

32 bits

defusificacion

Centro de gravedad Implicacion

Tipo de datos

Float

1) Se describe un sistema difuso con la herramienta de especificación de alto nivel. 2) Se genera automáticamente el modelo en C con la herramienta desarrollada. 3) Se mide el tiempo de síntesis para 1000 generaciones del mismo sistema. 4) Se evalúan los dos sistemas difusos en distintos puntos sobre todo el universo discurso. Para el caso en que los sistemas de interés tengan más de dos entradas, solo se toman dos de ellas para la realización del proceso de validación. 5) Luego se normaliza el universo de discurso [UDN] de salida del sistema difuso al intervalo [0 1]. 6) Finalmente se calcula el error cuadrático medio [ECM] de los valores de salida entregados por la herramienta para generar la especificación C con respecto a los valores de salida entregados por la caja de herramientas de sistemas difusos. Para los casos de interés, el ECM se halló mediante (5). (4) donde, Xf (i1,i2) es el valor de salida del sistema difuso realizado en la caja de herramientas de sistemas difusos para los valores de i1,i2, Xc (i1,i2) es el valor de salida del sistema difuso realizado con la herramienta de síntesis automática para los valores de i1,i2 y n1,n2son el número de puntos evaluados para la entrada 1 y 2 respectivamente. 5.2. Resultados La tabla 2 muestra el error cuadrático medio, el error cuadrático medio con el universo de discurso de la salida normalizado y los tiempos de síntesis de algunos sistemas considerados.

Mandami max-min

5. RESULTADOS Para validar la herramienta se especificaron algunos sistemas difusos en la caja de herramientas de sistemas difusos de la plataforma de desarrollo. Luego de esto se utilizó la herramienta para generar la especificación C de tales sistemas. Finalmente, se evaluaron los sistemas, el especificado en la caja de herramientas y el generado automáticamente comparándose los resultados.

57

la siguiente manera:

5.1. Metodología de la validación Se realizaron algunos experimentos para validar la herramienta desarrollada con las consideraciones propuestas en este trabajo. Cada prueba se realizó de

Al considerar cada aplicación referenciada para validar la herramienta se observa que el error obtenido con respecto a la simulación realizada no es significativo. Esto se constata si se compara una desviación de la magnitud del error en el valor de salida del sistema. El tiempo de síntesis varía de sistema en sistema pues depende del número de reglas y de funciones de pertenencia de todo el sistema. Además el Tabla II. Resultados validación de la herramienta, donde (a). Sistema de posicionamiento de un vehículo [1], (b) Controlador de un generador síncrono [9], (c) Predictor de serie de tiempo caótica [1], (d) Tratamiento de aguas residuales [10]. Sis. No. entradas

No. salidas

ECM reglas

ECM

UDM

Tiempo de síntesis del sistema Valor Medio[s] Desviación estándar[s]

a

2

1

27

b

2

1

49

2.23E-10

3.49E-14

0.022262

0.0038

2.105E-13

2.33E-14

0.0273895

c d

4 2

1 2

57 25

0.0062

3.83E-7 1.78E-10

1.288E-7 1.306E-15

0.0344045 0.022798

0.0046 0.0047

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

57


58

computador donde se realiza la generación también influye. El tiempo de generación presentado en la tabla 2 fue el resultado de generar mil veces el mismo sistema, tomar el tiempo implementado y dividir el resultado entre mil. Se realizó de esta manera con el fin de tener una validación estadística del tiempo de síntesis.

6. CONCLUSIONES Se presentaron algunas consideraciones metodológicas acerca del desarrollo de herramientas para la síntesis automática de sistemas difusos a partir de una descripción en un lenguaje de alto nivel. Se tuvieron en cuenta estas consideraciones para desarrollar una herramienta de generación automática de procesadores difusos en lenguaje de programación ANSI C. Con la creación de una herramienta para la síntesis automática de sistemas difusos en procesadores comerciales, se reduce de manera significativa el tiempo, la complejidad y los costos en la implementación de este tipo de sistemas. Es por esto que se hace posible el uso de la herramienta en aplicaciones industriales y académicas. Actualmente, la herramienta se está extendiendo para generar código C adaptado a la arquitectura varias arquitecturas de procesadores comerciales de bajo costo[16]. El propósito a largo plazo es integrar la mayor cantidad de arquitecturas posibles en un único entorno de desarrollo de síntesis automática.

[9] J. Brock , “Design and implementation of a fuzzy logic-based voltage controller for voltage regulation of a synchronous generator”, Technical Report, Montana State University. 2004. [10] O. Pires et al ,”A fuzzy-logic based expert system for diagnosis and control of an integrated wastewater treatment”, Proceedings of the 2nd Mercosur Congress on Chemical Engineering – ENPROMER and 4th Mercosur Congress on Process Systems Engineering , Rio de Janeiro, 2005 [11] M. Brand and A. Massa, Programming embedded systems with C and GNU tools, 2nd edition, O’Reilly, 2006. [12] R. Rovatti, “High Speed Implementation picewise – quadratic Takagi-Sugeno System with memory saving”, in proc. IEEE Int. Conference on Fuzzy Systems, comunicaions and Computers, pp 6451 – 6454. Athenas, 1999. [13] R. Rovatti, M. Vittuari, “Linear and Fuzzy piecewise – linear signal processing with an extended DSP archictecture”, in proc. IEEE Int. Conference on Fuzzy System, pp 1082 – 1087, Anchorage, 1998. [14] A. Gaona, D. Olea and M. Melgarejo, “Sequential Fuzzy Inference system Based on distributed Arithmetic”, International simposium on computacional Inteligence for Messurement system and Alications, Lugano, Switzrland, 2003, PP 125 – 129. [15] A. Gaona, D. Olea and M. Melgarejo, “Distributed Arithmetic in the Desing of High Speed Hardware Fuzzy Inference System”, 22nd International Conference of the North American Fuzzy Information Processing Society – NAFIPS, 2003, p. 116 – 120. [16] Z. Camelo, F. Tellez y M. Melgarejo,” Modelo computacional de inferencia difusa para la arquitectura DSPIC33F”, ·3rd IEEE Colombian Workshop on Circuits and Systems CWCAS´09, Bogota, Colombia, 2009.

Edgar Forero Ingeniero Electrónico de la Universidad Distrital Francisco José de Caldas (2008). Líder de la línea de tecnologías Virtuales orientadas a el desarrollo de aplicaciones para televisión digital y desarrollo de sistemas mediante el uso de inteligencia artificial en TecnoParque Colombia nodo Central. Paralelamente se desempeña como CTO de network TV, una empresa que realiza soluciones de televisión sobre plataformas WEB. eforero@sena.edu.co

REFERENCIAS BIBLIOGRÁFICAS

Edgar García

[1] L. X. Wang, A course in Fuzzy Systems and Control, Prentice Hall, 1997.

Ingeniero Electrónico de la Universidad Distrital Francisco José de Caldas (2008). Se desempeña actualmente como ingeniero de automatización y control para la empresa RAYCO LTDA.

[2] R. Babuska, Fuzzy modeling for control, Kluwer academics, 1998. [3] J. Mendel, Uncertain rule based fuzzy logic systems, Prentice Hall, 2000. [4] A. Baturone, S. Barriga, S.Sanchez, C. Jimenez and D. Lopez, Microelectronic Design of Fuzzy Logic-Based Systems, CRC Press, 2000 [5] M. Melgarejo y C. Peña, Implementing interval type-2 fuzzy processors, IEEE computacional Intelligence Magazine, Vol 2 No 1, Feb. 2007, pp 63-72. [6] Instituto de Microelectrónica de Sevilla , XFUZZ, http:// www.imse.cnm.es/Xfuzzy/Xfuzzy_3.0/xfl/packages_sp.html. [7] C. H. Chen, Fuzzy Logic and Neural Networks Handbook , McGrawHill, 1996, pp. 23.12. [8] A. Gaona y D. Olea, Desarrollo de un Sistema de Inferencia Difusa Sobre FPGA, Universidad Distrital FJC, 2003.

Miguel Melgarejo Ingeniero electrónico de la Univerisdad distrital Francisco José de Caldas, Magister en Ingeniería electrónica y computadores, de la Universidad de los Andes, Bogotá Colombia. Ha sido investigador del Centro de Microelectrónica de la Universidad de los Andes, Colombia e investigador invitado del Logic Systems Laboratory de la Ecolé Polytechnique Federale de Lausanne, Suiza. Actualmente es profesor asistente de la facultad de ingeniería de la Universidad Distrital Francisco José de Caldas, Colombia e investigador del Laboratorio de Automática, Microelectrónica e Inteligencia Computacional (LAMIC) en la misma universidad. Ha publicado 45 artículos técnicos y dos capítulos de libro. mmelgarejo@udistrital.edu.co

58

58

Vol.14 No.1

Ingeniería

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS


59

Integración de Repositorios Digitales para la Gestión del Conocimiento en el ámbito universitario Colombiano Luís Eduardo Cano Olivera 1 Pedro Enrique Espitia Zambrano 2 José Nelson Pérez Castillo 3 Luis Joyanes Aguilar 4

1

2

Doctorando en Informática de la Universidad Pontificia de Salamanca, España. Miembro del Grupo de Investigación GICOGE. Consultor en Branding del Tecnológico de Monterrey sede Colombia. Estudiante de Doctorado en Informática de la Universidad Pontificia de Salamanca de España. Miembro del grupo de Investigación en Tráfico Inteligente y Seguridad Ciudadana.

3

PhD. en Informática Universidad de Oviedo. Profesor Universidad Distrital, Facultad de Ingeniería. Investigador principal Grupo de Investigación GICOGE.

4

PhD. en Informática de la Universidad de Oviedo. PhD. en Ciencias Políticas y Sociología de la Universidad Pontifica de Salamanca. Miembro del grupo GICOGE. Director del grupo de investigación: Ingeniería del Software y Sociedad de la Información y el Conocimiento, Universidad Pontificia de Salamanca.

59 Artículo recibido en Junio de 2008, aprobado para publicación en Agosto de 2008

Resumen Este artículo presenta los pasos para realizar los cambios de integración y migración de información de los repositorios digitales en diversas plataformas de código abierto (Open Source) con el fin de garantizar la estandarización de las soluciones informáticas propias de las Instituciones de Educación Superior (IES). Además de mejorar el acceso a la aplicación impendiendo que personas no autorizadas a la IES se registren dentro del sistema. Adición a este problema, existe el que se viene presentando dentro de las Tecnologías de la Información y las Comunicaciones (TICs), con el auge de información que es registrada segundo a segundo a nivel mundial por el fenómeno de la Web 2.0 [9]. Información que en la mayoría de los casos no puede ser reutilizada tanto por centros de investigación y/o sector académico al no existir adecuadas herramientas informáticas que permitan centralizar la gestión del conocimiento en un determinado sitio y de manera especializada según los diferentes Núcleos Básicos del Conocimiento (NBC) que existen dentro del sector educativo [5], sin olvidar además los costos en las licencias de software que puedan existir. Pese a que los movimientos del software libre [6][7] y del código abierto [8], los que no se deben confundir, hayan suministrado algunas herramientas informáticas para la gestión del conocimiento; en la mayoría de los casos estas herramientas no se pueden integrar entre sí con otros sistemas de información que tenga una IES, debido a la poca documentación que existe y/o a la especificación única dada a un determinado lenguaje de programación y/o motor de base de datos y/o plataforma tecnológica con que fueron desarrollados, entre otros. Obligando a que en una determinada IES tenga que realizar diferentes implementaciones descentralizadas con información redundante en sus sistemas de información, sin que éstas estén sincronizadas con otras soluciones informáticas que tenga la misma institución. Palabras clave: Conocimiento, Repositorio Digital, Sistema de Información, Software Libre, Software Código Abierto, Biblioteca Digital, Objetos de Aprendizaje, Institución de Educación Superior.

Integration of Digital Repositories for the Knowledge Management in the Colombian University Ambience Abstract This article presents the steps to realize the changes of integration and migration of information of digital repositories in different platforms of Open Source (Open Source) in order to guarantee the standardization of any proper informatic solutions of the Universities of High School (UHS). In addition to improving the access to the application preventing persons not authorized to the UHS from registering inside the system. Addition to this problem, it exists the one that has appearing inside the Information Technologies and the Communications (ITCs), with the heyday of information that is registered second to second on a global scale by the phenomenon of the Web 2.0 [9]. Information that in most cases cannot be re-used so much by research centers and/or academic sector after there did not exist suitable informatic tools that allow to centralize the knowledge management in a certain place and of way specialized according to the different Basic Nuclei of the Knowledge (BNK) that exist inside the educational sector [5], without forgetting also the costs in the licenses of software that could exist. Although the movements of the free software [6] 7] and with the open source [8], which must not make a mistake, they have provided some informatic tools for the knowledge management; in most cases this tools cannot integrate between themselves with other information systems who has an UHS, due to few documentation that exists and/or to the only specification started to a certain computer language and/or engine of database and/or technological platform with which they were developed, between others. Forcing that in a certain UHS has to realize different implementations decentralized with redundant information in his information systems, without these being synchronized with other informatic solutions that the same institution has. Key words: Knowledge, Digital Repository, Information System, Free Software, Open Source Software, Digital Library, Objects of Learning, University High School.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

59


60

1. INTRODUCCIÓN En el desarrollo de los programas académicos y de los centros de investigación que ofrecen las Instituciones de Educación Superior (IES), se generan constantemente muchos datos, resultado de proyectos de investigación, trabajos, monografías y tesis, entre otros. Sin olvidar que de toda esta cantidad de datos, se establece que entre un 60% y 70% se convierten en información y que de este rango, sólo entre un 5% y 15% se convierte en verdadero conocimiento. También se destaca, que de ese porcentaje de datos, en su mayoría desconocido por muchos sectores, conlleva a que se repitan y/o dupliquen una y otra vez en diferentes proyectos con diferentes nombres los mismos contenidos, presentando estancamiento en la Gestión del Conocimiento. Es en este sentido que surge la pregunta, ¿En dónde puede existir un sistema dentro del sector educativo de consulta de resultados y/o avances de proyectos ya sean fallidos y/o exitosos, para que se tomen como referencia para nuevos prototipos y/o proyectos de investigación? La respuesta es objetiva, dentro del

sector bibliotecario de una IES, el cual, está encargado de almacenar y gestionar toda la producción intelectual que le llegue, con un pequeño inconveniente detectado y es que ésta no queda digitalizada sino en físico. Además, si le agregamos el factor de desplazamiento geográfico, se puede deducir que alguien interesado en un tópico diferente no puede tener acceso a la información de su interés y tendría que empezar desde cero sus estudios sin poder reutilizar los resultados previos al área de interés de cualquier investigador.

Figura 1. Generación de información valiosa de acceso colectivo. Fuente: adaptada por los autores. 60

Vol.14 No.1

Ingeniería

En razón a ello, ha surgido una solución para este tipo de situaciones proveniente de las Tecnologías de la Información y las Comunicaciones (TICs) conocidas como Repositorios, algunos de licencia propietaria (Copyright) y otros de software libre (GPL) o de código abierto (Open Source), los cuales no se deben confundir entre sí, siendo una alternativa para las IES que quieran incursionan en este campo de acción, pero que por sus características técnicas, no son fáciles de integrar con otro tipo de Sistemas de Información (SI). En éste escrito se explica metódicamente, cómo pueden las IES enfrentar estos

inconvenientes, independiente de las características técnicas y/o lógicas que tengan dichas soluciones informáticas para el manejo de los Repositorios.

2. DIFERENCIANDO DATOS, INFORMACIÓN, CONOCIMIENTO Y GESTIÓN DEL CONOCIMIENTO Es importante puntualizar en los conceptos de: datos, información, conocimiento y gestión del conocimiento y cómo están relacionados entre sí, en vista a que se presenta confusión entre estos conceptos llevando a una mala interpretación de los mismos y afectando en última instancia los resultados obtenidos en cualquier implementación que se desarrolle. 2.1. Dato: Se conoce como una representación simbólica (que puede ser numérica, alfabética, algorítmica etc.), un atributo o una característica de una entidad, el cual, no tiene un valor semántico (es decir, sentido) en sí mismo y que son generadas por las personas. En informática, se dice además, que el dato se encuentra dispuesto de una manera adecuada para su tratamiento por un determinado computador. [1][3][4][34]. Convirtiéndose en la base de la información. 2.2. Información: Se ha definido como un conjunto de datos que son procesados de una manera organizada y con un determinado sentido semántico, constituyendo un mensaje sobre un ente o entidad. [1][3][4][34]. 2.3. Conocimiento: Surge a partir del análisis y uso productivo de la misma información, definiéndolo en última instancia como el conjunto organizado de datos e información que permiten resolver un determinado problema o tomar una decisión (es decir, un conocimiento “accionable”). [1][3][4][34]. 2.4. Gestión del Conocimiento: Se ha definido como un proceso tanto cultural como tecnológico, que busca captar y transformar el conocimiento individual para sistematizarlo y convertirlo en información valiosa de acceso colectivo. [1][3][4] Ver Figura 1.

3. IMPORTANCIA DE LA EDUCACIÓN, LAS UNIVERSIDADES Y LOS NÚCLEOS BÁSICOS DEL CONOCIMIENTO Otros actores a tener en cuenta en este proceso, son aquellos que determinan las directrices de la educación dentro de los programas de formación profesional ofrecidos como son las Instituciones de

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

60


61

Educación Superior (IES), y que se fundamentan en las diferentes categorías existentes de los Núcleos Básicos del Conocimiento (NBC) [5] suministrados por el Ministerio de Educación Nacional (MEN)[5], para analizar el proceso de formación de la educación nacional en Colombia. Los “Núcleos Básicos del Conocimiento” (NBC), consisten en la afinidad que tengan en los contenidos programáticos y los campos específicos del conocimiento existentes. En total existen 55 NBC, entre los que se destacan: Economía-AdministraciónContaduría y afines, la Ingeniería-Urbanismo y afines, las Ciencias Sociales y Humanas, la AgronomíaVeterinaria y afines y la Matemáticas y Ciencias Naturales, según las estadísticas suministradas por el mismo MEN. [5] Esta categorización de los NBC, ha facilitado el aprendizaje y fortalecimiento de grupos de investigación, semilleros de investigación, comunidades especializadas multidisciplinarias y del sector educativo en general. Pero para que se pueda realizar una congruente Gestión del Conocimiento, se necesita la implementación de tecnologías basadas en repositorios digitales, las cuales están siendo implementadas en Colombia a través de una herramienta de código abierto para repositorios como lo es DSPACE [21] con un 92% de aceptación, pese a que existen otras en el mercado. Necesidades que en Colombia han sido analizadas y adoptadas por las siguientes IES: Corporación Universitaria Lasallista [36], Corporación Universitaria Minuto de Dios. [37], E-medicina fetal [38], Instituto Interamericano de Cooperación para la Agricultura IICA oficina en Colombia.[39], Universidad Autónoma de Occidente [40], Universidad de Antioquia (UdeA) [41], Universidad de la Salle [42], Universidad de los Andes [43], Universidad del Rosario [44], Universidad ICESI [45], Universidad Nacional de Colombia [46] y Universidad Nacional Abierta y a Distancia de Colombia (UNAD)[47]. Ver figuras 2 y 3. Y le sigue en segundo lugar, SciELO [52], un modelo para la publicación electrónica cooperativa de revistas científicas en Internet con un 8%, adoptada en la actualidad por la Universidad Nacional de Colombia [46]. (Ver Figura 4).

61

Figura 2 .Estadísticas en Colombia sobre Repositorios por el tipo de Contenido. Tomado de OpenDoar [35].

Figura 3. Estadísticas en Colombia sobre el crecimiento de base de datos sobre Repositorios del 2006 al 2009. Tomado de OpenDoar [35]

Figura 4. Estadísticas sobre el software para repositorio más utilizado en Colombia. Tomado de OpenDoar [35].

4. SISTEMAS DE INFORMACIÓN (SI) Y REPOSITORIOS 4.1. Sistema de Información Cuando se habla de un “Sistema de Información”(SI) se nos viene a la mente, el conjunto de elementos que están orientados al tratamiento y la administración de los datos y la información, los cuales, ayudan en la generación de nuevo conocimiento, de acuerdo a su propósito. Debido al crecimiento en datos e información procesados por los sistemas de información para que puedan ser consultados de manera centralizada, ha surgido el concepto de repositorios. 4.2. Repositorio Un “repositorio, depósito o archivo” se ha definido como un sitio centralizado donde se almacena y mantiene la información digital, habitualmente en bases de datos o archivos informáticos. En el latín original, la palabra repositorium significa armario o alacena. El inglés la asume como repository y el castellano como repositorio. El término se usa actualmente para definir los archivos abiertos, de ámbito institucional y de acceso público, que almacenan trabajos en soporte digital. [57]. El Diccionario de la lengua española de la Real Academia Española de 2001, incluye la palabra repositorio como: “lugar donde se guarda una cosa”. La última edición

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

61


62

del Diccionario Collins universal de 2005 la traduce como: “depósito”.[58]. En vista de este significado el imaginario colectivo suele hacerse a la idea mental de un depósito como un almacén o armario donde se puede guardar algo. La palabra repositorio en este contexto connota a algo archivado, escondido, inmovilizado; recuerda algo antiguo y pasado de moda. [57]. Todo ello inconsciente, que podría agregarse a los doce factores que apunta Alice Keefer (2007) que explican la resistencia de muchos autores a incluir sus producciones intelectuales en los repositorios. [59]. Estas apreciaciones quedan lejos del dinamismo que la palabra le exige al significado moderno, que hace referencia a un espacio institucional, dinámico, donde se puede incluir un documento con la certeza de que quedará a disposición de un abanico amplio de usuarios. Es así que los “depósitos” están preparados para distribuirse habitualmente sirviéndose de una red informática como Internet o en un medio físico de información digital. Y pueden ser de acceso público, o pueden estar protegidos y necesitar de una autentificación previa. Los depósitos más conocidos son los de carácter académico e institucional. A diferencia de los computadores personales (PCs), los depósitos suelen contar con sistemas de Backup y mantenimiento preventivo y correctivo, lo que hace que la información se pueda recuperar en el caso de que una máquina o PC quede inutilizable. Los depósitos se utilizan de forma intensiva en el sistema operativo GNU-Linux, almacenando, en su mayoría paquetes de software disponibles para su instalación mediante un gestor de paquetes. 4.3. Clasificación de Repositorios: Dentro de los repositorios han surgido los siguientes, de acuerdo al enfoque al que están dirigidos: 4.3.1. Repositorio Digital (RD):

Un sistema en red formado por hardware, software, data y procedimientos que: • Contiene objetos digitales (OD). • Contiene metadatos. • Asegura la identificación persistente del objeto mediante un identificador único persistente. • Ofrece funciones de gestión, archivo y preservación de los objetos. • Proporciona un acceso fácil, controlado y estandarizado a los objetos. • Ofrece los sistemas adecuados de seguridad para los objetos y los metadatos. • Sostenible en el tiempo.

62

Vol.14 No.1

Ingeniería

• • • • •

El contenido del RD permite que se conserve: Patrimonio cultural de las organizaciones Repositorios académicos Documentos de organizaciones gubernamentales Literatura gris Documentos, folletos, boletines, presentaciones, conferencias y otros tipos de materiales.

4.3.2. Repositorio de Objetos de Aprendizaje (ROA)

Son un catálogo electrónico/digital que facilita las búsquedas en Internet de objetos digitales para el aprendizaje. [13]. Se caracteriza porque tienen: • Búsqueda • Recuperación/Descarga • Almacenamiento • Publicación • Colectación

Figura 5. Representación de un ROA

4.3.3. Repositorio Temático (RT)

El RT reúne sus contenidos en función de su área temática, no por su origen institucional (ej.Arxiv) en torno a una disciplina científica o disciplinas relacionadas. 4.3.4. Repositorio Institucional (RI):

Es aquel creado, mantenido y autorizado por una Institución (no exclusivamente una Universidad) o un grupo de Instituciones, que recoge los contenidos digitales generados por la actividad de los miembros de esa Institución. [49]. La organización SPARC [50] define los Repositorios Institucionales como sigue: • Pertenecen a una institución • Son de ámbito académico. • Son acumulativos y perpetuos. • Son abiertos e interactivos. Clifford Lynch, refiriéndose al ámbito universitario define el repositorio institucional como “un conjunto de servicios que una Institución ofrece a su comunidad para la gestión, y difusión de los contenidos digitales generados por los miembros de esa comunidad. Es, en su nivel más básico, un compromiso organizativo para el control de esos materiales digitales, incluyendo su preservación, su organización, acceso y distribución” [48]. El tipo de contenido que puede manejar el RI es: • Documentos “textuales”: libros, tesis, pre-prints, artículos de libros, ponencias, documentos de trabajo, informes técnicos, revistas, entre otros. • Objetos de aprendizaje (OA) • Software • Imágenes, estáticas y en movimiento

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

62


63

• • • • •

Aplicaciones Multimedia Simulaciones Páginas web Blogs Posters, presentaciones , diapositivas, entre otros.

4.3.5. Repositorio Académico (RA)

Reúne únicamente los documentos resultantes de la actividad académica de los miembros de una IES, en concreto los proyectos fin de carrera, grado, monografías, máster o doctorado. 4.4. Software para Repositorios Digitales De acuerdo al tipo de licenciamiento, se han desarrollado aplicaciones para Repositorios, destacándose las siguientes: 1. Con licenciamiento comercial (Copyright): Existen: • CONTENTdm [14] • Digital Commons [15] • DigiTool [16] • EQUELLA [17] • intraLibrary [18] • Open Repository [19] • VITAL [20] Aunque tengan buenas características, entre las desventajas presentan están el costo por licenciamiento. Además, de que el código fuente es cerrado y con restricciones, por lo tanto no se pueden integrar con otros sistemas de información. Dependen de un solo proveedor en el aplicativo, y si se quiere integrar con otras soluciones informáticas, las IES deben pagar por dicha implementación. 2. Con licenciamiento Freeware: Existe: • Zentity de Microsoft[29] Aunque este tipo de software sea gratis, es decir, no se pague por el licenciamiento y su uso sea ilimitado, la desventaja es que el código es cerrado siendo difícil de integrar con otras soluciones informáticas. Además que dependen de una sola plataforma tecnológica como lo puede ser el Sistema Operativo Windows sin ser multiplataforma.

63

3. Con licenciamiento Código Abierto (Open Source): Existen: • DSpace [21] • E-Prints [22] • Fedora Commons [23] • Greenstone[24] • CDSware [25] • Connexions [26] • PlanetDR [27] • DOOR [28] Se caracterizan porque el software está orientado a los beneficios prácticos de compartir el código, dando

a los usuarios la libertad de mejorarlos [8], además que no contempla restricciones sobre su uso o modificación y que no se deben confundir con el software de licenciamiento libre. [6][7]. Este último grupo de licenciamiento, es el que corresponde al enfoque del presente escrito.

5. COMPARACIÓN ENTRE LOS PROGRAMAS PARA ROAS DE CÓDIGO ABIERTO El sitio Repositories Support Project (RSP) [10] realizó una encuesta sobre los once (11) repositorios más utilizados a nivel mundial en Marzo del 2009 [30]. Analizando las características fundamentales de cada software incluyendo aspectos como: los tipos de ítems que soporta, interface de usuario, validación de usuarios, plataformas de software, interoperabilidad, funciones de administrador, ayuda, documentación y servicios. [30]

Figura 6 Comparación de diferentes herramientas para repositorios. Fuente RSP [10]

De ese estudio hemos tomando como referencia únicamente los programas de Open Source: DSpace, Eprints, Fedora Commons y PlanetDR, constituyéndolos en el objeto de estudio del presente documento. De estas herramientas nos concentraremos únicamente en aquellas características que son vitales para la integración de los repositorios con los sistemas de información ó que tiene algún tipo de incidencia al respecto: 5.1. Validación del Usuario: a) El registro es necesario en estas aplicaciones, estando implementado de manera estándar a excepción de Fedora Commons que no lo contempla. En DSpace, el usuario es el correo electrónico, y no permite a múltiples usuarios usar la misma dirección de correo electrónico. Siendo una desventaja porque un usuario se puede registrar varias veces con cuentas de correo diferentes. El sistema provee una característica de recordatorio de contraseña. En cambio, con las aplicaciones de los Eprints, Fedora Commons y PlanetDR, el sistema requiere un usuario y contraseña para registrarse, además una

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

63


64

dirección de correo electrónico para utilizarla en caso de que su contraseña sea olvidada. Varios usuarios pueden usar la misma dirección de correo electrónico, siendo un inconveniente porque no se puede garantizar el acceso de un usuario único con una sola cuenta de correo única, con el agravante de suplantación de identidad. b) Contemplación de la utilización LDAP (Lightweight Directory Access Protocol, Protocolo Ligero de Acceso a Directorios), que consiste en almacenar la información de autenticación (usuario y contraseña) para autenticarse aunque sea posible almacenar otro tipo de información (datos de contacto del usuario, ubicación de diversos recursos de la red, permisos, certificados, etc). La aplicación que lo utiliza de manera estándar es Eprints siendo opcional en las otras. c) Utilización de la autenticación Atheans (Atenas): Contempla un mecanismo de autenticación para conceder el acceso a la información en línea de los servicios electrónicos (recursos digitales) adquiridos por una IES. d) Utilización de la autenticación Shiboleth: Es empleada para resolver las necesidades de cada organización para el intercambio de información sobre sus usuarios de manera segura. A través de la arquitectura Shibboleth, cada aplicación solicita la autentificación de los usuarios y los autoriza para usar funciones específicas o hacer búsquedas que utilicen recursos específicos para quienes estén autorizados. Esta herramienta viene incluida para ser habilitada de manera opcional en las aplicaciones de estudio. e) No contienen módulos para facilitar la administración de usuarios y contraseñas de manera automática o para importarlos de otros Sistemas de Información: Pese a que estos sistemas informáticos de repositorios digitales tienen buenas estructuras en seguridad manejando algoritmos de encriptación de contraseñas como MD5, no cuentan con un mecanismo que permita migrar y/o importar los usuarios y contraseñas que maneja un aplicación propia de la IES, y registrarlos dentro de las mismas aplicaciones de repositorios, obligando a cada persona que se tenga que registrar en dicho sistema, las veces que quiera o sea necesario de acuerdo al número de comunidades a las que desee acceder. 5.2. Plataforma Tecnológica a) Sistema Operativo: Estas soluciones funcionan de manera monoplataforma o multiplataforma. Siendo recomendable el uso de aquellas que sean multiplataforma, con el fin de ahorrar costos a las IES 64

Vol.14 No.1

Ingeniería

que estén trabajando en una plataforma con un sistema operativo específico y que no tengan inconvenientes de migración. La mayoría de sistemas informáticos para repositorios se orientan al Sistema Operativo Windows. Pero se recomienda que por lo menos el software sea compatible además con las plataformas Mac, GNULinux, y Unix y sus derivados. Ver Figura 7.

92% Total Market Share

Figura 7. Comparación de Sistemas Operativos más utilizados. Fuente Marketshare [55]

b) Bases de Datos (BD): Estas herramientas están adecuadas para un tipo de base de datos específico. En el momento de la instalación tienen una serie de scripts de creación de base de datos de acuerdo al motor de BD que soporte. Por ejemplo, MySQL, no es soportada por DSPACE [21], a diferencia de EPrints[22], FedoraCommons[23] y PlanetDR[27] que si la contemplan. En el caso de Oracle, es solamente contemplado por DSPACE[21] y EPrints[22]. O el caso de PostgreSQL que la contempla solo DSpace[21] y FedoraCommons[23]. Recordando por último, que estas no son las únicas bases de datos que existen. Ver Figura 8.

Figura 8. Comparación de Gestores de Bases de Datos. Fuente Forrester [56]

En este aspecto, es en donde se presenta la limitante para integrarlo con los gestores de base de datos utilizados por las IES, de acuerdo a los procesos académicos y administrativos que manejen. c) Lenguajes de Programación: Cada sistema de información se encuentra desarrollado en un lenguaje de programación específico, de acuerdo a las necesidades suministradas por la entidad. Las IES cuentan con soluciones informáticas propias desarrolladas por algún lenguaje llámese: php, jsp, asp, vbs u otro, y deben someterse al tipo de lenguaje en el que haya sido desarrollada la herramienta de software código libre. Ver tabla I.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

64


65

Tabla I. Estadísticas de los lenguajes de programación. Fuente: Tiobe [11]

e)Documentación Técnica: Todas las herramientas informáticas cuentan con una documentación técnica básica y/o estándar. Pero ninguna profundiza con detenimiento sobre la solución y se concentran en aspectos como instalación, configuración y administración de la solución. Además que no suministran el modelo Entidad-Relación. f) Soporte Técnico: todas las soluciones informáticas analizadas, tienen foro, wiki, o lista de correos, y aclaran únicamente procesos de tipo genérico, más no puntual cuando se requiere integrar alguna solución o mejora al respecto. Dejando esta actividad al programador para que estudie el código y realice las modificaciones necesarias, y enseguida las publique, basándose en la filosofía del código abierto (Open Source) [8].

6. INTEGRACIÓN DE LAS APLICACIONES PARA RDs CON LOS SIs INSTITUCIONALES DE LAS IES Por ejemplo, DSpace[21], PlanetDR[27] y FedoraCommons[23], basados en tecnología Java, están desarrollados en JSP. Eprints[22], está desarrollado en Perl, utilizando tecnología Ajax y Javascript. El inconveniente se presenta, cuando el instalador y/o administrador y/o programador de la solución informática no conoce o no domina el lenguaje de programación con el cual fue desarrollada dicha aplicación, empleando una frase de cajón “eso no se puede hacer o desarrollar o implementar.”, ocasionando que la IES se quede sin adecuarlo a sus propios requerimientos. d)Servidores Web: Estos sistemas de información están orientados a la Web y dependen del lenguaje de programación con el que fueron desarrollados, destacándose Internet Information Server (IIS), Apache, Tomcat y Jboss, entre otros. El inconveniente se presenta únicamente para aquellas herramientas que funcionan con tecnología JSP y Java, y que dependen de la compilación del ser vidor Apache Ant, como es el caso de DSpace[21], cuando se realiza algún cambio en el código fuente de la aplicación, presentando algunos problemas de tipo técnico al respecto.

65

e) Formato de los Metadatos: Todos contemplan los formatos Dublin Core y Qualified DC. A excepción de FedoraCommons[23], que incluye además de los anteriores, los formatos METS, MARC y puede esperar cualquier otro formato. El inconveniente se presenta en la integración con el uso de metadatos nuevos no soportados.

Cuando se encuentran los inconvenientes antes mencionados, las IES pierden el control de la solución informática y no pueden realizar procesos de tipo administrativo como autorizar solo a aquellos usuarios (administrativos, docentes, investigadores, estudiantes, egresados) que formen parte de dicha entidad, porque el sistema permite el registro de cualquier persona ajena a la IES, o que se encuentre desvinculada de la misma. Además, que permite la duplicidad en la información sin tener un control en los datos básicos del usuario. La metodología que se explica a continuación, son el resultado del estudio, dedicación e investigación en los conceptos de repositorios, licenciamiento, dominio sobre las herramientas especializadas en repositorio existentes en código abierto, programación e implementación que se realizó en una IES que necesitó dicha integración; las cuales no se encuentran soportadas en ninguna de las páginas oficiales de repositorios a nivel general, ni en los mismos soportes y/o documentos técnicos suministrados por los autores de esas herramientas, con el fin de que cualquier IES los tome como referencia para implementarlos dentro de su organización. 6.1. Pasos para integrar una aplicación de Repositorio con un SI propio de una IES Como resultado de esta investigación se presentan a continuación los pasos para estandarizar repositorios multiplataforma y así poder integrar una aplicación que utilice una IES en las áreas de Registro y Control, o Procesos Académicos de los Programas. Ver Figura 9.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

65


66

1. Contratar un Experto: Es necesario contratar los ser vicios de un desarrollador y/o programador informático experto, que tenga conocimiento y/o dominio tanto de las aplicaciones desarrolladas por la IES como de la solución de repositorio a implementar. 2. Dominio conceptos de RD: El desarrollador y/o programador debe tener claro los conceptos de Repositorios y Metadatos. 3. Dominio herramienta de RD: Se debe instalar la aplicación del repositorio digital y conocer todo el funcionamiento de la misma. Dicha documentación se encuentra en la página del autor de la herramienta. Si tiene dudas puede recurrir al foro del autor. 4. Modificar scripts Creación Base de Datos: Todas las aplicaciones estudiadas cuentan con unos scripts para la creación de las tablas que necesita el sistema de repositorio digital. Si se quiere montar en un Figura 9. Metodología para integrar un motor de base de datos esRepositorio Digital con un Sistema de pecífico que la IES utilice y Información. Fuente: los autores que no esté soportado por dicha aplicación de repositorio, se debe buscar un archivo con extensión .sql en donde figure la sentencia Create Database y Create Table, y modificarlo de acuerdo al motor deseado. Estos scripts manejan la creación de campos consecutivos o autonuméricos que se definen de manera diferente según el estándar ANSI de SQL que contempla cada gestor de base de datos. Para adecuarlo a un motor de base de datos como Microsoft SQL Server, se debe utilizar el lenguaje Transact-SQL, y modificarlo en su totalidad, debido a que su estructura es completamente diferente.

Figura 10. Tabla de usuarios de DSpace[21] 66

Vol.14 No.1

Ingeniería

5. Instalar Drivers del Gestor de BD: Se deben buscar los drivers del gestor de base de datos a adecuar en el aplicativo del repositorio digital, los

cuales siempre se encuentran en la página oficial del respectivo motor de base de datos. 6. Desarrollar Interfaz de integración RD con SI: Para poder automatizar la lista de usuarios con sus respectivas contraseñas, así como las cuentas de correo electrónico que tenga la IES, en cualquiera de sus respectivos sistemas de información, es necesario realizar un programa (o interfaz) en el lenguaje de programación original en el que este desarrollada la aplicación de la IES que contenga la información que se va a migrar, sin olvidar el uso de la instrucción MD5 para encriptar las claves. Por ejemplo DSpace, está desarrollado en Java, y la aplicación de la IES está en PHP. El desarrollador puede utilizar las instrucciones pg_connect y sus derivados, para conectarse desde la aplicación de la IES a la tabla e-person de la base de datos PostgreSQL de DSpace y alimentar la información en la tabla de usuarios y contraseñas. Ver figura 10. 7. Interfaz permita validar usuarios existentes: La interfaz a desarrollar debe validar que no se duplique la cuenta de correo y que sólo se utilice una vez. Ver Figura 11.

Figura 11. Ejemplo DSpace[21]. Un usuario se puede registrar con diferentes correos.

8. Comentariar Creación de Usuarios en el RD: En vista a que el código fuente de la aplicación del repositorio se puede modificar, se debe inhabilitar las opciones de registro nuevo de usuarios, colocándole comentarios. Ver Figura 12.

Figura 12. Ejemplo DSpace[21], registro usuarios nuevos. Esta opción no se debe permitir.

9. Recompilar RD: En el caso de DSpace, se debe compilar los cambios realizados con Apache Ant y Apache Maven. Con las otras soluciones informáticas no es necesario este paso. Ver Figura 13. 10. Estudio Metadatos e Inclusión: Para poder incorporar nuevos estándares de metadatos dentro de la aplicación del repositorio no reflejados, se debe estudiar dichos formatos y adicionar las

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

66


67

respectivas líneas de código en los archivos del código fuente de la aplicación. Ver Figura No 14.

Figura 13. Ejemplo DSpace[21], utilización apache ant.

Figura 14. Ejemplo DSpace, utilización metadatos.

11. Servidor Web debe ser multiplataforma: Estas aplicaciones están desarrolladas para ejecutarse en un servidor Web multiplataforma. A excepción del Internet Information Server de Microsoft, en donde lo único que se puede configurar son las extensiones de PHP, pero para JSP no se podrían integrar porque requiere de la máquina virtual de Java. 12. Cambiar iconografía y diseño del RD: En cuanto al diseño y la iconografía con que vienen estas herramientas informáticas, éstas se pueden cambiar y personalizar según los diseños y los colores corporativos que utilice la IES, formato que viene en jpg y png, y se encuentran ubicadas en una carpeta predeterminada de imágenes. 13. Cambiar Hojas de Estilo (CSS): De igual forma, se pueden cambiar las hojas de estilo en cascada (Cascade Style Sheet) que vienen con extensión .css, cambiando los formatos de los fondos, los tipos de letras, colores, enlaces y demás cambios que considere indispensable la IES aplicar de acuerdo a su imagen corporativa. Realizando los pasos mencionados se puede integrar cualquier solución propia que tenga la IES con las aplicaciones de repositorios digitales.

CONCLUSIONES Los pasos para realizar los cambios de integración y migración de información, garantizan que cualquier solución informática propia de la IES se integre con las aplicaciones para repositorios digitales. Además que se puede mejorar el acceso a la aplicación impidiendo que personas no autorizadas a la IES se registren dentro del sistema.

Aunque DSpace sea la aplicación de más alta difusión en repositorios digitales incluso hasta por la misma comunidad, las otras soluciones de código abierto también son funcionales y se pueden adecuar, mejorar y personalizar de acuerdo a las necesidades de una IES. Las herramientas repositorios digitales de código abierto no tienen nada que envidiarle a las de licencia propietaria, ofreciendo mejores componentes para la implementación de repositorios digitales de acuerdo a las necesidades que tenga la IES. Además que contribuyen de manera significativa en la Gestión del Conocimiento. En cuanto a la producción intelectual, existen diferencias en cuanto a dejarlas en copyright (propias para la IES) o en Creative Commons (conocimiento compartido), análisis que sólo le compete a la IES. Las IES que no adopten este modelo, van a quedar obsoletas dentro de sus procesos administrativos y académicos frente a la comunidad académica; además, que el MEN está exigiendo producción intelectual a las IES y ésta es una de las formas de realizarlo por medio del uso de los repositorios digitales.

REFERENCIAS BIBLIOGRÁFICAS [1] Gestión del Conocimiento http://www.gestiondelconocimiento.com [2]

PRESSMAN, Roger S. INGENIERIA DE SOFTWARE. Un enfoque practico. Sexta Edicion.2005. Editorial Mc Graw Hill

[3]

MICROSOFT. Encarta 2009.

[4]

WIKIPEDIA. http://www.wikipedia.org

[5]

Ministerio de Educación Nacional – www.mineducacion.gov.co

[6]

STALLMAN,Richard. GNU Operating System http://www.gnu.org/ philosophy/free-sw.es.html

[7]

STALLMAN,Richard. Free Software Foundation (FSF) http:// www.fsf.org

[8]

RAYMOND,Eric, Open Source http://www.opensource.org

[9]

World Wide Web Consortium (W3C) http://w3c.org

[10] Repositories Support Project http://www.rsp.ac.uk . Estadísticas de Repositorios http://www.rsp.ac.uk/software/surveyresults [11] Tiobe. Estadísticas sobre lenguajes de programación http:// www.tiobe.com [12] Colombia Aprende. http://www.colombiaaprende.edu.co [13] López, C. (2005) Los Repositorios de Objetos de Aprendizaje como soporte a un entorno e-learning, Tesina doctoral, Universidad de Salamanca. (Director Francisco José García Peñalvo). Disponible en: http://www.biblioweb.dgsca.unam.mx/libros/repositorios/ [14] CONTENTdm http://www.oclc.org/contentdm [15] DigitalCommons http://www.bepress.com/ [16] DigiTool http://www.exlibrisgroup.com/category/DigiToolOverview [17] EQUELLAhttp://www.equella.com [18] IntraLibrary http://www.intralibrary.com/ [19] Open Repository http://www.openrepository.com/ [20] VITAL http://www.vtls.com/products/vital [21] DSpace, http://www.dspace.org/ [22] Eprints Repository. http://www.eprints.org/

67

Para realizar cualquier cambio y/o ajuste, se requieren conocimientos avanzados de programación y de conceptualización en repositorios y metadatos.

[23] Fedora Commons- http://www.fedora-commons.org/ [24] Greenstone. http://www.greenstone.org/

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

67


68

[25] CERN Document cdsware.cern.ch/

Server

Software

(CDSware)

http://

[53] López, C. (2005) Los Repositorios de Objetos de Aprendizaje como soporte a un entorno e-learning, Tesina doctoral, Universidad de Salamanca. (Director Francisco José García Peñalvo) http://www.biblioweb.dgsca.unam.mx/libros/repositorios/

[26] Connexions http://cnx.org/ [27] PlanetDR http://planet.urv.es/planetdr/ [28] DOOR (Digital Open door.sourceforge.net/

Object

[52] SciELO- Scientific Electronic Library Online). http://www.scielo.org

Repository)

http://

[29] Zentity http://research.microsoft.com/en-us/projects/zentity/

[54] OAI. The Open Archives Initiative Protocol for Metadata Harvesting. http://www.openarchives.org/OAI/ openarchivesprotocol.html

[30] RSP. Estudio Comparación entre Respositorios. Marzo 2009. http://www.rsp.ac.uk/software/surveyresults

[55] Marketshare. Comparación en Sistemas Operativos. http:// marketshare.hitslink.com/

[31] OMPI (ORGANIZACIÓN MUNDIAL DE LA PROPIEDAD INTELECTUAL)-Sistemas automatizados de gestión de derechos y limitaciones y excepciones al derecho de autor. Ginebra. Abril-2006

[56] Forrester. www.forrester.com. Comparación de Gestores de Bases de Datos. http://www.microsoft.com/presspass/itanalyst/ docs/06-30 09 Enterprise Database Management Systems.PDF

[32] Castro Martín, Pablo de. Estadísticas de uso de repositorios institucionales: ¿un indicador fiable de comparación? Diciembre 2008, Universidad Complutense de Madrid, Madrid. http:// eprints.ucm.es/8499/

[57] FRANGANILLO, JORGE. Depósitos: un factor psicológico de desconfianza. Textos universitaris de biblioteconomia i documentació. número 20, juny de 2008. Facultat de Biblioteconomia i Documentació. Universitat de Barcelona, España. http://www.ub.es/bid/pdf/20frang2.pdf

[33] DRIVER (Digital Repository Infrastructure Vision for European Research). Directrices DRIVER 2.0. para proveedores de contenido - exposición de recursos textuales con el protocolo OAIPMH . Noviembre 2008. http://www.driver-support.eu/documents/ DRIVER_2_1_Guidelines_Spanish.pdf [34] REAL ACADEMICA ESPAÑOLA. Diccionario de la Lengua Española. http://buscon.rae.es/draeI/

[58] Diccionario Collins universal: español-inglés, inglés-español (2005). Barcelona: Grijalbo. [59] Keefer, Alice (2007). “Los repositorios digitales universitarios y los autores”. Anales de documentación, núm. 10, p. 205–214. http://www.um.es/fccd/anales/ad10/ad1011.pdf.

[35] Opendoar. Directorio de Repositorios de Acceso Abierto http:// www.opendoar.org/ [36] Corporación Universitaria Lasallista. http://www.lasallista.edu.co/ . 1. Biblioteca Digital Lasallista (BIDILA). http:// www.lasallistavirtual.edu.co:81/dspace/ [37] Corporación Universitaria Minuto de Dios. http:// www.uniminuto.edu/. 1. Colecciones Digitales Uniminuto. http:// dspace.uniminuto.edu:8000/dspace/ [38] e-medicina fetal - http://e-medicinafetal.org/. 1. Digital Repository in Fetal Medicine (DRFM. http://digitalrepository.emedicinafetal.org/ [39] Instituto Interamericano de Cooperación para la Agricultura IICA oficina en Colombia. http://www.iica.int/colombia. 1. Centro Virtual de Informacion CVI IICA oficina en Colombia.http:// zeus.iica.ac.cr:8090/dspace/ [40] Universidad Autónoma de Occidente - http://www.uao.edu.co/. 1. Biblioteca Digital - Autonoma Virtual. http://bohr.cuao.edu.co/dspace/ [41] Universidad de Antioquia (UdeA) - http://www.udea.edu.co/. 1. Biblioteca Digital del Sistema de Bibliotecas de la Universidad de Antioquia. http://tesis.udea.edu.co/dspace/ [42] Universidad de la Salle - http://unisalle.lasalle.edu.co/. 1. TEGRA. http://tegra.lasalle.edu.co/dspace/ [43] Universidad de los Andes - http://www.uniandes.edu.co/1. DSpace de Universidad de los Andes.http:// dspace.uniandes.edu.co:5050/dspace/ [44] Universidad del Rosario - http://www.urosario.edu.co/. 1. edocUR.http://repository.urosario.edu.co/ [45] Universidad Icesi - http://www.icesi.edu.co/. 1. Biblioteca Digital - Universidad Icesi.http://bibliotecadigital.icesi.edu.co/. 2. Repositorio Académico Universidad Icesi. http:// repositorioacademico.icesi.edu.co/repositorio_academico/ [46] Universidad Nacional de Colombia - http://www.unal.edu.co/ 1. Scientific Electronic Library Online - Colombia (SciELO - Colombia). http://www.scielo.org.co/. 2. Universidad Nacional De Colombia - Repositorio Institucional UN. http://www.digital.unal.edu.co/ [47] Universidad Nacional Abierta y a Distancia (UNAD). http:// www.unad.edu.co. Tiene en proceso de implementación varios repositorios en DSPACE. http://www.unad.edu.co/ index.php?option=com_content&view=category&id=178&Itemid=938 [48] LYNCH, Clifford A. Institutional Repositories: Essential Infrastructure For Scholarship In The Digital Age portal: Libraries and the Academy - Volume 3, Number 2, April 2003, pp. 327-336 [49] BARTON, Mary. WATERS, Margaret. Cómo crear un Repositorio Institucional. MIT Libraries..2004-2005 http://www.recolecta.net/ buscador/documentos/mit.pdf [50] SPARC (The Scholarly Publishing & Academic Resources Coalition) http://www.arl.org/sparc/ [51] ROAR. Registry of Open Access Repositories - http:// roar.eprints.org/ 68

Vol.14 No.1

Ingeniería

Luís Eduardo Cano Olivera Ingeniero de Sistemas de la Universidad Autónoma de Colombia. Especialista en Diseño y Construcción de Soluciones Telemáticas de la Universidad Autónoma de Colombia. Candidato a Magíster en Ciencias de la Información y las Comunicaciones con énfasis en Sistemas de Información, de la Universidad Distrital Francisco José de Caldas. Doctorando en Informática de la Universidad Pontificia de Salamanca de España. Docente Universitario. Miembro del Grupo de Investigación GICOGE de la Universidad Distrital Francisco José de Caldas y de la línea de trabajo en Geosensores del mismo grupo de investigación. http://gicoge.udistrital.edu.co/geosensores. luiseduardocano@gmail.com

Pedro Enrique Espitia Zambrano Diseñador Gráfico, Universidad Jorge Tadeo Lozano. Especialista en Comunicación de Cultura Científica del CAEU. Editor Senior de Publicaciones Científicas Gaia. Presidente de la Fundación FASARTE, y director del Museo de Arte Vial. Asesor de Greennmax e-tecnology. Consultor en Branding del Tecnológico de Monterrey sede Colombia. Doctorando en Informática de la Universidad Pontificia de Salamanca de España. Miembro del grupo de Investigación en Tráfico Inteligente y Seguridad Ciudadana de la Universidad Distrital Francisco José de Caldas. pedroespitia.upsam@gmail.com

José Nelson Pérez Castillo PhD. en Informática Universidad de Oviedo. Profesor Facultad de Ingeniería de la Universidad Distrital Francisco José de Caldas. Magíster en Teleinformática Universidad Distrital Francisco José de Caldas. Especialista en Sistemas de Información Geográfica y Teledetección Espacial Universidad de Henares. Investigador Principal Grupo GICOGE. nelsonp@udistrital.edu.co

Luis Joyanes Aguilar PhD. en Informática de la Universidad de Oviedo. Doctor en Ciencias Políticas y Sociología de la Universidad Pontifica de Salamanca campus de Madrid. Licenciado en Ciencias Físicas de la Universidad Complutense de Madrid. Licenciado en Enseñanza Superior Militar de la Academia Militar de Zaragoza. Profesor Titular Agregado de Cátedra de Lenguajes y Sistemas Informáticos de la Facultad de Informática de la Universidad Pontificia de Salamanca campus Madrid, donde también se desempeñó como: Decano de la Facultad de Informática, Director de Doctorado, Director de Masters y Director del Departamento de Lenguajes, Sistemas Informáticos e Ingeniería de Software. Miembro del grupo GICOGE. Autor de más de 40 libros de Informática y numerosos artículos en revistas y congresos internacionales.

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

68


69

REVISTA

Ingeniería

ÁREAS DE PUBLICACIÓN • • • • • • • • • • • • • • • • • •

Comunicaciones y Televisión Telecomunicaciones –Teleinformática Instrumentación, Control y Automatización Electrónica de Potencia Dispositivos y Circuitos Electrónicos (FPGA, ASIC). Procesamiento de señales e imágenes Microelectrónica, Optoelectrónica y Fotónica Bioingeniería Tiempo Real Ingeniería de Software y Simulación Inteligencia Artificial, Sistemas Expertos y Robótica Gestión Informática Investigación de Operaciones Producción Logística Seguridad y Salud Ocupacional Geomática Catastro y Sistemas de Información Geográfica

CUPÓN DE SUSCRIPCIÓN

REVISTA Publicación admitida en el Índice Nacional de Publicaciones Seriadas Científicas y Tecnológicas de Colciencias Circulación nacional e internacional ISSN 0121-750X Suscripción y factura a nombre de: Dirección de envío: País:

Tel. Residencia:

Tel. Oficina:

Suscripción a partir del número: SISTEMA DE PAGO: Cheque No.

Fecha: Efectivo Cheque

Banco Ciudad

Valor suscripción (2 Números) Colombia ....... $20.000 Exterior .......... US 25

• Todo pago se hace a nombre de la Universidad Distrital Francisco José de Caldas. • Para su comodidad, usted puede consignar el valor de la suscripción en la Cuenta Nacional No. 230053548 del Banco de Occidente en cualquier oficina del país, a nombre de la Universidad Distrital. Si usted paga por este sistema debe enviar una copia del recibo de consignación junto con el cupón de suscripción.

CORRESPONDENCIA, CANJE Y SUSCRIPCIONES: Revista Ingeniería – Facultad de Ingeniería Carrera 7 No. 40-53 Decanatura de Ingeniería Tel. 571 + 3239300 - 571 + 4822061, Bogotá, D.C. - Colombia

69

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Vol.14 No.1

Ingeniería

69


70

REVISTA Publicación admitida en el Índice Nacional de Publicaciones Seriadas Científicas y Tecnológicas de Colciencias Circulación nacional e internacional ISSN 0121-750X

Editada e impresa en Colombia por: Grupo Editorial Gaia desde 1.996

70

70

Vol.14 No.1

Ingeniería

REVISTA CIENTÍFICA Y TECNOLÓGICA DE LA FACULTAD DE INGENIERÍA, UNIVERSIDAD DISTRITAL FRANCISCO JOSÉ DE CALDAS

Revista Ingenieria Vo.14 No.1  

Revista Ingenieria Vo.14 No.1

Read more
Read more
Similar to
Popular now
Just for you