Page 1

No. 6

Noviembre de 2006 ISNN 1692-0899

Contenido

INGENIUM

3

SISTEMA DIGITAL BASADO EN MICROPROCESADOR. Alberto Cuervo G. GENERALIDADES SOBRE LOS ULTRASONIDOS Andrés David Restrepo G.

18 26

32

38

APLICACIONES DE RECONOCIMIENTO DE HABLA USANDO MICROSOFT SPEECH SERVER 2004 Y SASDK (MICROSOFT SPEECH APPLICATION SOFTWARE DEVELOPMENT KIT) Guillermo Gómez T., José Abadía, Johan Meusburger DISEÑO Y ELABORACIÓN DE MATERIALES DIDÁCTICOS CON TECNOLOGÍAS INFORMÁTICAS PARA LOS CURSOS DE ESTADÍSTICA Y PROBABILIDAD EN INGENIERÍA Luis Alberto Rincón A., Marco Aurelio Tabares B., Fabio Herney González Vásquez SOFTWARE PARA TRANSMISIÓN DE EXPRESIONES MATEMÁTICAS A TRAVÉS DE LA WWW. PROTOTIPO DE CHAT MATEMÁTICO. Héctor Fabián Echeverri Q., John Edward Cortés L., Fernando Eduardo Ramírez M. CUANDO LA CONTAMINACIÓN AMBIENTAL NO SE VE: EL PROBLEMA GLOBAL DE LA CONTAMINACIÓN ELECTROMAGNÉTICA. Parte 1 Javier Salvador Rojas

47

58

SISTEMA DE CONTROL DE CALIDAD DE PIÑONES CON VISION ARTIFICIAL Julián A. Mina C., Fabio A. Rincón L., Héctor F. Echeverri Q., Edgardo S. Barraza V., Pedro J. Díaz P. LA FUNCIÓN LOGÍSTICA DE LOS NEGOCIOS Y LA TECNOLOGÍA DE INFORMACIÓN Álvaro Iván Jiménez A.

69

80

DISEÑO E IMPLEMENTACIÓN DE UN SISTEMA PARA INSPECCIÓN DE TUBERÍAS BASADO EN TÉCNICAS DE ULTRASONIDO John Jímenez, Sandra Liliana Victoria CALIBRACIÓN EXPLÍCITA DE CÁMARAS DIGITALES CON DISTORSIÓN MEDIANTE REDES NEURONALES ARTIFICIALES Eduardo Caicedo, Humberto Loaiza, Jesús Alfonso López, Julio César Millán B.

86

106

INVESTIGACIÓN DE OPERACIONES, FACTOR CLAVE EN EL MEJORAMIENTO DE LA GESTIÓN LOGÍSTICA Jairo Arboleda Z. LA INGENIERÍA HUMANA. ASPECTOS EPISTEMOLÓGICOS. Raúl Alberto García D.

115 119

PRINCIPIOS Y ELEMENTOS DE SEGURIDAD INFORMÁTICA Edgar Valdés C. DISEÑO Y ELABORACIÓN DE MATERIALES DIDÁCTICOS CON TECNOLOGÍAS INFORMÁTICAS PARA EL CONTROL ESTADÍSTICO DE CALIDAD Pedro Joaquín Díaz P., Luis Alberto Rincón A., Marco Aurelio Tabares B.

137

149

LA CULTURA DE LA ECOEFICIENCIA EMPRESARIAL Luis Antonio González E., Julio Arnoby V.


INGENIERÍA Marino del Río Uribe Presidente del Consejo Superior Hebert Celín Navas Rector María Nelsy Rodríguez Vicerrectora (E) Carlos Humberto Henao Gerente Financiero Wilson López Alarcón Gerente de Bienestar Universitario Alexander Cifuentes Alarcón Gerente Administrativo Danilo Cardenas Erazo Decano de Facultad Editor Luis Alberto Rincón Abril Comité Editorial Armando A. Aroca A., M Sc., Profesor Universidad Santiago de Cali Diosdado Baena G., Ph D., Profesor Universidad Nacional de Colombia. Armando Lucumí, Ph D., Profesor Universidad Santiago de Cali Andrés Millán, M Sc., Profesor Universidad Santiago de Cali Luis Alberto Rincón A., M Sc., Profesor Universidad Santiago de Cali Javier S. Rojas, M Sc., Profesor Universidad Santiago de Cali Nelcy Suárez L., M Sc., Profesor Universidad Santiago de Cali


SISTEMA DIGITAL BASADO EN CROPROCESADOR Por: Alberto Cuervo García1

It is developed the program in order to do these actions and supply an alarm signal when the temperature is above the level established with switches.

Resumen

Keywords: Microprocessor, interrupt, ports, analog to digital converter, data bus, address bus.

Se describe un diseño basado en microprocesador para medir la temperatura de un líquido contenido en un recipiente.

Introducción

El sistema digital tiene una memoria EPROM de ocho kbytes y una memoria RAM de dos kbytes. Tiene también una interface periférica programable conteniendo tres puertos de entrada/salida y un convertidor analógicodigital para obtener el valor de la temperatura suministrado por un sensor. Se elabora el programa para realizar estas funciones y dar una señal de alarma luminosa si la temperatura es superior de un valor establecido mediante interruptores. Palabras Claves: Microprocesador, interrupción, puertos, convertidor analógicodigital, bus de datos, bus de direcciones. Abstract It is described a microprocessor based design to measure the temperature of a liquid in a container. The digital system has an eight kbytes EPROM memory and a two kbytes RAM memory. It also has a programmable peripheral interface with three input/output ports and an analog to digital converter to get the temperature value suplied by a sensor.

1

Ingeniero Electricista, Especialista en Telecomunicaciones del área de Electrónica. M. Sc. en “Electrónica del Estado Sólido: Microelectrónica”. Docente de Ingeniería de Sistemas de la Universidad Santiago de Cali. Más de 20 años de experiencia en la docencia universitaria y 25 años de experiencia profesional, habiendo sido miembro de comités regionales y nacionales del sector eléctrico colombiano.

El presente artículo tiene como objetivo describir el diseño de un sistema digital basado en el microprocesador de 8 bits 8085 de Intel. Este sería el último de los microprocesadores de 8 bits de propósito general desarrollado por la firma Intel Corporation y consiste de una versión mejorada de su microprocesador 8080. Se seleccionó el microprocesador 8085 por las ventajas que éste ofrece entre los microprocesadores de 8 bits, entre las cuales se pueden nombrar su generador interno de reloj, su controlador interno del sistema, su bajo costo y su amplio repertorio de chips de soporte que lo hacen atractivo en aplicaciones de control. El sistema descrito consiste, además del microprocesador, de una memoria RAM de 2 Kbytes, una memoria EPROM de 8 Kbytes en la cual residirá el programa, 3 puertos de entrada/salida programables y un convertidor analógico/digital el cual es utilizado para obtener el valor de la temperatura de un líquido contenido en un recipiente. El sistema digital diseñado es apropiado para ser implementado como proyecto de curso de un semestre de duración por estudiantes relacionados con el tema de microprocesadores. El microprocesador La distribución de terminales del circuito integrado del microprocesador 8085 se muestra en la figura 1. Como se puede observar en la figura, este microprocesador opera con una sola fuente de alimentación de


4 + 5 voltios conectada entre los terminales 20 y 40. Las líneas TRAP, RST 7.5, RST 6.5, RST 5.5 e INTR (Interrupt Request) son entradas de interrupción por donde los dispositivos periféricos pueden solicitar atención del microprocesador. Presentan distintos niveles de prioridad, siendo TRAP la línea más prioritaria e INTR la de menor prioridad. A una solicitud de interrupción por la línea INTR, el microprocesador contesta con un pulso negativo INTA´ (Interrupt Acknowledge) si acepta la interrupción. Durante el pulso INTA´, el dispositivo periférico deberá colocar en el bus de datos del microprocesador el vector de interrupción el cual consiste de un código de 8 bits que tiene la información de la dirección de memoria donde está ubicada la subrutina de servicio del dispositivo. El código de este vector de interrupción o RSTn es igual a 11NNN111, donde n es un número de 3 bits igual a NNN. Introduciendo este código con el pulso INTA´ el microprocesador guarda la dirección de memoria de retorno en la pila y salta a la dirección 8 * n. X1

1

40

Vcc (+5v.)

X2

2

39

HOLD

RESET OUT SOD SID

3

38

4

37

5

36

TRAP

6

35

RST 7.5 RST 6.5 RST 5.5

7

34

8

33

9

32

INTR

10

31

8085

INTA AD0

11

30

12

29

AD1 AD2

13

28

14

27

AD3 AD4

15

26

16

25

AD5 AD6 AD7

17

24

18

23

19

22

20

21

HLDA (CLK) OUT RESET IN READY IO/M S1 RD WR ALE S0 A15 A14 A13 A12 A11 A10 A9 A8

MICROPROCESADOR

Figura 1. Distribución de terminales

Se debe destacar que el microprocesador genera automáticamente en su interior los distintos vectores de interrupción a las solicitudes efectuadas por las otras entradas de interrupción, por lo que se producirá una bifurcación de forma automática a las direcciones de memoria donde deberán estar ubicadas las subrutinas de atención correspondientes o un salto a las mismas como se muestra en la tabla 1. Tabla 1. Direcciones de bifurcación. Solicitud por: TRAP RST 7.5 RST 6.5 RST 5.5

decimal 36 60 52 44

Bifurca a la dirección: Binario hexadecimal 0000000000100100 0024 0000000000111100 003C 0000000000110100 0034 0000000000101100 002C

La línea RST 7.5 tiene una característica distinta a las otras. El flip-flop de solicitud de interrupción asociado al dispositivo se encuentra internamente en el microprocesador, lo que hace que esta línea sea sensible al flanco de subida de un pulso aplicado a la misma por el hardware del dispositivo. En cualquier otra línea (INTR, RST 6.5 Y RST 5.5) debe permanecer un nivel de 1 fijo hasta que la interrupción sea reconocida por el microprocesador. El flip-flop interno de solicitud de interrupción asociado a la línea RST 7.5 se resetea con una de las siguientes acciones: 1. Reseteando al microprocesador, esto es, colocando un 0 en la entrada (Reset In). 2. Mediante el software con una instrucción SIM (Set Interrupt Mask) con el bit 4 del acumulador en 1. 3. Automáticamente con un reconocimiento del microprocesador a una solicitud de interrupción por la línea RST 7.5. La línea TRAP es sensible tanto a un flanco como a un nivel aplicado. Esta entrada debe ir a 1 y permanecer en 1 hasta que sea reconocida la solicitud de interrupción. Una nueva interrupción no será reconocida hasta


5 que esta línea nuevamente a 1.

vaya

a

0

y

después

Las líneas de interrupción excepto TRAP pueden ser enmascaradas o inhabilitadas mediante una instrucción DI (Disable Interrupt) lo cual coloca al flip-flop interno INTE en el estado 0. Este flip-flop es el responsable de habilitar o inhabilitar las líneas de interrupción excepto TRAP que es una línea no-enmascarable. Con la instrucción EI (Enable Interrupt) se coloca al flip-flop INTE en 1 habilitando todas las líneas de interrupción. Cuando el microprocesador reconoce una interrupción, automáticamente coloca INTE=0, inhabilitando todas las líneas enmascarables, por lo que en el software habrá que ejecutar la instrucción EI para permitir futuras interrupciones por estas líneas. Si INTE=1, las líneas RST 7.5, RST 6.5 y RST 5.5 pueden ser inhabilitadas individualmente colocando un código apropiado en un registro interno del microprocesador denominado registro de máscaras como se muestra en la figura 2. 7

6

SOD SOE

5 X

4

3

2

1

0

Las funciones de los distintos bits colocados en el registro de máscaras se describen a continuación. La instrucción RIM (Read Interrupt Mask) almacena en el acumulador del microprocesador el estado de las máscaras de interrupción, las interrupciones pendientes y el nivel del terminal 5 SID (Serial Input Data) utilizado para recibir datos en forma serial. De esta forma el estado de las interrupciones puede ser monitoreado bajo el control del programa. Cuando las interrupciones están inhabilitadas pero pendientes, el programa puede de forma selectiva habilitar una línea en particular para atender una solicitud de interrupción en cuestión. El contenido del acumulador después de una instrucción RIM se muestra en la figura 3. Máscaras de interrupción

R7.5 MSE M7.5 M6.5 M5.5

Figura 2. Reg. de máscaras del microprocesador

se transmiten datos en forma serial es una réplica de este bit del registro de máscaras el cual puede ser colocado en un determinado nivel lógico mediante la instrucción SIM. Con esta instrucción, el bit 7 del acumulador es colocado en el bit 7 del registro de máscaras si el bit 6 (SOE= Serial Output Enable) es colocado en 1.

Bits 0, 1 y 2. Un 1 colocado en estos bits del registro inhabilita la línea respectiva. Un 0 la habilita. Bit 3. MSE (Mask Set Enable). La instrucción SIM mueve el contenido del acumulador al registro de máscaras. El bit 3 debe estar en 1 cuando se ejecute la instrucción SIM para poder alterar los bits 0, 1 y 2 anteriores. Bit 4 R7.5. Un 1 colocado en el bit 4 resetea el flip-flop interno de solicitud de interrupción asociado a la línea RST 7.5. Bit 7 SOD = Serial Output Data. El terminal 4 del microprocesador por el cual

SID

I 7.5 I 6.5 I 5.5

IE

M7.5 M6.5 M5.5 INTE Interrupciones pendientes

Serial Input Data

Figura 3. Contenido del acumulador después de RIM

Terminales 1 y 2. (X1) y (X2). Estos terminales son utilizados para fijar la frecuencia interna de los pulsos de reloj. En estos terminales se puede colocar un cristal de cuarzo o una resistencia cuando la estabilidad de la frecuencia del reloj no es un factor determinante. En el sistema digital descrito se utiliza una resistencia de 10


6 Kohmios que fija la frecuencia de los pulsos de reloj ≈ 1.5 MHz. Terminal 36 (Reset In). Colocando esta entrada en 0 se resetea el microprocesador provocando las siguientes acciones. 1. Se limpia el contador de programa, por lo que el microprocesador comenzará ejecutando la instrucción que se encuentre en la dirección 0000H cuando (Reset In)´ regrese a 1. 2. Las líneas de datos y direcciones, así como las líneas de control se colocan en el estado de alta impedancia mientras (Reset In)´ = 0. 3. Coloca al flip-flop INTE en 0 inhabilitando las interrupciones. Igualmente se resetea el flip-flop interno de solicitud de interrupción asociado con la línea RST 7.5 y se colocan en 1 las máscaras de interrupción. Mientras (Reset In)´ = 0, el microprocesador se encuentra en el estado de Reset en el cual la línea de salida Reset Out, terminal 3, se activa con un 1. Se utiliza generalmente como señal general de reset del sistema y está sincronizada con los pulsos de reloj del microprocesador los cuales pueden ser obtenidos del terminal 37 identificado como CLK OUT. La señal HOLD, terminal 39, le indica al microprocesador que un dispositivo externo solicita tener acceso directo a memoria (DMA : Direct Memory Access). Cuando el microprocesador acepta o reconoce la solicitud, responde colocando en 1 la señal HLDA (Hold Acknowledge), terminal 38. Esto último le indica al dispositivo que el microprocesador libera los buses de datos y direcciones, las señales de RD´, WR´ e IO/M´ colocando todas estas líneas en el estado de alta impedancia. Esto permite al dispositivo externo tomar el control de los buses del sistema para efectuar una transferencia de datos directamente con la memoria sin la intervención del microprocesador.

Las señales de RD´ y WR´ son pulsos negativos generados por el microprocesador por los terminales 32 y 31 respectivamente cuando va a efectuar una operación de lectura o escritura en la memoria o en un puerto de entrada/salida. Las señales S1, S0 e IO/M´ son señales de estado del microprocesador obtenidas en los terminales 33, 29 y 34 respectivamente que identifican el ciclo de máquina en curso en el microprocesador, esto es, si se trata de un ciclo de búsqueda, de un ciclo de lectura de memoria, de un ciclo de escritura de memoria, etc. De estas, la más utilizada es IO/M´ que indica si la operación de lectura o escritura se realiza en memoria o en un puerto de entrada/salida. IO/M´ = 0 indica que la operación se realiza en la memoria e IO/M´= 1 indica que la operación se efectúa en un puerto. De la misma forma, S1S0=00 indica que el microprocesador se encuentra detenido en el estado de ALTO, 01 que se encuentra realizando una operación de lectura, 10 una operación de escritura y 11 que se encuentra en el ciclo de máquina de búsqueda en el cual lee de la memoria el código de operación de una instrucción. La duración de un estado en el microprocesador se identifica con un período de los pulsos de reloj. Todos los ciclos de máquina tienen 3 estados, excepto el ciclo de búsqueda que puede tener 4 ó 6 estados dependiendo de la instrucción. Todo un ciclo de instrucción consta de uno o más ciclos de máquina, entendiéndose que se produce un nuevo ciclo de máquina cada vez que el microprocesador hace referencia a memoria o a un dispositivo de entrada/salida. Así por ejemplo, la instrucción STA 2382H (Store Accumulator) que almacena el contenido del acumulador en la dirección de memoria especificada consta de 4 ciclos de máquina. Un primer ciclo de búsqueda donde se lee de la memoria el código de operación de la instrucción el cual le indica al microprocesador las actividades que debe realizar a continuación, 2 ciclos de lectura de memoria (Memory Read) en los cuales se lee


7 la dirección de 16 bits especificada por la instrucción y un último ciclo de escritura de memoria (Memory Write) en donde el microprocesador saca por el bus de direcciones la dirección leída anteriormente para almacenar en esta localización de memoria el contenido del acumulador que está sacando por el bus de datos. La señal de READY (terminal 35) es utilizada por un dispositivo de entrada/salida o la memoria para poder solicitar al microprocesador uno o más estados de espera intercalados entre los estados T2 y T3 de un ciclo de máquina. Así por ejemplo, durante un ciclo de lectura de memoria en el estado T1 al comienzo del ciclo de máquina el microprocesador coloca la dirección de la localización de memoria que va a leer en el bus de direcciones y en el estado T3 almacena internamente el contenido del bus de datos. Si el tiempo de acceso de la memoria es tal que no le da tiempo a la misma a colocar el dato en el bus de datos tendrá que solicitar espera intercalando estados del mismo nombre entre los estados T2 y T3 mientras la señal READY=0. El microprocesador consta de un bus de datos de 8 bits y un bus de direcciones de 16 bits, pudiendo direccionar por tanto 216 = 64 Kbytes de memoria.

dirección se encuentra en las líneas AD0-AD7 como se ilustra en la figura 4. Ciclo de lectura de memoria (Memory Read) T1

T2

T3

T1

Reloj A8-A15 AD0-AD7

parte alta de la dirección parte baja de la dirección

Dato válido

dato ALE

RD Figura 4. Señales durante un ciclo de lectura de memoria

En esta figura se han representado las señales que ocurren durante un ciclo de lectura de memoria. Al comienzo del estado T1 del ciclo de máquina el microprocesador coloca el byte de mayor orden de la dirección en las líneas A8-A15 y permanece constante hasta el final del estado T3 y el byte de menor orden de la dirección lo coloca en las líneas AD0-AD7. Este byte sin embargo permanece en estas líneas solamente hasta el comienzo del estado T2 en cuyo momento las líneas AD0-AD7 se convierten en líneas de datos. Observe que el pulso ALE es generado mientras la parte baja de la dirección se encuentra en las líneas AD0-AD7.

A8 a A15 (terminales 21-28) constituyen los bits de mayor orden de la dirección y los bits AD0 a AD7 (terminales 12-19) son líneas compartidas por el bus de datos y los 8 bits de menor orden de la dirección. Esto es, las líneas AD0-AD7 constituyen un bus multiplexado. Al comienzo de un ciclo de máquina estas líneas son unidireccionales y contienen los 8 bits de menor orden A0-A7 de la dirección de memoria o de un puerto de entrada/salida seleccionado. Posteriormente en el ciclo de máquina estas líneas son bidireccionales y se convierten en el bus de datos del sistema.

Durante el estado T2 el pulso de lectura RD´ va a 0 habilitando la salida de memoria y colocando ésta con su demora inevitable su dato en las líneas AD0-AD7. Con el flanco positivo del reloj en el estado T3 el microprocesador almacena internamente el dato que le llega por estas líneas. Durante todo el ciclo, la señal IO/M´ = 0 indicando que la operación de lectura se efectúa en la memoria. De acuerdo con la descripción anterior se hace necesario demultiplexar o retener la parte baja de la dirección como se muestra en la figura 5.

El pulso ALE (Address Latch Enable) es generado por el microprocesador por el terminal 30 al comienzo de un ciclo de máquina para indicar que la parte baja de una

En esta figura se ha utilizado el latch de 8 bits con salidas de 3 estados 74LS373 para retener el byte de menor orden de la dirección. Las salidas se encuentran permanentemente habilitadas al estar


8 conectada su entrada OC´ (Output Control) a tierra ó 0 voltios. El pulso ALE del microprocesador alimenta la entrada C del latch, por tanto, cuando ALE se hace 1 las salidas del latch toman los valores de sus entradas y cuando ALE regresa a 0 estos valores son retenidos en el latch. X1

A15 A14 A13 A12 A11 A10 A9 A8

10 Kohmios

X2

20 picofaradios

+5V.

Reset

A15 A14 A13 A12 A11 A10 A9 A8 A7 A6 A5 A4 A3 A2 A1 A0

8085

R

ALE

RESET IN

+ C

R : 47 Kohmios C : 10 microfaradios

EPROM tiene 13 líneas de dirección, las localizaciones de la misma se podrán acceder con las direcciones que van de 0000H hasta 1FFFH.

Latch C oc 74LS373

Bus de Direcciones Bus de Datos

AD7 AD6 AD5 AD4 AD3 AD2 AD1 AD0

Figura 5. El microprocesador con el bus de direcciones demultiplexado

La red RC de 47 Kohmios y 10 microfaradios es utilizada para resetear al microprocesador en el instante inicial que se conecte la energía eléctrica. El diodo es de señal de silicio para proteger la entrada (Reset In)´ de cualquier posible oscilación. El switch de Reset se utiliza para resetear al microprocesador manualmente. Entre los terminales X1 y X2 se ha conectado una resistencia de 10 Kohmios para fijar la frecuencia de los pulsos de reloj a un valor aproximado de 1.5 MHz. Interface con memoria. Se debe proveer al sistema digital de una memoria EPROM de 8 Kbytes y una memoria RAM de 2 Kbytes. Para cumplir con estos requerimientos se utilizará el circuito integrado de una EPROM de 8 Kbytes 27C64. Las direcciones de la EPROM deben comenzar en la dirección 0000H. Como la

D7 D6 D5 D4 D3 D2 D1 D0

Para la RAM se utiliza el circuito integrado TMS4016. La RAM debe comenzar a continuación de la EPROM. Como la RAM tiene 11 líneas de dirección, las direcciones en la misma irán desde 2000H hasta 27FFH como se muestra en la figura 6. A15

.......

A0

0000 0000 0000 0000 8 Kbytes

2 Kbytes 64 Kbytes

EPROM

RAM

0001 1111 1111 1111 0010 0000 0000 0000 0010 0111 1111 1111 bit 13 bit 14

Direcciones

Figura 6. Mapa de memoria Como se puede observar, A14A13 = 00 en las direcciones de EPROM y A14A13 = 01 en la RAM, por lo que se utilizará un decodificador 2 a 4 para seleccionar estas pastillas como se muestra en la figura 7. En la misma se muestra al microprocesador con su sistema de memoria. A la línea de READY se le ha colocado un 1 fijo ya que los tiempos de acceso de las pastillas de memoria utilizadas son adecuados para la frecuencia de los pulsos de reloj fijada con la resistencia de 10 Kohmios. Igualmente se ha colocado un 0 fijo a la línea de HOLD y a todas las entradas de interrupción que no se utilicen. En la tabla 2 se muestran las funciones de las líneas de las pastillas utilizadas.


on/off

47 Kohmios Reset

X1

10 microfaradios 10 Kohmios

X2

20 picofaradios

+5v.

A la alimentación de los CIs

A15

74LS373

AD5 AD6

AD4

AD3

AD2

AD0 AD1

A8

A9

A10

A11

Reset In AD7

Ready

SOD

S0

SID

S1

HLDA

INTA A14

A13 A12

INTR

HOLD

4.7K

Reset Out

microprocesador A15

RD

IO/M TRAP ALERST 5.5 RST 7.5

WR

RST 6.5

CLK OUT

A0

C OC

DEC B A G 1/2 74LS139A Y3 Y2 Y1 Y0

CE OE A12 .....A0 Vcc Vpp EPROM 27C64 PGM´ DQ7.....DQ0

A0 GW A10 ..... S RAM TMS4016 .... DQ8 DQ1

+5v. alimentación

D7

Figura 7. Memoria

Tabla 2. Funciones de las líneas. Decodificador G´ : entrada de habilitación BA:entradas, B mayor orden Y0-Y3: salidas

Memoria RAM G´: habilitación de salida S´: entrada de selección W´: habilitación de escritura A0-A10: líneas de dirección DQ1-DQ8: entrada/salida

Memoria EPROM CE´: entrada de selección OE´: habilitación de salida A0-A12: líneas de dirección DQ0-DQ7: salida de datos

Convertidor analógico/digital El convertidor analógico/digital seleccionado consiste del circuito integrado ADC0801 o similar el cual tiene una resolución de 8 bits. Tiene salida de 3 estados por lo que se puede acoplar directamente al bus de datos del microprocesador como un puerto de entrada. Tiene un generador de reloj interno para el proceso de conversión, aunque se puede utilizar con el reloj del microprocesador aplicado a su terminal CLK IN si la frecuencia estuviese comprendida entre 100 y 1460 KHz. Utiliza una simple fuente de alimentación de +5 voltios. Este convertidor responde a un voltaje diferencial analógico [Vin(+) – Vin(-)] aplicado en sus entradas. La distribución de terminales se muestra en la figura 8.

CS

1

20

Vcc

RD

2

19

CLK R

WR

3

18

DB0

17

DB1

16

DB2

A/D

CLK IN

4

INTR

5

VIN(+)

6

15

DB3

VIN(-)

7

14

DB4

A GND

8

13

DB5

VREF/2

9

12

DB6

D GND

10

11

DB7

ADC0801

Figura 8. Distribución de terminales del A/D

Comienzo de la conversión. La orden de comenzar la conversión de la señal analógica aplicada a la entrada del convertidor se efectúa cuando van a 0 las señales CS´ y WR´ como se muestra en la figura 9a. Cuando se completa la conversión y el dato digital está disponible, el convertidor


10 responde colocando INTR´ en 0. Por tanto esta última señal puede ser utilizada como “Fín de Conversión” pudiendo ser monitoreada bajo el control del programa o utilizada para solicitar interrupción del microprocesador.

salida digital

11111111

Conversión terminada INTR

CS

00000100

WR

RD

00000011 00000010

VREF = Vcc si no se aplica ningún voltaje al terminal marcado como VREF/2. Si se aplica un voltaje externo a este terminal, por ejemplo 2 voltios, entonces VREF = 4 voltios y éste será el rango de variación de VIN. En esta situación, los escalones en VIN (variación en VIN en que no cambia la salida digital) será igual a 4/28 = 15.625 milivoltios como se muestra en la figura 10. Se cumple que VIN = escalón x (valor digital). Por ejemplo, si la salida digital es 00000101 = 5dec, entonces VIN = 5 x 15.625 mV = 78.125 mV, correspondiendo este valor al centro del escalón. Reloj. La frecuencia de los pulsos de reloj debe estar en el rango comprendido entre 100 y 1460 KHz. Como la frecuencia del reloj del microprocesador ≈ 1.5 MHz, no puede ser utilizada para alimentar la entrada CLK IN del convertidor. La frecuencia de reloj del A/D puede ser fijada con una red RC externa como se muestra en la figura 11. Con R = 10 Kohmios y C = 150 picofaradios se obtiene una frecuencia del reloj del A/D ≈ 606 KHz,

3.984 v

62.5 mV

Lectura del dato. Para leer el dato digital convertido se hacen 0 CS´ y RD´. El convertidor responde quitando la solicitud de interrupción (INTR´ va a 1) y coloca el dato digital con su demora intrínseca en sus líneas DB7-DB0 como se muestra en la figura 9b. Voltaje de Referencia. El voltaje de referencia del Conv. A/D determina el rango dinámico de la señal diferencial de entrada VIN = VIN(+) – VIN(-).

78.125 mV

00000000 0 v.

Figura 9 Señales en el Convertidor A/D

00000001 31.25 mV

3er estado

(b)

46.875 mV

3er estado

(a)

15.625 mV

Dato

15.625 mV

00000101

CS

INTR

escalón

......

Inicie conversión

valor próximo a 640 KHz recomendado por el fabricante para obtener garantizada la exactitud del Conv. A/D.

entrada analógica VIN

Figura 10. Función transferencial

Sensor de temperatura. El sensor de temperatura seleccionado consiste del circuito integrado LM335 el cual tiene un coeficiente de temperatura de 10 mV/ ºC. A la temperatura ambiente de 25 ºC tiene un voltaje ≈ 2.98 voltios según especificación del fabricante. Su distribución de terminales se muestra en la figura 12. Por lo anterior a 0ºC su voltaje será 2980mV – 10x25= 2.73v y a 100ºC el voltaje en el sensor será igual a 2730mV + 10 x 100 = 3.73v.

A/D

CLK R

R CLK

CLK IN

C Frec =

1 1.1RC

Figura 11. Ajuste de la frecuencia

El potenciómetro de 10 K se utiliza para ajustar el voltaje de salida exactamente en 2.982 voltios a 25ºC y obtener mayor exactitud del dispositivo.


11

NC NC NC

-

1

8

2

7

3

6

4

+ NC NC

5

R

alimentación de +5 v.

V+

V+

10 microfaradios + tantalio

R

salida 10 mv/ºC

2.98v a 25ºC

10 mv/ºC

1 3

circuito básico

sensor calibrado

WR

2

VR T

= 20 ppm/ºC

LM335 10 mV/ºC

10K 150 picofaradios +5v.

CLK IN D GND

1.2K

Rango de temperaturas. Se desea medir temperaturas comprendidas en el rango 0ºC ≤ T < 100 ºC. Como el coeficiente de temperaturas del sensor es de 10 mV/ºC, se utilizará un VREF/2 en el convertidor analógico/digital igual a 1.28 voltios. Esto produce un rango dinámico en el mismo de 2.56 voltios y un escalón en VIN igual a 2.56/28 v = 10 mV. Es decir entonces que para cada grado centígrado de aumento en la temperatura, la salida digital se incrementa en la unidad. Por otro lado, como el sensor produce un voltaje de 2.73 voltios a 0ºC, se colocará este valor en VIN(-). Así cuando la temperatura sea de 0ºC, VIN(+) (salida del sensor) = 2.73v y VIN = VIN(+) – VIN(-) = 0 voltios produciendo el convertidor analógico/digital una salida igual a 00000000. El circuito para efectuar lo anteriormente expuesto se muestra en la figura 13. Los pequeños potenciómetros R1 y R2 se utilizan para ajustar los voltajes en VREF/2 y VIN(-) en 1.28 y 2.73v respectivamente. El potenciómetro R2 ajusta la salida del conv. A/D a 00hex cuando la temperatura sea de 0ºC y R1 a que tenga una resolución (escalón) de 10 mV. R1 varía el voltaje entre 1.14 y 1.43v y R2 entre 2.66 y 2.95v aproximadamente. El LM4050-4.1 es un diodo de precisión de referencia utilizado para obtener un voltaje estabilizado de 4.1 voltios con un coeficiente de temperatura muy pequeño. Este voltaje solamente varía con la temperatura a razón de 20 ppm (partes por millón) por cada ºC.

VIN(+) 2.73v 0.01 microfaradios 9.1K / 5%

VIN(-)

330 ohmios

al bus de datos

DB0 DB1 DB2 DB3 DB4 DB5 DB6 DB7

A GND

Figura 12. Sensor de temperatura LM335 sensor de temperatura

Vcc INTR

RD A/D CS CLK R

selección LM4050-4.1

10K

ajuste

LM335

salida

VREF/2

LM4050-4.1 diodo de precisión de referencia

7.5K 5% 1.28v 1K R1

R2

1K

3.9K / 5%

3.3K / 5%

Figura 13 Sensor de Temperatura y Convertidor A/D

El capacitor de 10 microfaradios conectado a la alimentación de +5v. del A/D debe ser de tantalio para eliminar los impulsos de ruido que puedan venir por la línea de alimentación de +5v. y estar físicamente conectado lo más próximo posible al terminal de Vcc del convertidor analógico/digital. El cable de conexión del sensor de temperatura debe ser trenzado para evitar ruido inducido y conectado a tierra lo más cerca posible del terminal marcado como AGND (analog ground : tierra analógica) del A/D. El sensor de temperatura LM335 debe ir encerrado en un tubo metálico o de vidrio para construir la sonda que se introduce en el líquido. Debe estar embebido en grasa de silicona para garantizar una buena transferencia de calor y el extremo abierto del tubo debe ir sellado con sellante de silicona de alta temperatura para evitar la entrada de líquido. Puertos Programables. Se plantea como requerimiento la implementación del sistema digital con tres puertos programables, por lo que se utiliza la interface periférica programable 82C55 de la compañía Intel Corporation. Este circuito integrado goza de gran aceptación al ser utilizadas sus funciones en la implementación de computadores personales recientes basados en el Pentium II y empleado para implementar una interface con el teclado y el puerto paralelo de la impresora en muchos computadores personales. En la figura 14a se muestra la distribución de terminales del 82C55, así como las


12

Puerto de entrada en modo 1. En este modo de operación, el puerto funciona como un registro con almacenamiento del dato. Esto permite que el dato permanezca en el puerto hasta que el microprocesador se encuentre listo para leerlo. La figura 15 muestra las señales en este modo de operación, en donde las líneas PC3, PC4 y PC5 del puerto C no manejan datos, sino señales de diálogo del puerto A. En la figura 15 se ha supuesto que el puerto A está programado como entrada y el puerto B como salida. El significado de estas señales es el siguiente.

byte de comando A

5 36 9 8 15 6

RD WR A0 A1

RESET

CS

82C55 Vcc: 26 GND : 7

A1 A0 0 0 0 1 1 0 1 1

PA0 PA1 PA2 PA3 PA4 PA5 PA6 PA7

4 3 2 1 40 39 38 37

PB0 PB1 PB2 PB3 PB4 PB5 PB6 PB7

18 19 20 21 22 23 24 25

PC0 PC1 PC2 PC3 PC4 PC5 PC6 PC7

14 15 16 17 13 12 11 10

7 Puerto A

D0 D1 D2 D3 D4 D5 D6 D7

6

5

4

3

2

1

0

1 Grupo B Puerto C : PC3-PC0 1=entrada 0=salida Puerto B 1=entrada 0 = salida

Puerto B

34 33 32 31 30 29 28 27

Modo 0=Modo 0 1=Modo 1

Grupo A Puerto C

Modo 0. La operación en el modo 0 ocasiona que las líneas del grupo funcionen como líneas de entradas con buffer de 3 estados o como líneas de salida con registro. Constituye el modo básico de operación. Modo 1. En el modo 1 de operación, se efectúa una transferencia controlada por pulsos por los puertos A o B, mientras que el puerto C proporciona las señales de diálogo o “handshaking” requeridas para estos puertos. Ya esté configurado el puerto como entrada o salida, el dato es almacenado en el mismo como en un registro. Modo 2. El modo 2 de operación sólo es permitido para el grupo A. El puerto A se convierte en bidireccional pudiéndose efectuar una transmisión y recepción de datos a través de las mismas líneas.

1. STBA´: Entrada de pulso que almacena el dato en el puerto A. 2. IBFA (Input Buffer Full) : Salida que indica que el puerto A contiene un dato 3. INTRA : (Interrupt Request) : Salida de solicitud de interrupción del puerto A. Un 1 en esta salida puede ser utilizado para interrumpir al microprocesador. Esta solicitud de interrupción puede ser in/habilitada con el flip-flop INTEA interno al 82C55. Este flip-flop puede ser colocado en 1 ó 0 con el bit PC4 mediante el byte de comando B para el caso del puerto A programado como entrada.

Bus de datos

direcciones internas para seleccionar los distintos registros del mismo. Consta de 3 puertos A, B y C de entrada/salida los cuales son programados como grupos como se muestra en la figura 14b. Es programado por medio de 2 bytes de comando, donde el bit 7 selecciona el byte de comando A o el B. El byte de comando A programa la función de los grupos A y B mientras que el byte de comando B coloca en 1 ó 0 en forma individual bits del puerto C del 82C55. Los grupos pueden ser programados en tres modos diferentes. El grupo B puede ser programado en el modo 0 ó 1 y el grupo A en los modos 0, 1 ó 2. Ambos grupos pueden ser programados como entrada o como salida.

Puerto C : PC7-PC4 1=entrada 0 = salida Puerto A 1=entrada 0 = salida

Selección Puerto A Puerto B Puerto C Registro de comando

7 0

byte de comando B 6 5 4 3 2 1 X

X

0

X Bit Set/Reset 1 = Set 0 = Reset

selección de 1 bit

(a)

Modo 00 = modo 0 01 = modo 1 1X = modo 2

(b)

Figura 14. Interface periférica programable (a) distribución de terminales y (b) bytes de comando

El dispositivo coloca un dato en sus líneas de salida y lo almacena en el puerto A al generar un pulso STBA´ si el buffer del puerto A está vacío. Este pulso activa las señales IBFA (buffer de entrada lleno) e INTRA (solicitud de interrupción). Una vez que el microprocesador reconoce por medio del software (IBFA) o hardware (INTRA) que un dato está almacenado en el puerto A, lo lee enviando un pulso de lectura RD´. Al leerse el dato del puerto A por el microprocesador, se resttituyen las señales IBFA e INTRA a sus estados inactivos hasta que el siguiente dato


13 sea escrito de nuevo en el puerto A por el dispositivo. Puerto de salida en modo 1. En este modo de operación, el puerto funciona como un registro que almacena el dato enviado por el microprocesador por el bus de datos con el pulso WR´. El significado de las señales asociadas al puerto B operando como salida en el modo 1 se describe a continuación. puerto A

STBA

PC4 PC5 PC3 PC6,PC7 puerto B

RD WR

PC1 PC2 PC0

82C55

dato del dispositivo

BufferA lleno

IBFA

INTRA

Solicitud de interrupción

STBA IBFA

RD

INTRA

PA0-PA7

al dispositivo

OBFB ACKB INTRB

dato dato almacenado en el puerto

2

dato leído por el microprocesador

WR BufferB lleno

OBFB

Los bits del puerto C no utilizados por señales de diálogo quedan como líneas de entrada/salida de propósito general. En el ejemplo de la figura 15 serían los bits PC6 y PC7, los cuales quedan programados o como entrada o salida en dependencia de cómo se haya programado el puerto C del grupo A con el byte de comando A. Lectura del puerto C. Modo 1. En el modo 1 el puerto C genera o acepta señales de diálogo con el dispositivo periférico como se ha visto. La lectura del contenido del puerto C permite al programador monitorear y comprobar el “estado” de cada dispositivo periférico y en concordancia tomar la decisión requerida. En la figura 16a se muestra un resumen de las señales de diálogo en el modo 1 y en b se muestran los distintos bits cuando se efectúa una lectura del puerto C. Modo 1

INTRB ACKB

PB0-PB7 dato enviado al puerto

Figura 15. Señales de diálogo

dato leído del puerto

1. OBF´B: (Output Buffer Full: Buffer lleno). Esta salida se coloca en 0 para indicar que hay un dato escrito o almacenado en el puerto. Regresa a 1 para indicar que el dato fue leído del puerto por un dispositivo externo. 2. ACK´B: (Acknowledge: Reconocimiento). Esta señal es una respuesta del dispositivo externo que indica que ha recibido el dato del puerto. Ocasiona que OBF´B regrese a 1 para indicar que el puerto está vacío. También ocasiona que INTRB regrese a 1 para solicitar una nueva interrupción. 3. INTRB: (Interrupt request: solicitud de interrupción). Señal utilizada normalmente para interrumpir al microprocesador. Puede ser inhabilitada colocando un 0 en INTEB. Esto último puede ser efectuado colocando un 0 en el bit PC2 con el byte de comando B siempre que el puerto B sea programado como salida.

entrada

salida

PC0

INTRB

INTRB

PC1

IBFB

OBFB

PC2

STBB

ACKB

PC3

INTRA

INTRA

PC4

STBA

E/S

PC5

IBFA

E/S

PC6

E/S

ACKA

PC7

E/S

OBFA

D7

D6

Programación como entrada D5 D4 D3 D2

E/S

E/S

IBFA

INTEA

INTRA

INTEB

Grupo A D7

D6

OBFA

INTEA

E/S

INTRA

Grupo A

(a)

D0

IBFB

INTRB

Grupo B

Programación como salida D5 D4 D3 D2 E/S

D1

INTEB

D1

D0

OBFB

INTRB

Grupo B

(b)

Figura 16. Bits del puerto C, (a) resumen modo 1 y (b) lectura del puerto C

Señales en el modo 2. Solamente el grupo A se puede programar en el modo 2, convirtiéndose el puerto A en bidireccional. Esto permite la transmisión y recepción de datos a través de las mismas ocho líneas. Las señales de diálogo en este modo de operación se muestran en la figura 17. La entrada de RESET del 82C55 ocasiona que todos los puertos sean inicializados como puertos de entrada en el modo 0.


14

WR

PC7

OBFA

PC6

ACKA

PC4

STBA

PC5

IBFA E/S

proveniente

del

OBFA

del bus de direcciones

A3 A2 A1 A0

INTRA

82C55

PC0-PC2

WR

ACKA STBA

RST 6.5

IBFA

Reset Out

3

IO/M WR RD

bus periférico RD dato del periférico al 82C55

dato del 82C55 al periférico

dato del 82C55 al microprocesador

Observación: cualquier secuencia donde WR´ ocurra antes que ACK´, y STB´ ocurra antes que RD´ es permitida INTE1: INTE asociado con OBF´: controlado por la acción de set o reset de PC6 INTE2: INTE asociado con IBF´: controlado por la acción de set o reset de PC4

Figura 17. Señales en el modo 2

bus de datos

INTR= INTE2.IBF.STB.RD + INTE1.OBF.ACK.WR

D7 D6 D5 D4 D3 D2 D1 D0

74LS04

Dec

G

CS

B A

1/2 74LS139A

En la figura 18 se ilustra la conexión del 82C55 y el convertidor A/D al sistema de buses del microprocesador 8085. Se han utilizado los bits A3 y A2 para seleccionar a estos 2 circuitos integrados. Observe que el decodificador queda habilitado con IO/M´= 1. De acuerdo con la conexión efectuada las direcciones de los distintos puertos, el registro de comando del 82C55 y el Conv A/D serán como se muestra en la tabla 3.

A1 A0 RD WR

82C55

A/D ADC0801

Y3 Y2 Y1 Y0

Interface del 82C55 y el Conv A/D a los buses.

RD WR

CS Reset D7 D6 D5 D4 D3 D2 D1 D0

PA0-PA7 RD

Reset Out microprocesador.

dato del microprocesador al 82C55

INTRA bus periférico

DB7 DB6 DB5 DB4 DB3 DB2 DB1 DB0

PC3

VIN (+)

INTR

PA7.....PA0 PC7.....PC0PB7.....PB0

74LS04 del sensor de temperatura

Puerto A

Puerto C

Puerto B

Figura 18. Conexión de los puertos y el convertidor a los buses

Tabla 3. Direcciones de los dispositivos Dispositivo Convertidor A/D Puerto A Puerto B Puerto C Registro de comando

Dirección Binario Hexadecimal 00000000 00H 00000100 04H 00000101 05H 00000110 06H 00000111 07H

En la figura 18 se pueden observar los siguientes aspectos:

Dispositivos periféricos.

1. A3A2 = 00 selecciona el convertidor y 01 selecciona el 82C55 2. Con A3A2 = 01, los bits A1A0 seleccionan los distintos elementos del 82C55 3. La señal IO/M´ = 1, habilita el decodificador, por lo que tanto el convertidor como los elementos del 82C55 se pueden acceder con las instrucciones IN o OUT del microprocesador 4. El convertidor solicita interrupción por la línea RST 6.5 del microprocesador. 5. Todos los puertos son inicialmente colocados como entradas en el modo 0 al ser reseteado el 82C55 con la señal

Además del convertidor A/D, el sistema digital debe constar de un display de dos dígitos para colocar el valor de la temperatura leída, una alarma luminosa cuando la temperatura sobrepase un valor preestablecido y un teclado de 4 switches para fijar este valor. Por tanto, la conexión de estos elementos se ilustra en la figura 19. Todos los puertos deben estar configurados en el modo 0. El display está conectado a través de decodificadores BCD/7 segmentos al puerto B el cual debe ser programado como un puerto de salida donde se almacenará el valor de la temperatura leída. La entrada RBI´ de las decenas está conectada a tierra para que el cero no se ilumine.


15 El teclado de 4 switches tiene como misión establecer un valor de temperatura sobre el cual debe activarse la alarma. Este valor debe ser colocado en binario, así si se coloca el 0011, la alarma debe iluminarse si la temperatura es mayor de 30ºC, etc. Un switch cerrado coloca un 0 y abierto un 1. Los switches están conectados a las líneas PA4PA7 del puerto A el cual debe ser programado como entrada. El bit PC0 del puerto C es utilizado como señal para hacer iluminar la alarma. Así, cuando este bit sea 1 hace conducir al diodo emisor de luz infraroja del aislador óptico cerrando al TRIAC NTE5641 e iluminándose la lámpara. Por tanto, el puerto C debe ser programado como un puerto de salida. El opto-aislador tiene como misión aislar eléctricamente las señales débiles de la alta corriente alterna de 60 HZ que circula por la lámpara de 40 vatios cuando ésta se encuentre iluminada y de las líneas de alimentación de 110 voltios. La resistencia de 33 ohmios en serie con el condensador de 0.01 microfaradios tiene como objetivo minimizar la interferencia de radiofrecuencias cuando se conmuta una alta corriente con el TRIAC NTE5641 como la de la lámpara. Software El programa requerido debe inicializar los puertos del 82C55, ordenar el inicio de la conversión al convertidor analógico/digital y esperar a que éste produzca una solicitud de interrupción por la línea RST 6.5 para leer su dato digital de salida. La lectura del dato se

hará en la rutina de servicio. Igualmente se hace una conversión de binario a BCD para llevar en este formato el dato al puerto B y alimentar los decodificadores BCD/7 segmentos. De forma similar se analiza el código colocado en los switches para la toma de la decisión de iluminar la alarma. En la tabla 4 se muestra el programa. PA4 PA5 PA6 PA7 PC0 PB7 PB6 PB5 PB4 PB3 PB2 PB1 PB0 display DC B A LT RBO 74LS47A RBI c d e f g

a b

+5v.

LT D C B A RBO 74LS47A RBI c d e f g a b 220 ohmios

a b c d e f g

a b c d e f g

C

C

NTE3050 ánodo común decenas

+5V

4.7K

+5v.

8

4

2

1

switches

unidades NTE3050 ánodo común MOC3020

+5V 74LS04

4.7K

470 ohmios

alarma lámpara 220 40 vatios ohmios MT1 33 ohmios

TRIAC G

Opto-aislador 74LS47A : decodificador BCD/7 segmentos

NTE5641 MT2 0.01 microfaradios 200 voltios

Figura 19. Display, switches y alarma

Tabla 4. Programa Programa para leer la temperatura de un líquido, actualizar alarma, visualizar la temperatura en un display y leer una temperatura establecida mediante switches CONV EQU 00H ;Dirección del convertidor PTOA EQU 04H ;Dirección del puerto A PTOB EQU 05H ;Dirección del puerto B PTOC EQU 06H ;Dirección del puerto C COMAN EQU 07H ;Dirección reg de comando 82C55 ORG 0000H 0000 C3 40 00 JMP INICIO ORG 0034H ;Dirección del salto por interrupción

110v 60 Hz


16 0034

C3 55 00

JMP SERV ORG 0040H ;Dirección de comienzo 0040 3E 90 INICIO : MVI A,90H ;Programa los puertos y se lleva 0042 D3 07 OUT COMAN ;al registro de comando del 82C55 0044 3E 00 MVI A,00H ;Para desactivar la alarma y 0046 D3 06 OUT PTOC ;se lleva al puerto C PC0=0 0048 31 FF 20 OTRA : LXI SP,20FFH ;Inicializa puntero de la pila en RAM 004B 3E 0D MVI A,0DH ;Para habilitar la línea RST 6.5 y 004D 30 SIM ;se lleva al registro de máscaras 004E D3 00 OUT CONV ;Inicie conversión 0050 FB EI ;Habilita interrupción 0051 00 LAZO : NOP ;Se queda esperando hasta que el 0052 C3 51 00 JMP LAZO ;convertidor A/D interrumpa ;Lectura del dato del convertidor analógico/digital cuando interrumpe al microprocesador 0055 DB 00 SERV: IN CONV ;Se lee el dato del convertidor 0057 CD 63 00 CALL DMRA ;Tiempo para próxima lectura 005ª CD 73 00 CALL BIBCD ;Transforma dato binario en BCD 005D CD 91 00 CALL DSPLY ;Actualiza display y alarma 0060 C3 48 00 JMP OTRA ;Realizar siguiente lectura ;Subrutina de demora para producir un intervalo de tiempo adecuado entre lecturas 0063 F5 DMRA: PUSH PSW ;Guarda el dato en la pila 0064 3E FF MVI A,FFH 0066 06 FF EXT: MVI B,FFH ;Lazo exterior 0068 05 INT: DCR B ;Lazo interior 0069 00 NOP 006ª C2 68 00 JNZ INT 006D 3D DCR A 006E C2 66 00 JNZ EXT 0071 F1 POP PSW ;Restituye el dato en el acumulador 0072 C9 RET ;Retorna ;Subrutina para efectuar la conversión de binario a BCD del dato del convertidor 0073 06 00 BIBCD: MVI B,00H ;Limpia registro B 0075 48 MOV C,B ;Limpia registro C 0076 D6 0A DIEZ: SUI 0AH ;Resta 10 dec al dato 0078 DA 7F 00 JC SUMA ;Si acarreo se hallaron las decenas 007B 04 INR B ;En B quedan las decenas 007C C3 76 00 JMP DIEZ 007F C6 0A SUMA: ADI 0AH ;La última resta no es válida 0081 D6 01 UNO: SUI 01H ;Para colocar unidades en el reg C 0083 DA 8A 00 JC ACOM ;Si acarreo se hallaron las unidades 0086 0C INR C 0087 C3 81 00 JMP UNO 008ª 78 ACOM: MOV A,B ;Las decenas al acumulador 008B 07 RLC ;Se reubica o acomoda en su sitio 008C 07 RLC 008D 07 RLC 008E 07 RLC 008F B1 ORA C ;Se colocan las unidades en A 0090 C9 RET ;A quedó con el dato en BCD ;Subrutina para actualizar el display y activar alarma de acuerdo a la posición de los Sw. 0091 D3 05 DSPLY: OUT PTOB ;Dato al display 0093 47 MOV B,A ;Se guarda el dato en el reg B 0094 DB 04 IN PTOA ;se lee la posición de los switches 0096 E6 F0 ANI F0H ;Cero a los bits de menor orden


17 0098 0099 009C 009E 00A0 00A3 00A5 00A7

B8 DA A3 00 3E 00 D3 06 C3 A7 00 3E FF D3 06 C9

SET: FIN:

CMP JC MVI OUT JMP MVI OUT RET END

B SET A,00H PTOC FIN A,FFH PTOC

Consideraciones finales El sistema digital descrito puede ser fácilmente utilizado en otras muchas aplicaciones pues constituye un pequeño microcomputador con puertos programables y 10 Kbytes de memoria, 8 Kbytes de EPROM y 2 Kbytes de RAM. El programa ilustrado en la tabla 4 puede ser grabado en la EPROM con el programador universal del laboratorio de la universidad. Si el estudiante encuentra alguna dificultad en conseguir en el mercado de Cali el diodo de precisión LM4050, éste puede reemplazarse por un pequeño diodo zener de 3.9 voltios, ½ vatio, (por ejemplo, el NTE5007A) aunque no se obtenga la misma exactitud en la medición. Igualmente el ADC0801 puede ser reemplazado por el ADC0804, el cual tiene las mismas características diferenciándose solamente en la precisión. El diseño anteriormente descrito ya ha sido montado y debidamente comprobado su funcionamiento con resultados completamente satisfactorios, por lo que no contiene el más mínimo error, tanto en el hardware como en el software desarrollado. Bibliografía Barry B. Brey, “Los Microprocesadores Intel”, 5ª ed, Prentice-Hall, 2001 Intel, “Microsystem Components Handbook” , Volúmenes 1 y 2, 1985 www.intel.com www.national.com www.ti.com

;Compara switches con el dato ;Si acarreo activar alarma ;Para desactivar la alarma ;Se coloca PC0 en 0 ;Se coloca PC0 en 1


1. Qué son los Ultrasonidos?

GENERALIDADES SOBRE LOS ULTRASONIDOS 2

Por: Andrés David Restrepo Girón . Resumen La ultrasónica constituye un campo de variadas aplicaciones e inmensas posibilidades. Es por eso que en este artículo se pretende hacer una introducción breve a los conceptos básicos y modelos matemáticos concernientes a la propagación de las ondas ultrasónicas, como por ejemplo, los fenómenos de reflexión, refracción, y difracción. Así mismo, se presentan ciertos detalles sobre las técnicas de transmisión y recepción de ultrasonidos, tomando en cuenta a su vez algunas ventajas y desventajas propias de aquéllas. Abstract This paper introduces the basic concepts concerned to ultrasonic waves propagation, including acoustic phenomenna like reflection, refraction, difraction, etc.., and showing some fundamental equations about these. Later, the basic way to transmit ultrasonic waves and receive their echoes, such as another detection details in ultrasonic ranging, are briefly presented. Through this paper principal advantages are shown at the same time that several difficulties are taken into account. Palabras Claves: Ultrasonido, sensores ultrasónicos, acústica, instrumentación, robótica, exploración ultrasónica, tiempo de vuelo, tren de pulsos, umbral.

2

Ingeniero Electrónico de la Universidad del Valle (1999), Magíster en Automática de la misma universidad (2005). Profesor de la Universidad Santiago de Cali en Control Digital, Electrónica Industrial, e Instrumentación. Vinculado al Grupo de Investigación en Instrumentación Electrónica (GIE). Áreas de interés: diseño de circuitos electrónicos, instrumentación inteligente y el procesamiento de señales.

Los ultrasonidos son todas aquellas vibraciones materiales que se producen a frecuencias superiores al campo de audición humana, es decir, frecuencias superiores a 20KHz aproximadamente. Estas ondas constituyen un tipo especial de movimiento ondulatorio en el que se desplazan las partículas del medio de propagación a partir de su posición de equilibrio sin que haya desplazamiento del medio en conjunto, provocando perturbaciones de presión al interior del medio. Una expresión particular para el movimiento ondulatorio dependiente del tiempo t y de la dimensión espacial x (sobre el eje de vibración) es la siguiente (Ec.1):

2πx   2π U ( x, t ) = Am . sen  t−  [Ec.1] λ  T donde: Am = amplitud de la oscilación T = período de la ondulación λ = longitud de onda A diferencia de lo que ocurre con las ondas electromagnéticas, es esencial la presencia de un medio material elástico para la propagación del sonido, dependencia ésta gracias a la cual puede obtenerse información del mismo medio a través de los cambios provocados en la onda ultrasónica a su paso por él. Desafortunadamente, al mismo tiempo se presentarán ciertas características y fenómenos en el material de propagación que conllevarán a inconvenientes en la calidad de la señal. Pero si las ondas acústicas audibles también son materiales, por qué no se utilizan como las ondas ultrasónicas en aplicaciones tan variadas como la detección de fallas estructurales en los materiales, la limpieza fina de superficies, la detección de obstáculos en robots, el reconocimiento de formas, y la generación de imágenes acústicas? Podemos citar dos razones fundamentales:


19 •

Su pequeño ángulo de difracción que hace que las ondas de ultrasonido se agrupen formando un haz agudo, y por lo tanto porten una mayor intensidad de energía. Su reducida longitud de onda que permite mayor resolución a la hora de medir tiempos de propagación o desfases de los ecos captados.

2. Radiación Ultrasónica. Un emisor ultrasónico puede analizarse mediante la adopción del modelo de emisión de un pistón circular (fig.1) [KINSLER 95], para el cual, la amplitud de la presión sobre el eje de radiación acústica, obviando la variable temporal, tiene por representación matemática la ecuación 2 (Ec.2). En esta expresión, ρ0 es la densidad de equilibrio del fluido que sirve de medio de propagación; c es la velocidad de grupo de la onda (velocidad del sonido); U0 es el valor máximo de la velocidad de vibración del pistón; k es el número de onda (k = 2π/λ); r es la distancia entre el punto en cuestión y la superficie del emisor; y a es el radio del pistón.

2    1  a P (r ,0 ) = 2 ρ 0 cU 0 sin  kr  1 +   − 1   r  2   [Ec.2]

Según este modelo, el campo acústico en cercanías a la superficie del sensor presenta varios puntos de presión nula (figuras 2a y 2b): a esta zona que presenta un comportamiento complicado se le conoce

como campo cercano. Mientras tanto, el resto del campo de emisión sonora se caracteriza por una disminución asintótica de la amplitud de la vibración, pareciéndose más bien a la radiación de una esfera pulsante: a esta región se le denomina campo lejano, y es la que domina el campo acústico de los transductores ultrasónicos para aire [KINSLER 95] [McKERROW 93].

a ) Eje de Radiación Transmisor Ultrasónico Campo Cercano

Campo Lejano

Esta divergencia esférica se refleja de manera muy general en la sencilla relación [CARLIN 79] [KELLY 96]:

P (r , θ ) =

P0 (θ ) r

[ Ec.3]

donde: P0(θ) corresponde a la presión inicial dependiente del ángulo con respecto al eje


20 central o de radiación, y r, a la distancia entre el emisor y el punto considerado dentro del campo de vibración. A propósito de esta ecuación, existe además de una dependencia de la intensidad sonora con respecto a la distancia axial, otra con respecto al ángulo que el punto en consideración dentro del campo sonoro forma con el eje de radiación. De hecho, la radiación acústica se divide en un lóbulo principal y múltiples lóbulos laterales de forma cónica, separados entre sí por una serie de puntos de presión nula, como lo muestra la Figura 3. El número de lóbulos laterales depende de la longitud de onda de la vibración, pero de todos los lóbulos presentes el más relevante en cuanto a la energía que transporta es el lóbulo principal.

Como se observa, el frente de onda atraviesa superficies cada vez más grandes a medida que el haz se ensancha, fenómeno que recibe el nombre de difracción y constituye uno de los dos principales factores de pérdida de intensidad en la señal ultrasónica. El ángulo de difracción en los ultrasonidos es relativamente pequeño y se reduce más conforme aumenta la frecuencia del ultrasonido. El otro factor de pérdida se debe a la absorción por parte del medio de propagación (en este caso, el aire) de la energía de la onda. Esta disipación de la energía sonora en el medio puede ser generada por la viscosidad, la conductividad térmica, o según la teoría moderna, por los intercambios moleculares que convierten energía cinética en energías potencial y rotacional de las moléculas constitutivas del medio [KINSLER 95]. Aunque la teoría

moderna sobre la absorción del sonido ha resuelto algunas discrepancias entre la teoría clásica y los resultados experimentales, sigue siendo difícil predecir matemáticamente con exactitud la forma en que se desenvuelve este fenómeno en una aplicación particular; las ecuaciones sirven entonces de guía para enfrentar inicialmente el problema. De cualquier forma la absorción del sonido obedece a una ley exponencial también dependiente de la distancia recorrida r:

P(r ,θ ) = P0 (θ )e −α .r

[Ec.4]

siendo α el coeficiente de absorción [CARLIN 79]. Este coeficiente depende también de la frecuencia del ultrasonido pero de tal forma que a mayor frecuencia mayor cantidad de energía es absorbida por el medio de propagación. Como puede verse, según la aplicación para la que se destine el uso de ondas ultrasónicas, habrá de tenerse en cuenta un compromiso entre difracción y absorción en el medio, ya que, si bien una mayor frecuencia mantiene más compacto el haz ultrasónico, al mismo tiempo hace que el alcance de la propagación acústica se reduzca debido a una atenuación más grande. Combinando la difracción y la absorción, se obtiene en general la siguiente expresión [RESTREPO 99]:

P0 (θ )e −α .r P(r ,θ ) = r

[Ec.5]

3. Reflexión y Refracción. Ahora bien, cuando una perturbación sonora se propaga de acuerdo con el modelo de la ecuación 5, puede toparse con un medio material distinto, situación que involucra otros dos fenómenos acústicos: la reflexión y la refracción. Debido al primero, una parte de la energía de la vibración incidente se refleja en la superficie de contacto de los dos medios


21 de acuerdo con la siguiente relación [CARLIN 79]:

Ar = donde

z1 − z 2 z1 + z 2

z n = ρ n .c n

es

[Ec.6] la

denominada

impedancia acústica del medio n, siendo ρ la densidad y c la velocidad del sonido para ese medio de propagación. Mientras tanto, la refracción hace que el resto de la energía no reflejada se transmita hacia el segundo medio. Cuando se trate de medios líquidos o sólidos se tendrán los dos fenómenos en acción. Pero para el caso en el que se trabaje con ultrasonidos propagados en el aire (o en general en cualquier otro gas), hay que tener en cuenta que la impedancia acústica de aquél es tan pequeña que prácticamente toda la energía incidente sobre cualquier otro medio no gaseoso se refleja; es decir que tenemos aproximadamente un 100% de reflexión y una refracción nula (si en Ec.6 z1 << z2, entonces Ar ≈ 1). Por tanto cualquier objeto en el camino del haz ultrasónico actuará como un reflector total, a la manera en que un espejo lo hace con la luz; es por eso que a este fenómeno se le conoce con el nombre de especularidad. Sin embargo, sólo un objeto plano podría hacer que el haz reflejado conserve el esquema de difracción dictado por la ecuación 4. Si se trata de una forma distinta, la difracción del campo reflejado se apartará de la divergencia esférica ideal, lo que se traducirá en una intensidad diferente de la esperada para el eco captado, o posiblemente en una mezcla de ecos que vienen por trayectorias diferentes [McKERROW 93] [KLEEMAN 95] [RESTREPO 05]. Por otro lado, existe un factor que puede cambiar drásticamente la forma de onda que rebota en un reflector (sea en una interfaz aire-sólido, líquido-sólido, sólido-sólido, etc...), y es la rugosidad del mismo; si la

superficie del objeto o de la interfaz reflectora es muy rugosa (con un espesor h de la rugosidad más allá del límite de Rayleigh – ver fig.4), la onda sufrirá dispersión, análogamente a como la luz se dispersa en un prisma, lo cual reduce radicalmente la intensidad del haz reflejado y podría perderse toda posibilidad de detección de la superficie reflectante [KELLY96].

4. Exploración ultrasónica básica. La exploración ultrasónica puede entenderse como la emisión de una onda de ultrasonido dentro de un medio de propagación con la esperanza de captar y registrar en algún punto específico, ya sea el mismo frente de onda pero un tanto alterado por su recorrido a través del medio material, o lo que es más común, los ecos provocados por un cambio de medio en la ruta de propagación del frente de onda emitido. Otras aplicaciones se reúnen alrededor de la capacidad de utilizar ondas de ultrasonido de potencia suficientemente grande como para producir calor, el cual puede emplearse para fines terapéuticos [GALVÁN 83] o industriales, como en la limpieza de materiales o en la creación de aleaciones que requieren temperaturas focalizadas muy altas. 4.1.

Emisión.

Existen dos formas de emisión ultrasónica: continua y pulsada. La primera consiste en la generación continua de una onda (fig.2a) que puede emitir ecos también continuos; si bien algunas aplicaciones como la holografía acústica continua [KNOLL 91] usan este tipo


22 de transmisión, la más común es la emisión pulsada. [RESTREPO 99] [CARLIN 79] [KLEEMAN 01] [FERDEGHINI 91]. Ella consiste en la excitación del transductor emisor mediante un pulso o un tren de pulsos cada uno de un ancho igual a la mitad del período de resonancia del cristal empleado en el transductor ultrasónico (fig.5). Los compuestos utilizados en la fabricación de estos transductores presentan obviamente cualidades piezoeléctricas como el Cuarzo, el Titatanato de Bario (BaTiO3), y recientemente materiales sintéticos más complejos basados en Titanato y Zircanato de Plomo (PbTiO3 – PbZrO3).

A pesar de que la excitación consiste de un tren de pulsos cuadrados, la vibración acústica resultante corresponderá a una oscilación armónica de presión, pues como se ve en la figura 6b el transductor actúa como un filtro resonante de alta selectividad; de hecho, la mayoría de transductores tienen un ancho de banda considerablemente reducido. Si el tren de ondas choca contra un obstáculo que pueda considerarse plano, el eco que se recogerá en el receptor en forma de señal eléctrica U(t) tendrá la forma de la figura 7, generada por la multiplicación de una onda de igual frecuencia a la de resonancia del cristal, por una función envolvente exponencial [RESTREPO 99] como lo expresa la ecuación 7:

U (t ) = K (t − t0 )e −a (t −t0 ) sin(2πf (t − t0 ) + θ ) [Ec.7] La exploración ultrasónica más básica consiste precisamente en la utilización de un único sensor que actúa como transmisor y receptor, o bien un par transmisor – receptor, en donde se espera obtener un eco semejante al de la figura anterior.

Existen otros esquemas de exploración que usan más transductores o que les brindan a los mismos un movimiento de giro, con el ánimo de utilizarlos, por ejemplo en el campo


23 de la robótica, en sistemas de reconocimiento de formas [BARSHAN 00] [KLEEMAN 01] [RETREPO 05], reconocimiento de entornos [KO 96], de evasión de obstáculos [VEELAERT 99], o incluso en generación de imágenes acústicas para la medicina [GARCÍA 88]. 4.2 Recepción. Una vez que el eco ha llegado al receptor qué se hace con él? Con el eco traducido ya a señal eléctrica gracias al cristal receptor, se puede hacer todo lo necesario para extraer información del medio o del obstáculo que lo produjo como con cualquier otra señal: digitalizarla, tomar su amplitud máxima, determinar su energía, su duración, su espectro en frecuencia, etc... Pero casi siempre es necesario realizar una medición previa directamente relacionada con la detección inicial del eco; se trata del tiempo de vuelo (time of flight – t.o.f) que se refiere al tiempo medido entre el instante en que se emite el tren de pulsos y el instante de llegada del eco captado (fig.8).

El primer método creado para evaluar el t.o.f, y que sigue usándose en nuestros días con algunas variantes es el de Detección por Umbral, para el cual se muestra un diagrama de bloques de su concepción circuital en la figura 9.

Aquí el umbral es un valor de voltaje con el que se compara la línea de recepción, de tal modo que cuando se capta un eco con una intensidad suficiente llegará el momento en el que el nivel de éste supere al umbral y se genere por parte del circuito comparador un pulso de detección. Dicho pulso detendrá un temporizador que previamente había arrancado su conteo en el preciso instante de la emisión del ultrasonido. Sin embargo, existe un problema con este método y consiste en la imposibilidad de que el umbral sea cero o un valor de voltaje muy cercano a cero debido al ruido electrónico. De modo que el valor que se obtiene del temporizador no corresponde al intervalo tomado entre la emisión y el instante justo donde comienza la oscilación de voltaje proporcional al eco detectado, sino a un intervalo mayor (fig.10). Este error además no es constante sino que aumenta conforme el eco llegue con menor intensidad, es decir, mientras se demore más en llegar, o lo que es lo mismo, entre más distancia haya tenido que recorrer.


24 Precisamente la importancia del t.o.f radica en que nos permite conocer la distancia a la que se encuentra el punto de donde proviene la reflexión mediante la conocida fórmula:

d=

1 (c ⋅ t of 2

)

donde: d = distancia c = velocidad del sonido tof = tiempo de vuelo. En aplicaciones sencillas puede hallarse el modo de emplear este método sin mayores problemas; sin embargo, en la actualidad se encuentran bastantes y variados métodos que no usan el umbral [CAI 93] [BUCCI 97] o modifican el método descrito para conseguir reducir este error en el t.o.f, siendo uno de los más comunes el método por filtro acoplado (matching filter) o de correlación cruzada [KLEEMAN 95]. Por último, existe un efecto que introduce dificultades a la hora de implementar un sistema de instrumentación ultrasónico. En la figura 8 salta a la vista la presencia de una señal inmediatamente después del momento en el que se emite el ultrasonido, y a la que se le ha denominado eco falso en el diagrama. Este presunto eco se origina porque la vibración sonora que se produce cuando el tren de pulsos excita al cristal del transductor emisor, se devuelve por el receptor. Cuando se tiene un único transductor que actúa como emisor y receptor a la vez es claro el por qué de este retorno; pero cuando se cuenta con emisor y receptor independientes (dos transductores distintos), uno al lado del otro y separados por una corta distancia, la causa radica en la propagación de los lóbulos laterales que alcanzan al receptor rápidamente luego de ser transmitidos. Este fenómeno es similar a lo que en comunicaciones se conoce como crosstalk, por lo que recibe el mismo nombre en este caso. La consecuencia directa del crosstalk en la emisión ultrasónica es la existencia de una zona muerta en la exploración, es decir, una

zona espacial en la que cualquier eco reflejado en algún punto dentro de ella es indetectable. La consecuencia práctica es que para efectos de detectar un obstáculo o un cambio de medio de propagación y determinar la distancia que lo separa de los sensores, se debe contar con una distancia mínima de detección. La zona muerta se determina experimentalmente partiendo a su vez del cálculo del intervalo de tiempo necesario para deshabilitar la detección de cualquier eco, mientras ocurre la señal espúrea que la origina. Generalmente, para reducir dicha zona muerta se debe centrar los esfuerzos en el acople mecánico y eléctrico de los transductores, y en la forma de la señal de emisión [GWIRC --]. 5. Conclusiones. Los ultrasonidos han demostrado ser desde la primera mitad del siglo XX uno de los fenómenos más interesantes para la instrumentación y de los que más han propiciado investigaciones de su aplicabilidad en procesos industriales, en ensayo no destructivo de materiales, en percepción robótica, y en imágenes médicas. Sus cualidades nacen fundamentalmente de su reducida longitud de onda que provoca que la vibración no se disperse tanto, formando un haz de energía acústica concentrada en un espacio reducido. Adicionalmente su carácter no invasivo lo hace ideal para varios procedimientos de medición riesgosos. La mayoría de aplicaciones involucran la emisión de ultrasonidos a la espera de ecos de los que se extrae la información de uno o varios medios de propagación o de obstáculos en la trayectoria del haz, siendo las medidas más relevantes las del tiempo de vuelo (t.o.f) y la amplitud de las señales recogidas. Aunque la idea podría parecer simple, ponerla en práctica requiere tener en cuenta ciertas limitaciones y características de estas ondas y de los transductores que las generan y las captan. De allí que existan hoy día muchas técnicas de hardware y software


25 que intentan o bien mejorar la precisión en la detección o extraer información más completa de las mismas señales involucradas.

[KNOLL 91] KNOLL, Alois. Ultrasonic Holography Techniques for Localizing and Imaging Solid Objects. IEEE transactions on Robotics and Automation, Vol.7, No.4, Agosto de 1991, pp. 449-467.

6. Bibliografía

[KO 96] KO, J.; KIM, W.; CHUNG, M. A Method of Acoustic Landmark Extraction for Mobile Robot Navigation. IEEE Transactions on Robotics and Automation, Vol.12, No.3 Junio de 1996, pp. 478-485.

[BARSHAN 00] BARSHAN, B.; AYRULU, B.; UTETE, S. Neural Network-Based Target Differentiation Using Sonar for Robotics Applications. IEEE transactions on Robotics and Automation, Vol.16, No.4 Agosto de 2000, pp. 435-442. [BUCCI 97] BUCCI, G.; LANDI, C. Numerical Method for Transit Time Measurement in Ultrasonic Sensor Applications. IEEE Transactions on Instrumentation and Measurement. Vol.46, No.6, Diciembre de 1997. [CAI 93] CAI, C.; REGTIEN, P. Accurate Digital Time – of – Flight Measurement Using Self – Interference. IEEE Transactions on Instrumentation and Measurement. Vol.42, No.6, Diciembre de 1993. [CARLIN 79] CARLIN, Benson. Ultrasónica. Ed. Urmo. España, 1979. [FERDEGHINI --] FERDEGHINI, F.; BRENGI, D.; LUPI, D. Sistema de Detección Combinado para Sensores Ultrasónicos. CITEI, INTI. Buenos Aires, Argentina. [GALVÁN 83] GALVÁN R, Jesús. Seguridad en el Uso de los Ultrasonidos. Aplicaciones y Efectos en Bioingeniería. Mundo Electrónico, No. 133. 1983. [GARCÍA 88] GARCÍA, Miguel J.; CANALS, Javier. Imágenes en Medicina mediante Ultrasonidos. Introducción a la Bioingeniería. Ed. Marcombo. España, 1988. [GWIRC --] GWIRC, S; FERDEGHINI, F.; COMASTRI, A.; LUPI, D. Sensores Ultrasónicos: Respuesta a Distintas Formas de Emisión. CITEI, INTI. Buenos Aires, Argentina. [KELLY 96] KELLY, Alonzo. Curso de Robótica. 1996. [KINSLER 95] KINSLER, Lawrence; FREY, A.; COPPENS, A.; SANDERS, J. Fundamentos de Acústica. Ed. Limusa Noriega Editores, 3ª. edición. México, 1995. [KLEEMAN 95] KLEEMAN, L.; KUC, R. Mobile Robot Sonar for Target Localization and Classification. International Journal of Robotics Research, Vol.14, No. 4, Agosto 1995, pp. 295-318. [KLEEMAN 01] KLEEMAN, Lindsay. Advanced Sonar Sensing. Proceedings 10th International Symposium Robotics Research, Noviembre 2001, Lorne Victoria, Australia, pp. 286-295.

[McKERROW 93] McKERROW, P.; ZHU, S.; NEW, S. Simulating Ultrasonic Sensing with the Lattice Gas Model. IEEE Transactions on Robotics and Automation, Vol.17, No.2 Abril de 2001, pp. 202-208. [RESTREPO 99] RESTREPO, A.; MILLÁN, J. Medición de Nivel en Líquidos Inmiscibles con un Sensor Ultrasónico Inteligente. Tesis de Ingeniería Electrónica, Universidad del Valle, 1999. [RESTREPO 05] RESTREPO, Andrés D. Concepción de un Sistema de Pseudovisión Ultrasónica Aplicando Técnicas Frecuenciales y de Inteligencia Computacional. Tesis de Maestría en Automática, Universidad del Valle, 2005. [VEELAERT 99] VEELAERT, P.; BOGAERTS, W. Ultrasonic Potential Field Sensor for Obstacle Avoidance. IEEE Transactions on Robotics and Automation, Vol.15, No.4, Agosto de 1999, pp. 774-779.


APLICACIONES DE RECONOCIMIENTO DE HABLA USANDO MICROSOFT SPEECH SERVER 2004 Y SASDK (MICROSOFT SPEECH APPLICATION SOFTWARE DEVELOPMENT KIT) Por: Guillermo Gómez Torres, José Abadía, Johan Meusburger3 Resumen La presente investigación, ilustra el desarrollo de aplicaciones de habla con la tecnología Microsoft Speech Server (MSS) 2004 y SASDK. La metodología utilizada fue el estudio de casos y documentos técnicos. También se realizaron pruebas, dos aplicaciones con las herramientas MSS y SASDK, y un tutorial. Entre las aplicaciones tenemos reserva de vuelos y petición de servicios en una pizzería. Finalmente se concluyó que esta herramienta nos brinda una forma sencilla y eficiente para crear y actualizar sistemas de información con funcionalidades de diálogo. Estas aplicaciones brindan a las empresas la oportunidad de agregar un valor extra a sus servicios. Palabras Claves: MSS, SASDK, SALT, ASP.NET, aplicaciones de habla, sistemas de información. Abstract The present investigation, illustrates the development of speech applications with the technology Microsoft Speech Server (MSS) 2004 and SASDK. The methodology used was to study cases and technical documents. Also tests, two applications were realized with the tools MSS and SASDK, and a tutorial. Among the applications we have reserve of flights and petition of services in a pizzeria. Finally it was concluded that this tool offers us an efficient and simple form to create and to 3

Estudiantes de noveno semestre de Ingeniería de Sistemas y Telemática Universidad Santiago de Cali

update systems of information with functionalities of dialogue. These applications offer to the companies the opportunity to add a value extra to their services. Key Words: MSS, SASDK, SALT, ASP.NET, speech applications, information systems. 1. Introducción Hace varios años, los encargados del área de comunicación en las empresas vienen trabajando en la posibilidad de utilizar su infraestructura de datos, para la transmisión de voz. La aparición de nuevos estándares y la mejora de tecnologías de compresión y transmisión de voz han llevado a implantar dicha idea. Estos avances permiten realizar llamadas telefónicas a través de internet, denominado VoIP. También cuando se dispone de un ancho de banda óptimo, se podría transportar los datos, la voz y el video por un mismo canal de comunicación. Gracias al estándar de VoIP se generan ventajas evidentes como ahorro de costos, integración de servicios y unificación de estructura. Existen además, tecnologías y herramientas que nos permiten desarrollar y actualizar aplicaciones o sistemas de información de una forma sencilla y eficiente con funcionalidades de habla. Estas soluciones permiten a las empresas ser innovadoras, ser más eficientes, encaminarse a un perfeccionamiento en los procesos de negocio y mejoramiento de los servicios al cliente. En este sentido Microsoft ha creado una herramienta para desarrollar aplicaciones de habla. El propósito de esta investigación es dar a conocer y desarrollar aplicaciones con estas nuevas tecnologías de diálogo, usando el Speech Application Software Development Kit (SASDK) y el Microsoft Speech Server (MSS). Estas herramientas se basan en el estándar de Speech Application Language Tags (SALT), para aplicaciones y servicios Web.


27 Este artículo incluye, primero el estado de las aplicaciones de habla y los componentes del Microsoft Speech Server. Luego se detallarán las características del Microsoft Speech Application SDK, a continuación los modos de aplicación, los escenarios y aplicaciones del MSS. Por último el desarrollo de aplicaciones con el SASDK así como posibles proyectos futuros a realizarse al interior de la Universidad Santiago de Cali. 2. Microsoft Speech Server: Su estado y componentes. El modelo Web ha permitido a las personas tener acceso a la información en cualquier lugar y tiempo. Desafortunadamente surgen inconvenientes cuando no se tiene un Web browser, o la aplicación Web no tiene buenas técnicas de usabilidad. Para poder solucionar este problema se puede proveer una interfase de voz a las aplicaciones, ya que las personas logran por medio de la voz comunicarse más fácilmente, como es el caso del teléfono. Las tecnologías de diálogo han demostrado gracias a las empresas que las han implementado, la posibilidad de un futuro prometedor. Este nos brinda beneficios claros como: reducción de costos de trabajo con un rápido retorno de inversión, incremento de satisfacción de los clientes, incremento de productividad de los empleados y nuevas oportunidades de negocio. Estas tecnologías de habla se han obstaculizado en su adquisición, porque al inicio de la implantación hay que afrontar costos de mantenimiento, complejidad, preparar recurso humano, asociar y penetrar este cambio de tecnología. Microsoft ha desarrollado a un bajo costo de adquisición una plataforma de habla flexible e integrada llamada Microsoft Speech Server (MSS). La visión de Microsoft es unir la infraestructura Web y los sistemas de voz en una sola. El MSS posee una gran infraestructura de Tecnología de Información (IT) y características de seguridad. Además, soporta aplicaciones de telefonía, multimodal

y construido bajo el estándar abierto de la industria Speech Application Language Tags (SALT). El MSS se instala sobre el sistema operativo Microsoft Windows 2003 Server. A Microsoft se han unido empresas como Intel Corp. e Intervoice Inc. Intel Corp. provee una board para la conectividad de switches telefónicos y PBXs con las aplicaciones del MSS. También suministra un software para la administración de llamadas TIM (Telephony Interface Manager). El TIM hace una integración rápida y sencilla del servidor de diálogo con las tarjetas de comunicaciones Intel NetStructure, permitiendo aplicaciones robustas de procesamiento de diálogo. El estándar Speech Application Language Tags (SALT) [5], permite la integración de la tecnología de habla a las páginas y servicios Web, para aplicaciones de voice-only y multimodal. SALT extiende de los lenguajes marcados como el HTML, XHTML y XML. SALT consiste en un conjunto pequeño de elementos XML, propiedades de objetos DOM, eventos y métodos, los cuales se integran al código fuente de las páginas Web. La estructura y semántica de SALT son independientes de sus documentos de origen. SALT puede ser usado dentro de HTML y todos sus relacionados, o con WML (Wireless Markup Language) o con algún otro SGML (Standard Generalized Markup Language) derivado. [4], [5] El MSS esta constituido por los dos siguientes componentes principales: el Speech Engine Services (SES) y el Telephony Application Services (TAS). Estos componentes se describen a continuación. El Speech Engine Services (SES) es el encargado del reconocimiento y salida de habla para aplicaciones voice-only y también para dispositivos de Pocket PC, SmartPhone y PCs, usando aplicaciones multimodal [8]. SES incluye los siguientes sub-componentes: • Speech Recognition Engine (SER). Este componente es para administrar de manera


28 exacta las entradas de diálogo de los usuarios. • Prompt Engine. Este reúne los indicadores de comandos pregrabados de una base de datos y los reproduce a fin de que los usuarios puedan escuchar una voz humana. • Text-to-Speech Engine (TTS). Cuando los indicadores de comando pregrabados no están disponibles, el Speech Text-toSpeech Engine de SpeechWorks sintetiza la salida de audio de una secuencia de texto. El Telephony Application Services (TAS) brinda un enlace entre el sistema telefónico, Speech Engine Services y el servidor Web. SALT Interpretes interpreta las etiquetas de SALT en el estándar de páginas Web que se definió en la aplicación telefónica [8]. TAS incluye los siguientes sub-componentes: • SALT Interpreter. Este componente administra la interfase de diálogo y la lógica de presentación (entrada y salida). El SALT Interpreter maneja también las interacciones entre la aplicación de diálogo y los componentes de telefonía de una arquitectura. • Media and Speech Manager. Este administra las peticiones realizadas por SALT Interpreter a SES para un reconocimiento de dialogo y una reproducción inmediata, y administra las interfases con el TIM. • SALT Interpreter Controller. Se encarga de administrar la creación, eliminación y reinicio de múltiples instancias de SALT Interpreter que administra diálogos individuales con las personas que llaman. 3. Microsoft Speech Application SDK (SASDK): Características El SASDK es un Kit de desarrollo de software que permite construir aplicaciones ASP.NET basadas en la especificación SALT con funcionalidades de diálogo telefónicas o multimodal, de manera rápida y sencilla. El SASDK se integra en el ambiente de desarrollo del Microsoft Visual Studio .NET

2003 como nos muestra la Figura 1. Además, soporta reconocimiento y salida de habla en idiomas como ingles (U.S.), francés (Canadá) y español (U.S.). Así, los usuarios pueden tener acceso a las aplicaciones mediante un PC o un teléfono, utilizando el diálogo como un modo de interacción entre ellos. El SASDK tiene las siguientes características: • ASP.NET speech controls: Proporciona a los desarrolladores la técnica de desarrollo visual, un wizard, que permite arrastrar y soltar los objetos necesarios para la aplicación. Lo podemos observar al lado izquierdo de la Figura 1. [7],[8] • Speech Add-In for Microsoft Pocket Internet Explorer: Componente que permite que los usuarios con dispositivos Pocket PC puedan tener acceso a las aplicaciones multimodal. [7], [8] • Speech Add-In for Microsoft Internet Explorer: Componente que permite a los usuarios desktop, laptop y tablet PC accedan a las aplicaciones multimodal. [7], [8] • Telephony Application Simulator. Es un simulador para realizar aplicaciones de Voice-Only o telefónicas. [7], [8] • Soporte Dual-Tone Multifrequency (DTMF) mejorado. • Sample Applications and documentación: Ayuda a los desarrolladores para que su aprendizaje sea más rápido y fácil. • Grammar Tools: Es una herramienta gráfica que facilita el proceso de creación, corrección de errores y validación de sintaxis de gramáticas. Las gramáticas es un punto importante de las aplicaciones de habla. Una gramática es un conjunto de reglas estructuradas que identifican palabras o frases. Las gramáticas evalúan si la respuesta de un usuario es valida. La gramática puede ser representada en dos formas. La primera como Augmented BNF (ABNF) que es un texto plano no XML y su representación es similar a la tradicional gramática BNF (Backus-Naur Form). La otra forma de representar es por XML de la especificación gramaticales del


29 reconocimiento de habla de la W3C. El SASDK soporta gramáticas del formato basado en XML. [1], [8] • Prompt Tools: El SASDK contiene una interfase gráfica para la creación, edición, mantenimiento y administración de cada uno de los prompts de la base de datos, llamada el Speech Prompt Editor. Una base de datos prompt son todos los archivos de audio .wav y sus transcripciones. Un Prompt es un aviso, una pregunta o información hablada de una aplicación de diálogo. [1], [8]

simulador de aplicaciones telefónicas. Estas aplicaciones hacen uso del TAS y el SES del MSS.

Figura 2. Básica arquitectura y topología de un Servidor de habla.

Figura 1. El SASDK en el entorno de desarrollo del Visual Studio .NET 2003. 4. Modos de Aplicación. Apps telefónicas de solo voz. Existe en la actualidad aplicaciones voice-only implantadas en algunos bancos para facilitar el servicio de consulta del saldo o transacciones por medio de la línea telefónica. También aerolíneas que tienen sistemas de reservaciones de vuelo por teléfono. El MSS soporta aplicaciones de este modo, pero para ello se necesita una board adicional y mediante el TIM se puede realizar y recibir llamadas de teléfono como se muestra en la Figura 2. Este hardware se instala en el servidor de la organización, o puede estar montada en el Public Switched Telephone Network (PSTN). En el caso de no tener la board adicional, el SASDK brinda un

Multimodal apps. Este modo de aplicación no requiere de ningún hardware adicional, ya que los datos son transmitidos por TCP (Transmission Control Protocol). Este modo esta diseñado para Pocket PC, SmartPhone y PCs tanto de escritorio como portátiles. El funcionamiento de estas aplicaciones multimodal consiste, por ejemplo, que se acceda a una página Web con tecnología de diálogo por medio de una Pocket PC, el cual tendría que tener instalado el Speech Add-in para Pocket Internet Explorer. De esta forma el servidor de habla se conecta al dispositivo por medio de comandos SOAP (Simple Object Access Protocol) y retorna la página Web con SALT. El usuario para la entrada de voz requiere de un micrófono en el dispositivo. El Speech Add-in procesa la entrada, comprime y transmite al servidor de habla sobre TCP. El servidor de habla recibe la voz procesada y la compara con una gramática y retorna el resultado como XML. El Speech Add-in muestra el resultado en la página Web. Si es TTS el servidor retorna la voz procesada sobre TCP y se escucharía por el dispositivo. Todo este proceso se llevaría a cabo teniendo la arquitectura de la


30 Figura 2. Estas aplicaciones solo hacen uso de SES del MSS. 5. Escenarios y Aplicaciones del MSS Microsoft ofrece herramientas para poder desarrollar aplicaciones empresariales de diálogo en escenarios como servicios financieros, manufactureros, gubernamentales, salud e industrias minoristas. En servicios financieros se observa que las empresas han incorporado tecnología de diálogo en sus infraestructuras e interfaces a sus clientes y empleados, soportando servicios que puedan contribuir a realizar estas interacciones más naturales, eficientes y productivas. En este escenario existen empresas como Woodforest Nacional Bank que usan el MSS para un sistema de solución telefónico bancario para atender todo el día una gran cantidad de llamadas. En el escenario gubernamental, se implantan soluciones IT que brinden servicios más cómodos a la sociedad, con un rápido retorno de inversión que sea fácil de instalar y mantener. En el Estado de Alabama (U.S) utilizan la tecnología de diálogo para el sistema legal, que permite identificar a un sospechoso por medio de una aplicación telefónica. En el escenario de la salud, como hospitales y centros médicos, los trabajadores necesitan tener alta movilidad, debido a que las personas interactúan en las piezas, corredores, pisos y oficinas, realizando, analizando y compartiendo documentos. En el escenario empresarial, la competencia global presiona al cambio de lo convencional a lo innovador, creando un ambiente que busque mucho más eficiencia, perfeccionamiento en los procesos de negocio y mejoramiento de los servicios al cliente. En el escenario de las industrias minoristas, los campos principales es la comunicación con el cliente y mantener costos bajos. [10] Intervoice Inc. es una empresa socio de Microsoft que ha realizado soluciones de habla a instituciones bancarias. Las soluciones de Intervoice están

implementadas en nueve de los diez bancos más grandes en Estados Unidos. La solución Intervoice Speech Banking basada en MSS ofrece a los clientes acceso inmediato a servicios bancarios de voz a manos libres. [9] Existen aplicaciones de diálogo robustas implementadas en la actualidad, como en el departamento de tesorería de Michigan. Este provee a la sociedad por medio de un sistema de telefonía basado en el MSS, servicios administrativos, accesos financieros y pagos de impuestos. La NBC noticias implemento para las elecciones presidenciales del 2004 un sistema pionero y único en el mundo basado en el MSS para recolectar reportes y mensajes de problemas en la votación por parte de la sociedad. El sistema guardaba el mensaje e información acerca de la llamada. En New York tienen una aplicación telefónica para los sitios menos favorecidos. Esta aplicación permite que los padres puedan estar más atentos de la educación de sus hijos. El sistema ofrece servicios de información acerca de que asignaturas están cursando los hijos, de un reporte de asistencia a clase, el menú de almuerzo del día y mucho más información relevante. [9] 6. Desarrollo de Aplicaciones con el SASDK En el transcurso de esta investigación desarrollamos dos aplicaciones o software con el SASDK para probar el funcionamiento y la utilidad de esta tecnología. Estos desarrollos de software, se realizaron en un computador Pentium 4 a 2.40 GHz y de 256 MB de memoria RAM, con sistema operativo Windows XP Service Pack 2. Se desarrollo bajo el entorno del Microsoft Visual Studio .Net 2003 y el SASDK 1.1 con reconocimiento y salida de habla en el lenguaje ingles (U.S.). Una de las aplicaciones fue de telefonía o modo voice-only, el cual consistía en un sistema de ventas de pizzas. El cliente llamaba a la pizzería, el sistema lo saludaba y le preguntaba que tamaño de pizza le gustaría comprar. El cliente respondía pequeña, mediana o grande según su gusto y


31 el sistema evaluaba la respuesta con la gramática definida. Si las palabras concordaban con la gramática, el sistema le preguntaba su número telefónico. El cliente respondía y el sistema lo repetía para verificar si estaba correcto. Por último, el cliente respondía OK o cancelar según la verificación de su número y para ordenar el pedido. Al final el sistema agradecía por la compra realizada en la pizzería y le recordaba al cliente no olvidar su número telefónico para reclamar su pedido. Se realizó otra aplicación del modo multimodal que permitía al cliente realizar reservas de vuelo hacia una ciudad determinada. El sistema le preguntaba al cliente hacia que ciudad se dirigía y la fecha a viajar. El cliente le respondía según las ciudades disponibles por el sistema, el mes, día, año y hora del vuelo. El sistema lo registraba si la información era correcta y si había pasaje para esa fecha y lugar. También se probó y se indagó en el Microsoft Speech Server, que fue instalado en un computador con procesador Pentium 4 a 2.40 GHz y de 256 MB de memoria RAM, con sistema operativo Windows Server 2003. Como resultado, concluimos que el MSS es una oportunidad para ofrecer a los usuarios un servicio a la vanguardia de la tecnología, como son las aplicaciones de diálogo, para así satisfacer, mejorar y facilitar los servicios brindados hacia ellos. El SASDK es una herramienta sencilla y rápida para desarrollar software con características de dialogo. Por último realizamos un tutorial, en donde se explica el funcionamiento del MSS y como realizar aplicaciones con el SASDK.

estas nuevas tecnologías. También se quiere fomentar una cultura de investigación y desarrollo de aplicaciones de reconocimiento del habla, usando el Microsoft Speech Server y SASDK. Esto permitirá crear software o aplicaciones que brinden servicios mejorados a los usuarios de la universidad e introducir un nuevo mercado en el sector informático. También se pretende motivar el desarrollo de futuros proyectos dentro la Universidad Santiago de Cali. Dentro de ellos se tienen: la habilitación de habla al sistema de información de estudiantes, docentes y trabajadores, o novedosos proyectos de grado e investigación dentro de los grupos de la Universidad. Para eso, se han planteado otros proyectos de culturización sobre estas tecnologías, empezando por el aprendizaje de las herramientas implicadas, su instalación, configuración y administración. Un proyecto futuro inmediato para ejercitar esta herramienta, sería un juego que reconozca los comandos por medio de la voz en un dispositivo móvil. Otro proyecto, sería construir un curso virtual, en donde se expliquen conceptos, se realice preguntas al estudiante y el conteste todo por medio del habla. Agradecimientos Los autores agradecen la disponibilidad y gran colaboración del M.Sc. Javier Rojas de la dirección general de investigaciones, Universidad Santiago de Cali y M.Sc. Andrés Millán director del Grupo de investigación COMBA I+D por sus revisiones críticas del artículo.

7. Conclusiones y Proyectos Futuros

Referencias

En este artículo se describió los componentes, el funcionamiento y escenarios del MSS y el SASDK. Además, se describen los dos desarrollos de software que se realizaron y un tutorial. Entre las aplicaciones tenemos reserva de vuelos y petición de servicios en una pizzería. En el grupo COMBA I+D, como resultado de esta investigación, se han dado a conocer

[1] Xiaole Song. Building Speech-Enabling IVR application Using Microsoft Speech Server 2004: Grammar and Prompts. http://www.developer.com/voice/article.php/3451891 [2] Sara Rea. Creating .Net Applications That Talk. 1 abril 2005. http://www.informit.com/articles/article.asp?p=378965&rl =1


32 [3] Ken Circeo, Walter Isidro. Question to Ask Yourself Before Writing a Speech App. http://www.microsoft.com/speech/evaluation/newsletter/ articles/0805article.htm [4] Cisco Systems Inc., Comverse inc., Intel Corporation, Microsoft Corporation, Philips electronics n.v., Speech Works international INC. Speech Application Language Tags (SALT) 1.0 Specification. 15 Julio 2002 http://www.saltforum.org/devforum/spec/SALT.1.0.a.asp [5] Speech Application Language Tags (SALT). Technical White Paper. http://www.saltforum.org/whitepapers/whitepapers.asp [6] Vertigo Software, Inc. http://msdn.microsoft.com/library/default.asp?url=/library /enus/dnnetspeech/html/SpeechServDepl.asp [7] Microsoft Speech Server 2004. Estimating Capacity for Speech-Enabled Interactive Voice Response Solutions, White Paper. Septiembre 2005. http://www.microsoft.com/speech/evaluation/whitepaper s/default.mspx [8] Microsoft Speech Server 2004. Evaluation Guide, White Paper http://www.microsoft.com/speech/evaluation/whitepaper s/default.mspx [9] Intervoice Inc. http://www.intervoice.com/solutions/case_studies/travel. html [10] Industry Solutions. http://www.microsoft.com/speech/solutions/default.mspx [11]http://msdn.microsoft.com/library/default.asp?url=/lib rary/en-us/dnnetspeech/html/techovrvw.asp [12] Casey Chesnut. An Introduction to Speech Server For voice-only and multimodal applications. http://dotnet.sys-con.com/read/84454.htm Citas 1 juango@ieee.org 2 jabadia83@ieee.org 3 johann.meusburger00@usc.edu.co


DISEÑO Y ELABORACIÓN DE MATERIALES DIDÁCTICOS CON TECNOLOGÍAS INFORMÁTICAS PARA LOS CURSOS DE ESTADÍSTICA Y PROBABILIDAD EN INGENIERÍA Por: Luis Alberto Rincón Abril4 Marco Aurelio Tabares Barreto5 Fabio Herney González Vásquez6 Resumen Este documento, presenta el informe final ejecutivo sobre el desarrollo investigativo realizado por el Grupo “Investigación de Operaciones” (GIO). GIO hace parte de la línea de investigación de Desarrollo de Software y Bases de Datos del Centro de Estudios e investigaciones de Ingeniería (CEII), de la Universidad Santiago de Cali (USC). El objetivo principal es producir materiales didácticos, mediante tecnologías informáticas, que apoyarán a los estudiantes en el estudio y profundización sobre temas de Estadística y Probabilidad Palabras Claves: Estadística, Probabilidad, Laboratorios virtuales, Nuevas tecnologías de la información y las comunicaciones, Software educativo. Abstract This document presents the final executive report on the research development realized by the Group “Operations Research - Linear 4

Ingeniero Electricista, Magíster en Ingeniería de Sistemas. Docente Investigador del grupo GIO, Programa de Ingeniería de Sistemas de la Facultad de Ingeniería y Coordinador del Centro de Estudios e Investigaciones de Ingeniería (CEII) de la Universidad Santiago de Cali. 5

Ingeniero Civil. Especialización en Edumática. Docente Investigador del grupo GIO del Centro de Estudios e Investigaciones de Ingeniería (CEII) de la Universidad Santiago de Cali. 6

Ingeniero Industrial, Master en Finanzas y Economía Internacional, Especialista en Docencia, Doctor en Investigación Educativa, Docente de Dedicación Exclusiva de la Facultad de Ingeniería de la Universidad Santiago de Cali

Programming” (GIO). GIO is part of the research line of Software Development and Databases of the Center of Studies and Research in Engineering (CEII), of the University Santiago of Cali (USC). The principal target is to produce didactic materials, by means of computer technologies, which will support the students in the study and deepening on topics of Statistics and Probability. Keywords: Statistic, Probability, Laboratories Virtual, New Technologies of the Information and the Communications, Educational Software. 1. Introducción. Este Proyecto de Investigación fue realizado por el Grupo de estudios e investigación Operaciones (GIO), que hace parte de la línea de investigación de Desarrollo de Software y Bases de Datos del Centro de Estudios e investigaciones de Ingeniería (CEII) de la Universidad Santiago de Cali (USC). Este proyecto fue propuesto y adelantado, con base en que el diseño de materiales didácticos para las diferentes áreas del conocimiento de los programas de Ingeniería de la Universidad Santiago de Cali, resulta ser una muy buena posibilidad de investigación; por cuanto se hace un aporte a la Institución y a los estudiantes y se realiza un procedimiento investigativo que garantiza una profundización en determinada temática por parte de los responsables del Proyecto. Además de esto, la elaboración de materiales para el apoyo de las diferentes asignaturas, debe ser una constante del profesor universitario para garantizar un proceso de enseñanza-aprendizaje eficiente y de alta calidad académica. En varias áreas de formación de la Ingeniería se usa la Estadística y la Probabilidad, en aspectos tales como descripción y análisis de la variabilidad de datos, construcción de modelos de regresión a partir de datos reales, inferencia a partir de datos, construcción de


34 modelos fundamentados estocásticos.

en

procesos

Además, el profesional de la Ingeniería debe con cierta frecuencia ocuparse de reunir, organizar y analizar datos numéricos para resolver problemas con el diseño de experimentos y la toma de decisiones. Las razones anteriores exigen que los programas de Ingeniería, dispongan al menos de una asignatura de Estadística y Probabilidad que fundamente al estudiante en la descripción de muestras y poblaciones de datos, la inferencia sobre poblaciones a partir de muestras y en el manejo de los modelos sobre las distribuciones de probabilidad que con mayor frecuencia se usan. Resulta entonces, importante, ventajoso y beneficioso para el estudiante de Ingenierías disponer de unos materiales didácticos que le aporten suficientemente en la formación que debe tener en el área de Estadística y Probabilidad, cubriendo todos los temas que requiere durante su etapa de estudiante, bien porque hará uso de ellos en otras materias o en su futuro quehacer profesional. Por lo tanto, en esta investigación se elaboraron unos materiales didácticos completos, que no solamente servirán de apoyo para la asignatura de Estadística y Probabilidad, sino que pueden ser usados como laboratorios y materiales de autoaprendizaje. Tal como se propuso en el Objetivo General del proyecto, esta investigación generó como productos directos un libro y un Software de carácter didáctico que permiten al estudiante conocer, ampliar, reforzar y profundizar sobre los conceptos teóricos, el análisis de un conjunto de ejemplos y la consecución de resultados para los problemas prácticos que deba resolver. Se espera que los resultados de esta investigación, no solamente sirvan de apoyo a los estudiantes de los programas de Ingeniería de la Universidad Santiago de Cali,

sino que trasciendan a los programas afines de las demás instituciones de educación superior en Colombia; constituyéndose en un elemento de aporte en el ámbito nacional. 1.2 Objetivos. 1.2.1 Objetivo General. Diseño y elaboración de unos materiales didácticos mediante las tecnologías informáticas, que apoyen a los estudiantes de Ingeniería en el estudio y profundización de los temas de Estadística y Probabilidad. 1.2.2 Objetivos Específicos. ⇒ Aplicar una metodología adecuada para la elaboración de documentos didácticos. ⇒ Aplicar una metodología adecuada para la elaboración de software didáctico. ⇒ Determinar los usos principales de la Estadística y la Probabilidad en las áreas de formación y en el ejercicio de las Ingenierías. ⇒ Elaborar un texto sobre Estadística y Probabilidad con aplicaciones a la Ingeniería. ⇒ Elaborar un software didáctico que sirva de Laboratorio para los cursos de Estadística y Probabilidad. ⇒ Elaborar un software didáctico que permita el estudio y profundización de Estadística y Probabilidad. 1.3 Estadística y Probabilidad. Godofredo Achenwall, profesor y economista alemán (1719 a 1772) es considerado por algunos investigadores el fundador de la Estadística. Siendo profesor de la Universidad de Leipzig, escribió un artículo sobre el descubrimiento de una nueva ciencia que llamó Estadística y que definió como “el conocimiento profundo de la situación respectiva y comparativa de cada estado”. Achenwall y sus seguidores estructuraron los métodos estadísticos que se orientaron a investigar, medir y comparar las riquezas de las naciones a partir de los conceptos de inventarios y censos que ya se realizaban

34


35 desde la antigüedad. Los juegos de azar dieron origen a la teoría de las probabilidades desarrollada por Pascal y Fermat a mediados del siglo XVII. La curva Normal de mucha importancia en el desarrollo de la Estadística fue publicada originalmente en 1733 por De Moivre, quien no supo como aplicar sus resultados a observaciones experimentales. Su escrito permaneció desconocido hasta que Karl Pearson lo encontró en 1924. Sin embargo, al mismo resultado llegaron los astrónomos y matemáticos Laplace (1749 a 1827) y Gauss (1777 a 1855), independientemente el uno del otro. En el siglo XIX, se hizo necesaria una base más sólida para la estadística. Karl Pearson (1857 a 1936) aplicó las matemáticas a la evolución, como resultado del entusiasmo que generó Darwin en la Biología y construyó durante medio siglo una investigación estadística rigurosa, fundó la revista Biometrika y una escuela de estadística. Gosset (1876 a 1937), consideraba insuficientes los desarrollos matemáticos para encontrar distribuciones exactas de la desviación estándar y otros parámetros; sus escritos sobre sus resultados aparecieron con el seudónimo de Student en la revista Biometrika; Hoy, la distribución tStudent es instrumento fundamental de la estadística. R. A. Fisher (1890 a 1962) recibió influencias de Pearson y de Student e hizo numerosas e importantes contribuciones a la Estadística, entre las que se destaca la teoría sobre la verificación o prueba de hipótesis estadística, presentada en 1936 con J. Neuman. La Estadística es un área de las matemáticas que se ocupa de reunir, organizar y analizar datos numéricos y que ayuda a resolver problemas como el diseño de experimentos y la toma de decisiones. Es considerado un método efectivo para describir, relacionar y analizar los valores de los datos económicos, políticos, sociales, psicológicos, biológicos y físicos. Los avances en la teoría de la probabilidad han aumentado el alcance de las aplicaciones de la Estadística. Muchos conjuntos de datos se pueden aproximar con gran exactitud,

mediante el uso de distribuciones probabilísticas y los resultados de éstas se utilizan para analizar los datos. La probabilidad es útil para comprobar la confiabilidad de las inferencias Estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio Estadístico. La Estadística es una Ciencia que facilita la solución de problemas en los cuales se necesitan conocer algunas características sobre el comportamiento de algún suceso o evento. Estas características permiten conocer o mejorar el conocimiento de ese suceso o inferir el comportamiento de sucesos iguales o similares sin que estos ocurran. Con esto, se tiene la posibilidad de tomar decisiones acertadas y a tiempo, así como realizar proyecciones del comportamiento de algún suceso. De acuerdo con esto, la Estadística tiene aplicación en cualquier campo. En las aplicaciones prácticas es importante describir los rasgos principales de una distribución, es decir, caracterizar los resultados del experimento aleatorio mediante unos parámetros. Llegando así al estudio de las características asociadas a una variable aleatoria introduciendo los conceptos de esperanza y varianza matemática, relacionándolos con los conceptos de media y varianza de una variable estadística. 1.4 Construcción Aprendizaje.

de

Sociedades

de

“El dominio de una habilidad, destreza o conocimiento por parte de un estudiante, suele estar considerablemente determinado por las técnicas particulares usadas para enseñarle. Lo importante no es que los profesores enseñen sino que los alumnos aprendan. Podría decirse que la diferencia entre los métodos tradicionales y los métodos actuales viene dada por el cambio de énfasis en la didáctica, que ha venido pasando de estar

35


36 centrada en el acto de enseñar a estar centrada en el acto de aprender” 7. Actualmente se aceptan una serie de aspectos del constructivismo aplicados en el aula, que conducen al aprendizaje significativo. En este caso, la enseñanza debe ser:  Inductiva, esto es, que lo descubra el propio alumno.  Gráfica, es decir, que interiorice desde el exterior.  Participativa, para que comunique lo aprendido.  Relacional, para que con lo que ya sabe, pueda avanzar.  Enseñanza, tan activa como sea posible.  Relación de los contenidos de aprendizaje con el entorno.  Interdisciplinariedad.  Importancia del uso del material. El futuro de la enseñanza utilizando el recurso de las nuevas tecnologías, especialmente las que tienen que ver con Internet, puede analizarse en cuatro planos: •

La Universidad, no debe limitarse a las cuatro paredes del aula. Debe abrir sus puertas al mundo y estar en permanente interacción con otras Universidades y con la sociedad. La enseñanza_aprendizaje, debe centrarse en el alumno, no en el profesor. Preferiblemente deberá basarse en proyectos. Tendrá que ser multidisciplinaria e interdisciplinaria. Internet tendrá, para este caso, un papel fundamental. El Alumno, tendrá que asumir progresivamente un papel cada vez más activo para garantizar una buena formación, dejando de ser un receptor

Gutiérrez, A., Area de conocimiento Didáctica de la Matemática. Madrid. Síntesis. 1991 7

pasivo de información. Trabajará en colaboración con otros compañeros. El Profesor, deberá ser un guía del aprendizaje en vez de un transmisor de conocimientos. Podrá igualmente, proponer ideas y problemas para estimular la colaboración y participación de otros colegas y de los alumnos.

2 Metodología 2.1 Análisis y Reconocimiento.  Análisis sobre metodologías didácticas. Se hizo una búsqueda de información bibliográfica para reconocer diferentes enfoques en la elaboración de materiales didácticos y se consultó con profesores expertos en la temática de metodologías didácticas.  Análisis sobre los temas. Se hizo una búsqueda de información bibliográfica para profundizar sobre la temática de la Estadística y la Probabilidad.  Definición de contenidos. Se revisaron los programas del área de Estadística y Probabilidad, sus aplicaciones en otras áreas para los programas de Ingeniería de la USC y de otras Universidades en el ámbito nacional e internacional. Se consultaron profesores del área y de otras materias que requieren de esta área.  Definición de materiales. De conformidad con los elementos obtenidos en los puntos anteriores, se definió una estructura básica del texto y de las funciones que debe realizar el software. 2.2 Elaboración del Texto.  Para la elaboración del texto, se procedió de conformidad con los contenidos definidos en la etapa de análisis.  Se produjeron frases o escritos cortos, empleando formas adecuadas a distintas situaciones e intenciones comunicativas, estructurando sus partes y utilizando formas elementales que den cohesión al texto y facilidad en la revisión de los mismos.

36


37  Lo anterior permite que el usuario de la información escrita asuma una valoración del escrito como medio de información y transmisión del conocimiento y como instrumento para planificar y realizar tareas concretas.  Progresivamente se sometieron los avances al estudio y análisis de otros profesores.  A partir de la revisión anterior, se realizaron las modificaciones y ajustes finales por parte de los responsables del proyecto. Finalmente se sometió a una evaluación de pares académicos. 2.3 Elaboración del Software. Como la importancia en la realización de Software Educativo radica precisamente en seguir una Ingeniería de Software bien estructurada, que muestre un plan de trabajo definido, siguiendo los planteamientos didácticos y pedagógicos, que permitan la creación de productos de software de calidad que serán empleados para apoyos didácticos de las áreas de estudio para las cuales sean desarrollados, se realizaron las siguientes etapas:  Fase de Análisis. Se reconocieron los requerimientos del software de conformidad con la definición de materiales, se establecieron los módulos y las funciones del mismo, ajustadas a las necesidades de los futuros usuarios; esto es, estudiantes y profesores de los programas de Ingeniería.  Fase de Diseño. Se elaboró un diseño modular de conformidad con las funciones y módulos definidos en la fases de reconocimiento y análisis. Se elaboraron los algoritmos de simulación para los laboratorios y de cálculo para las aplicaciones y práctica.  Fase de Codificación. El software se elaboró con lenguaje Visual Basic 6.0, por el alto contenido de graficación, manejo de tablas, desarrollos matemáticos, el uso de números aleatorios. Además este lenguaje permite un interfaz amigable y es fácil de operar. Para cada uno de los

módulos se elabora el código fuente correspondiente, a los cuales se tiene acceso desde una pantalla de menú.  Fase de Validación y Pruebas. Se recurrió a la ejecución experimental con un grupo de profesores que participaron en el curso SPSS y con el grupo de estudiantes de la especialización en Producción que cursaron la materia Calidad y Competitividad.  Fase de Producción o Implementación. Se ha producido un CD, el cual permite la instalación o la ejecución directa. Una vez se trámite y adquiera la Patente, se pretende realizar la distribución para los usuarios por uno o varios de los siguientes canales: ⇒ Instalación en algunas salas de computadores de la USC. ⇒ Entrega gratuita de una Licencia a cada profesor del área de Estadística y Probabilidad de la USC. ⇒ Entrega gratuita de una Licencia con la compra de cada ejemplar del texto producido a partir de esta investigación. 3. Resultados Obtenidos  Se aprovecharon las ventajas ofrecidas por las Tecnologías de Información y Comunicación (TIC) para diseñar y elaborar materiales didácticos.  Se aportan materiales para apoyar el trabajo académico del profesor en los cursos y materias que hacen aprovechamiento de los temas de Estadística y Probabilidad.  Se aportan materiales para fortalecer el aprendizaje autónomo de los estudiantes, apoyado en modelos pedagógicos como el constructivismo, que permiten ampliar la capacidad de éstos para aprender y aplicar conocimientos de manera autónoma.  Se fortaleció el trabajo académico del grupo investigador, pues la participación investigativa de los profesores siempre incrementa y mejora el trabajo docente e investigativo en el área de desempeño.

37


38  Se logró determinar que los temas de Estadística y Probabilidad que se necesitan en otras materias de Ingeniería son los siguientes: → Distribución analítica y gráfica de datos. → Medidas de Centralización y Dispersión. → Distribuciones de Probabilidad y Modelos Estocásticos. → Estimación de Parámetros → Pruebas Estadísticas. → Modelos de Regresión.  Se logró realizar un reconocimiento del uso práctico de la Estadística y la Probabilidad en la Ingeniería.  Se elaboró un texto sobre Estadística y Probabilidad con aplicaciones a la Ingeniería, con el siguiente contenido global: 1. Conceptos Preliminares. 2. Representación de Datos. 3. Medidas de Tendencia Central. 4. Medidas de Dispersión. 5. Probabilidades 6. Variables Aleatorias y Distribuciones de Probabilidad. 7. Inferencia Estadística, Estimación. 8. 8. Inferencia Estadística. Prueba de Hipótesis. 9. Teoría de Pequeñas Muestras. 10. La Distribución Chi Cuadrado. 11. Modelos de Regresión.  Aplicación de la metodología básica de la Ingeniería de Software en el desarrollo del software educativo de esta investigación para garantizar su calidad.  Diseño y elaboración de un software didáctico que permita el estudio y profundización y que sirva de Laboratorio para las asignaturas de Estadística y Probabilidad. Este Software contiene 3 módulos principales: Laboratorios, Práctica y Teoría. ⇒ El módulo de Laboratorios, utiliza modelos de simulación para recolectar virtualmente muestras de datos y permitir la realización de:  Distribuciones e Histogramas de Frecuencias.  Medidas de Centralización y Dispersión.

 Distribuciones de Probabilidad.  Distribución Muestral de Medias.  Intervalos de Confianza.  Pruebas o Contrastes de hipótesis.  Pruebas Chi²  Modelos de Regresión. ⇒ El módulo de Práctica, permite que el usuario introduzca datos y obtenga para ellos:  Distribuciones e Histogramas de Frecuencias.  Medidas de Centralización y Dispersión.  Distribuciones de Probabilidad.  Distribución Muestral de Medias.  Intervalos de Confianza.  Pruebas o Contrastes de hipótesis.  Pruebas Chi²  Modelos de Regresión. ⇒ El módulo de Teoría contiene los mismos materiales del texto producido, pero presentados en diferentes formas de animación para facilitar la consulta y estudio por parte del usuario  Se elaboró un artículo para la revista Ingenium. 4. Conclusiones  Se debe hacer un aprovechamiento de las ventajas ofrecidas por las Tecnologías de Información y Comunicación (TIC) para el diseño y elaboración de materiales educativos, por cuanto al través de estas se puede:  Aportar materiales para apoyar el trabajo académico del profesor.  Aportar materiales para fortalecer el aprendizaje autónomo de los estudiantes, con base en el modelo pedagógico del constructivismo.  La participación investigativa de los profesores siempre incrementa y mejora el trabajo académico, por cuanto se obliga a profundizar en el área de desempeño.  La Estadística y la Probabilidad, se usa en diferentes áreas del conocimiento de la Ingeniería, destacándose como temas importantes:  Estadística Descriptiva.  Distribuciones de Probabilidad

38


39  Inferencia Estadística.  Los modelos de Simulación resultan demasiado útiles para el diseño de laboratorios virtuales en el desarrollo de Software Educativo para el área de métodos cuantitativos.  Para garantizar la calidad del Software Educativo, se deben aprovechar las ventajas de la metodología básica de la Ingeniería de Software para su desarrollo.  Los resultados de esta investigación motivan la realización de investigaciones similares para otras materias del área de métodos cuantitativos.  El uso de estrategias virtuales para la elaboración de materiales didácticos, tiene múltiples ventajas sobre los tradicionales métodos, pues a partir de ella, fácilmente se puede:  Incorporar texto, imágenes, sonidos, animaciones, video, interacciones, lo que conlleva a una mayor motivación, aumentando la retención de los conocimientos adquiridos.  Realizar una capacitación personalizada; adecuando los contenidos y recursos a sus destinatarios para que cada estudiante aprenda bajo su propio ritmo.  Poner al alcance de los estudiantes la misma información, para que éstos accedan a ella en cualquier momento y desde cualquier lugar, posibilitando mantener un solo contenido que esté disponible siempre.  Disponer información didáctica fácilmente actualizable.  Usar herramientas tecnológicas que para involucrarlas son fáciles de manejar y se pueden utilizar desde cualquier computador.

CERRADA José y COLLADO Manuel, Introducción a la Ingeniería de Software, Universidad Nacional de Educación a distancia de España. Madrid. 1997. CHOU Y. L., Análisis Interaméricana. México 1982.

Estadístico.

Editorial

CORNEL Gary, Manual de referencia Visual Basic 6.0. Editorial Osborne Mc Graw Hill. Madrid. 1999. CRAIG John Clark and WEBB Jeff . Microsoft Visual Basic 6.0 Developers Worshop, Microsoft press, editorial Mc Graw Hill, 1999. DEVORE Jay L., Probabilidad y Estadística para Ingeniería y Ciencias. 4ª. Edición. International Thomson Editores. 2000. FUENLABRADA, S., Probabilidad y Estadística. Editorial Mc Graw Hill. México. 2000. GUTTMAN, I., WILKS, S. y HUNTER, J.J., Introductory Engineering Statistics. Editorial Wiley & Sons. 1998. KEEPING E. S., Introduction to Statistical Inference. Editorial Princeton. New Jersey. 1962. Montgomery, D.C. y Runger G.C., Probabilidad y Estadística Aplicadas a la Ingeniería, Primera Edición, Mc Graw Hill. 1996 PEÑA, D., Fundamentos de Estadística, Alianza Editorial. Madrid. 2001. PRESSMAN Roger, Ingeniería de Software, un enfoque práctico. Editorial Mc Graw Hill. Madrid. 1998. RINCÓN Luis A., Modelos de Regresión, desarrollo y aplicación con el computador. Universidad Nacional de Colombia. Palmira 1995. RUIZ CAMACHO M., MORCILLO AIXELÁ M.C., GARCÍA GALISTEO J., CASTILLO VÁZQUEZ C., Curso de Probabilidad y Estadística. Editorial Universidad de Málaga. 2000. RUIZ MACIAS, P. y AUSÍN GÓMEZ, J. M., Estadística Descriptiva, Teórica e Inferencial, Editorial Universitas, Badajoz. 2000. YAMANE T., Estadística. Editorial Harla. México 1984. WALPOLE, MYERS y MYERS, Probabilidad y Estadística para Ingenieros. Editorial Prentice Hall. México 1999.

Bibliografía. BROWNLEE K. A., Statistical Theory and Methodology. Sexta edición. Editorial John Willey. 1986. CANAVOS G. C., Probabilidad y Estadística. Editorial Mc Graw Hill. México 2000.

39


SOFTWARE PARA TRANSMISIÓN DE EXPRESIONES MATEMÁTICAS A TRAVÉS DE LA WWW. PROTOTIPO DE CHAT MATEMÁTICO. Por: Héctor Fabián Echeverri Quintero8 John Edward Cortés Loboa9 Fernando Eduardo Ramírez Mera10 Resumen MathML es un lenguaje de etiquetas creado por la W3C con el objetivo de proporcionar un modo de representación para las expresiones matemáticas en la Web. La ventaja de la utilización de este lenguaje en las páginas Web consiste en que en lugar de utilizar imágenes para presentar expresiones matemáticas, se usa texto, por lo tanto, el tiempo de carga de las páginas en los Web browsers se reduce considerablemente. Este documento presenta un sumario del Proyecto de Chat Matemático, el cual se basa en la utilización de las etiquetas MathML para crear y enviar expresiones matemáticas a través de la Web, contribuyendo de esta manera a la educación virtual y a la comunidad científica en general. Palabras Claves: MathML, Matemáticas, Chat, Educación Virtual.

XML,

Abstract MathML is a standard Mathematical Language of the W3C for the Web, which to carry out the show of math texts such as the equation editor of Word. The advantage of this language is that represent the image by mean text reducing the bandwidth in the 8

Profesor del Programa de Ingeniería de Sistemas. Universidad Santiago de Cali, Laboratorio de Visión Artificial. Cali, Colombia. hefaeche@usc.edu.co 9

Ingeniero de Sistemas de la Universidad Santiago de Cali, Laboratorio de Visión Artificial. Cali, Colombia. john.cortes00@usc.edu.co

10

Ingeniero de Sistemas de la Universidad Santiago de Cali, Laboratorio de Visión Artificial. Cali, Colombia. fernando.ramirez00@usc.edu.co

transactions. This document presented a summary of the Mathematical Chat Project as contribution to the virtual education and scientific community. Keywords: MathML, XML, Mathematics, Chat, Virtual Education. 1. Introducción El grupo de investigación desarrolló una aplicación de software de gran utilidad para la comunidad científica y las instituciones educativas que ofrecen programas de educación virtual de manera sincrónica. Esta aplicación le permite a los docentes llevar a cabo tutorías y/o intercambio en línea a través de la World Wide Web con los grupos de estudio que tengan asignados en las áreas afines a las matemáticas tales como el Cálculo diferencial, Cálculo integral, Álgebra lineal, Física, Métodos numéricos, etc. o simplemente intercambiar información de este tipo a la comunidad científica en general. 2. Estado del arte 2.1 Matemáticas en la Web En la actualidad, la presencia de las matemáticas en la Web suele limitarse en algunos casos a la presentación de fórmulas en la mayoría de los casos en formato de imágenes acompañadas de texto descriptivo, lo cual dificulta la creación de documentos que puedan ser puestos a disposición de los ínter nautas. MathML aparece como una iniciativa del World Wide Web Consortium (W3C) organización encargada de los estándares de la WWW, quien reconoció que la falta de soporte para la comunicación científica era un serio problema que estaba afrontando la Web. Dave Raggett incluyó una propuesta para el HTML matemático en el borrador del HTML 3.0 en 1994. Un panel de discusión acerca de las etiquetas matemáticas fue llevado acabo en la conferencia de la WWW en Darmstadt en Abril de 1995. En Noviembre de 1995, representantes del


41 Wolfram Research presentaron una propuesta para poner las matemáticas en HTML al equipo W3C. En mayo de 1996, la reunión de la Digital Library Initiative en Champaign-Urbana jugó un importante papel al unir diferentes intereses. Después de esta reunión, la Revisión Editorial de HTML Matemático fue formada. En los siguientes años, este grupo ha crecido y se reconstituyó formalmente como el primer Grupo de Trabajo de Matemáticas de la W3C en Marzo de 1997. El segundo Grupo de Trabajo de Matemáticas de la W3C fue creado en Julio de 1998 con una fecha de terminación, el cual fue extendido mas tarde para trabajar hasta finales del año 2000. El lenguaje MathML (Mathematics Markup Language), el cual se encuentra en este momento en su versión 2.0 (publicada en Febrero de 2001) es un lenguaje de etiquetas creado por la W3C (World Wide Web Consortium) como una recomendación, con el objetivo de facilitar la visualización de expresiones matemáticas en documentos HTML, debido a que las paginas Web que desplegaban contenido matemático lo hacían a través de imágenes, ocasionando demora en el proceso de carga de las mismas, en los casos en que las imágenes fueran de alta calidad o dificultando el entendimiento de las formulas, en el caso en que las imágenes no tuvieran una buena resolución. Además el hecho de usar imágenes para mostrar formulas dificultaba la interacción entre los miembros de grupos de investigación en sitios remotos a través de la Web, puesto que si una persona quería copiar la información de una pagina Web debía guardar las imágenes de las formulas, pero no podía utilizarlas en otro tipo de aplicaciones de software para su posterior manipulación. MathML es una aplicación de XML para describir el contenido y la estructura de la notación matemática y su propósito principal es permitir que las expresiones matemáticas puedan ser puestas a disposición de ínter nautas en la Web, tal como HTML lo hizo con el texto convencional.

2.2. Características de MathML El lenguaje de etiquetas MATHML [1] cuenta con dos tipos de etiquetas, las etiquetas de presentación y las de contenido. Las etiquetas de presentación consisten de alrededor de 30 elementos los cuales aceptan alrededor de 50 atributos y son usadas para describir visualmente la estructura bidimensional de la notación matemática. Las etiquetas de presentación son utilizadas para expresar la estructura sintáctica de la notación matemática de tal manera como lo hacen los títulos, las secciones y los párrafos, los cuales capturan el nivel alto de la estructura sintáctica de un documento de texto. Debido a esto, por ejemplo, una sola fila de identificadores, operadores tales como “x + a/b” no se representa por un solo elemento mrow (el cual despliega una fila horizontal de argumentos), al contrario se debe representar por un conjunto de elementos mrow anidados de acuerdo con el número de subexpresiones existentes. Los elementos de presentación describen reglas de interpretación visual, pero los diseñadores de interpretadores particulares de MathML están en total libertad de usar sus propias reglas con tal de que sus interpretadores sean fáciles de entender y manejar. Los ejemplos más típicos de las etiquetas de presentación son los elementos mrow, msup, mo, mi, mn, los cuales son usadas para indicar filas horizontales de piezas de expresiones, etiquetar una expresión base y su superíndice o exponente, indicar un operador (+,-,*,/), indicar un identificador (x, y), y para indicar números respectivamente. Ejemplo: x + a/b <mrow> <mi> x </mi> <mo> + </mo> <mrow> <mi> a </mi> <mo> / </mo>


42 <mi> b </mi> </mrow> </mrow> Las etiquetas de contenido consisten de alrededor de 120 elementos que aceptan una docena de atributos. La mayoría de estos, son elementos vacíos que corresponden a una variedad de operadores, relaciones y funciones. Las matemáticas pueden ser distinguidas por el uso de un lenguaje formal, la notación matemática. Sin embargo, las matemáticas y su presentación no deberían ser vistas como la misma cosa. Las sumas o productos existen y son significativas para muchas aplicaciones sin tener en cuenta como son presentados auditivamente o visualmente. El propósito de las etiquetas de contenido en el lenguaje MathML es proveer una codificación explicita de la estructura subyacente de una expresión matemática. Hay muchas razones para proveer una codificación para el contenido de las expresiones matemáticas. Aun que se haga un uso sistemático y disciplinado de las etiquetas de presentación, no se puede capturar apropiadamente esta información semántica. Por esta razón es que es imposible decidir si una etiqueta de presentación fue elegida deliberadamente para codificar la estructura matemática o simplemente para lograr un efecto visual o auditivo. Los elementos más importantes de las etiquetas de presentación son mi, mn y mo y se usan para representar identificadores, números y operadores respectivamente. En las etiquetas de contenido hay solo tres etiquetas, ci, cn, y csymbol, para identificadores, números y nuevos símbolos respectivamente, introducidos en el documento de especificación de MathML. En las etiquetas de contenido, los elementos separados son proveídos por funciones y operadores comúnmente usados. El elemento apply es proveído por extensiones definidas por el usuario al conjunto base. Ejemplo: El producto λ(x, sin(x+1)):

<lambda> <bvar><ci> x </ci></bvar> <apply> <sin/> <apply> <plus/> <ci> x </ci> <cn> 1 </cn> </apply> </apply> </lambda> Sistema de Codificación Unicode: MATHML se basa en el sistema de codificación Unicode para realizar la representación de las expresiones matemáticas, este sistema tiene estandarizado el uso de un número único para cada carácter sin importar el sistema operativo, el programa, la máquina o el idioma. El estándar de codificación Unicode provee un conjunto de caracteres mucho mayor al que presentaba ASCII, conservando la interoperabilidad con los sistemas tradicionales. Este estándar surge como solución única a la gran cantidad de sistemas de codificación existentes en el mundo y a las incompatibilidades presentes entre ellos. El Standard Unicode se basa en el clásico sistema de codificación ASCII el cual utiliza un byte para representar un carácter, por lo tanto solo se pueden representar 256 caracteres (28), mientras que el Unicode utiliza dos bytes permitiendo representar 65536 caracteres (216). 2.3. Chats Matemáticos Los Chats durante mucho tiempo han sido sinónimo de diversión y distracción, aunque en algunos casos estos son utilizados por grupos de investigación para llevar a cabo conversaciones acerca de temas de interés. El problema fundamental de los Chats radica en que no existen versiones especializadas con herramientas exclusivas para determinados grupos de estudio. El Chat Matemático que el grupo de trabajo pretende desarrollar responde a la necesidad que


43 tienen muchos grupos de investigación en el área de las matemáticas y se fundamentará en el uso del lenguaje MathML con el fin de representar expresiones matemáticas por medio de símbolos gráficos de texto, lo cual brinda la ventaja de utilizar el ancho de banda de una manera reducida, debido a que el envío de texto plano a través de Internet no consume un ancho de banda considerable. 3. Implementación 3.1. El paquete Figue y Xerces El paquete Figue [2] es un herramienta que puede ser utilizada para la creación de editores personalizados y fue diseñado y producido por Bruno Conductier, Laurent Ascote y Laurent Therry, investigadores del proyecto CROAP, el cual es un proyecto de l'Institut National de Recherche en Informatique et en Automatique (INRIA) ubicado en Francia. Esta herramienta fue desarrollada completamente con el lenguaje de programación Java. El código de este paquete está disponible gratuitamente para la comunidad de desarrolladores de Java, y puede ser utilizado, modificado y mejorado por cualquier grupo o entidad que desee aprovechar las funcionalidades que brinda. Entre la comunidad desarrolladora de software, Figue es conocido como un Layout de fórmulas matemáticas. Este paquete contiene un conjunto de clases que son capaces de desplegar una fórmula matemática a partir de un documento que contenga etiquetas MathML de presentación. El paquete Xerces es un subproyecto del proyecto Apache XML Project, y consiste de un analizador de XML desarrollado para los lenguajes de Java y C++, implementando los estándares de XML recomendado por la W3C y DOM (Nivel 1 y 2)11. Xerces fue creado por la organización Apache (www.apache.org) creadores del famoso servidor Web. Xerces provee clases para el análisis y generación de XML. El paquete Xerces contiene un conjunto de clases que son capaces de 11

http://xml.apache.org/

analizar un documento MathML y validar si las etiquetas MathML que lo componen corresponden o no al estándar establecido por la W3C, utilizando para ello un archivo DTD (Document Type Definition). Un archivo DTD permite definir qué etiquetas pueden ser incluidas en un documento XML, que en este caso es un documento MathML. Un DTD le informa tanto a los analizadores válidos o no válidos, en donde se espera que aparezca determinado texto, por ejemplo, le permite determinar los espacios en blanco que tienen un significado y cuales pueden ser ignorados. El DTD del lenguaje MathML debe ser descargado de Internet para que el analizador pueda hacer su trabajo, para eso le debemos indicar la ubicación del mismo. ¿Como funcionan los paquetes Figue y Xerces para traducir etiquetas MathML a formulas? •

La entrada de un programa implementado con Figue y Xerces debe ser un archivo MathML o una cadena de caracteres con etiquetas MathML y el archivo DTD correspondiente. El analizador Xerces revisa las etiquetas MathML dadas y valida la forma en que están conformadas en el documento o en la cadena MathML a través del uso del archivo DTD. Este produce un documento llamado Document Object Model (DOM) que representa un árbol DOM, en donde cada nodo del árbol representa un objeto. El paquete Figue lee el documento DOM generado por Xerces y construye una interfaz de usuario llamada Facade la cual despliega las formulas representadas por el documento MathML.

3.2. Especificación de los módulos. En el desarrollo de esta aplicación se utilizaron los siguientes elementos. • • •

El kit de desarrollo de software de Java 2 Standard Edition J2SDK. El IDE (entorno de desarrollo integrado) Eclipse versión 2.1.1. El plugin de PHP para Eclipse.


44 • • •

• • •

El paquete figue.jar del instituto de investigación INRIA. El paquete xerces.jar de la organización Apache [3]. El paquete pg74.1jdbc2.jar de la organización Postgresql para realizar conexiones a bases de datos Postgresql desde Java [4]. El paquete php_java.jar para realizar llamados a programas Java desde PHP. El servidor HTTP (web) Apache [3]. El API de PHP.

Se desarrollaron tres módulos principales utilizando la Técnica de Modelado de Objetos [5] [6] [7] (OMT, por sus siglas en inglés): el módulo Web, el módulo cliente y el módulo servidor. Como se comento, el desarrollo del componente principal está desarrollado en Java [8]. 3.2.1. Módulo Web. Este módulo se divide en varios submódulos: •

Submódulo de autenticación Este submódulo consiste en la validación de la identidad del usuario en la aplicación. El usuario debe ingresar su login y password para ingresar y de acuerdo con su perfil se le debe presentar una interfaz de usuario personalizada en función de los permisos otorgados por el administrador, de tal manera que solo podrá realizar las actividades anteriormente definidas por él.

Submódulo de administración de usuarios. Este submódulo es utilizado para buscar, crear, modificar y eliminar usuarios. Solo el administrador tiene permiso para acceder a este submódulo de la aplicación. Submódulo de administración de permisos y grupos. Este submódulo es utilizado para la asignación de los permisos a cada grupo de usuarios de la aplicación. Solo el administrador tiene

permiso para acceder a este submódulo de la aplicación. •

Submódulo de administración de temas. Este submódulo es utilizado por los usuarios de tipo profesor para la creación de los temas de conversación a los que podrán tener acceso los estudiantes a través del Chat.

3.2.2. Módulo cliente Este módulo se encarga de la presentación de la interfaz que le permite al usuario crear, enviar y recibir los mensajes de texto y/o fórmulas. 3.2.3. Módulo servidor Este módulo se encarga de gestionar la comunicación entre las instancias del Chat, es decir, de reenviar los mensajes a los destinos. También se encarga de iniciar y parar el Chat, procesar las solicitudes de conexión y desconexión del Chat evitando que existan sesiones de usuarios repetidas en el mismo grupo y tema de conversación. En la Figura No. 1, se muestra el diagrama sencillo del establecimiento de una conexión: Red TCP/IP

Switch

Firewall

Servidor web Apache

Computador personal Base de datos

Figura No. 1. Diagrama detallado del establecimiento de la conexión 4. Nuestro Chat El Chat Matemático se puede ejecutar en el modo cliente desde un Browser como Internet Explorer versión 5.5 o superior, Mozilla 1.0 o Netscape versión 5.2 o superior, independientemente del sistema operativo. También deberá poseer el Java Runtime


45 Environment (JRE) o máquina virtual de Java (Java Virtual Machine). El servidor se probó en Windows 98, 2000, Millenium, Xp y Linux, soportando una JVM versión 1.4 o superior, con las API de PHP versión 4 o posterior, un servidor web Apache versión 1.3 o posterior con soporte para php versión 4 o posterior; adicionalmente una base de datos Postgresql 7.2 o posterior. El Chat matemático solicita después de levantar el servidor, una serie de autenticaciones dependiendo de la persona que lo ejecutará. Así encontramos usuarios administradores, estudiantes o profesores, que deben identificarse apropiadamente en una pantalla, tal como se muestra en la Figura No. 2.

Figura No. 2. Autenticación ante la aplicación

Los usuarios que interesan, que son los docentes y los alumnos, disponen de una interfaz gráfica como se muestra en la Figura No. 3. A la izquierda aparece el listado de usuarios Activos (habilitados por el profesor), inactivos y el expositor, que en este caso es el profesor. Si el profesor quiere cambiar el estado de unos de los estudiantes debe dar click con el botón izquierdo del ratón en la carpeta Chat y depuse click con el botón derecho del ratón sobre la misma carpeta ‘Chat’ y le aparecerá la etiqueta Admin. Usuarios, sobre la cual también debe dar click.

Figura No. 4. Escribir expresión matemática Al dar clic con el botón derecho del ratón sobre el área de texto superior se desplegará un listado de opciones entre las cuales se encuentra ‘Vista Preliminar’, la cual sirve para obtener una visualización previa de la expresión matemática en el área de texto inferior, tal como se muestra en la Fig. No. 4.

Figura No. 3. Interfaz grafica del Chat

En la Figura No. 5, se muestra el ejemplo del asistente de escritura de expresiones, muy similar al de OpenOffice. Ya en la Figura 6, se observa la ventana de mensaje desde un usuario a otro, con la formula en un seudo lenguaje y su visualización.


46 Pero se hace importante anotar las siguientes 2 grandes falencias del sistema: A. Figue fue creado bajo el estándar MathML 1.0, razón por la cual no es factible visualizar todas las ecuaciones que uno desea. B. Es más fácil para los usuarios utilizar un seudo lenguaje para representar expresiones matemáticas que utilizar MathML. Las soluciones planteadas para trabajo futuro son: rediseñar Figue con MathML 2.0 e implementar el seudo lenguaje similar al de OpenOffice. Figura No. 5. Asistente expresiones

Adicionalmente a futuro podrán integrarse muchas mejoras, por ejemplo, la posibilidad de graficar las funciones enviadas por el docente o el alumno, o por ejemplo, un generador de soluciones (estilo matlab o mupad), etc. 6. Referencias. Hipervínculos: [1]

http://www.w3.org/TR/2001/REC-MathML220010221/ [2] http://www-sop.inria.fr/croap/figue/web/intro.html [3] http://xml.apache.org/ [4] http://www.postgresql.org/about/ [5] http://ccc.inaoep.mx/~labvision/doo/proy/T32.pdf

Figura No. 6. Mensaje enviado de un usuario a otro 5. Conclusiones Dado que la mayoría de ambientes virtuales de aprendizaje, hoy en día, se han desarrollado bajo la plataforma php, en especial, los de open source (ejemplos de esto son claroline, dokeos, moodle, etc), es factible realizar una rápida implementación de este sistema al interior de los mismos.

[6] http://www106.ibm.com/developerworks/rational/library/354.ht ml [7] Programación orientada a objetos. Segunda edición. Luis Joyanes Aguilar. Editorial Osborne McGraw-Hill. 1998. [8] Cómo programar en Java. Primera edición. H.M. Deitel y P.J. Deitel. Editorial Pearson Educación. 1995.


CUANDO LA CONTAMINACIÓN AMBIENTAL NO SE VE: EL PROBLEMA GLOBAL DE LA CONTAMINACIÓN ELECTROMAGNÉTICA12.

Parte I Por: Javier Salvador Rojas13

“La vida ha nacido de la radiación, subsiste por la radiación. Se suprime por cualquier desequilibrio 14 oscilatorio” . Resumen Los campos electromagnéticos (CEM) se encuentran en la naturaleza y por lo tanto siempre han estado presentes en la tierra, y en la vida del hombre. Sin embargo, durante el siglo XX, la exposición ambiental a fuentes de CEM antropogénicas, se ha incrementado sin parar, debido a la demanda de electricidad, las siempre crecientes tecnologías inalámbricas y los cambios de ciertas prácticas laborales y conductas sociales. Todos estamos expuestos a una mezcla compleja de campos eléctricos y magnéticos a muchas frecuencias diferentes, en el hogar y en el trabajo. En el presente Este trabajo forma parte de los estudios iniciales de la propuesta preliminar del Proyecto de Investigación conjunto (GIAM – GIBMA - COMBA) sobre contaminación ambiental urbana. Dentro de las áreas de trabajo están la determinación y monitoreo de la polución del aire debido al transporte en zonas urbanas, y la contaminación electromagnética en los puestos de trabajo. 13 Geofísico, M.Sc. – geofisico@universia.net.co jarojas@usc.edu.co . Miembro de GIAM - Grupo Investigaciones Ambientales - GIBMA - Grupo de Investigaciones en Biotecnología y Medio Ambiente, COMBA – Grupo de Investigación en Computación Móvil y Banda Ancha - USC - Universidad Santiago de Cali - Cali, Valle, Colombia 12

14

Georges Lakhovsky (1869 - 1942) Ingeniero Ruso radicado en Francia antes de la I Guerra Mundial y pionero de la Bioelectricidad. (By Ken Adachi (Copyright 2001) http://educateyourself.org/be/lakhovskyindex.shtml )

artículo se da una visión panorámica de unos de los problemas ambientales que más se pasan por alto: la contaminación electromagnética. Se contestarán algunas interrogantes como ¿Qué es la contaminación electromagnética? , ¿Qué la provoca?, o ¿Por qué nos afectan los campos electromagnéticos? Este trabajo constituye la parte inicial de un macroproyecto de Investigación sobre la contaminación electromagnética, y será la base para la construcción del marco teórico de dicho proyecto. Palabras Claves: Medioambiente y Electrónica, Problemas Ambientales Globales, Geobiología, Geopatologías Abstracts The electromagnetic fields (EMF) they are in the nature and therefore they have always been present in the earth, and in the man's life. However, during the XX century, the environmental exposition to sources of EMF done by the man , it has been increased without stopping, due to the electricity demand, those always growing wireless technologies and the changes of certain labour practices and social behaviours. We all are exposed to a complex mixture of electric and magnetic fields to many different frequencies, in the home and in the work. Presently article is given a panoramic vision of some of the environmental problems that we frequently forget: the electromagnetic contamination. Some queries will be answered like what the electromagnetic contamination is? , What does it provoke it? or why do they affect us the electromagnetic fields? This work constitutes the initial part of a macro project of Investigation about the electromagnetic pollution, and it will be the base for the construction of the theoretical frame (state of the arts) of this project.


48 Keywords: Environment and Electronics, Environmental Global Problems, Geobiology, Geopathologies Introducción A la par deL calentamiento global, la superpoblación del planeta, la sobreexplotación y la resultante escasez de recursos, la contaminación ambiental se ha convertido en un problema a escala planetaria, que pone en grave peligro la supervivencia no sólo de múltiples especies animales, sino incluso la del propio ser humano. Diariamente se está expuesto a gran cantidad de radiaciones. Algunas de origen natural (telúricas, cósmicas), otras generadas por la actividad del hombre (antropogénicas). En el transcurso de su evolución, el hombre siempre ha estado expuesto a todo tipo de radiaciones. Entendiéndose por radiación, la propagación de una determinada energía, ya sea a través del espacio o de cualquier otro medio natural o artificial. Por lo general, se está más habituado a las radiaciones de tipo electromagnético (teléfonos celulares, electrodomésticos, etc.)15, pero no hay que olvidar que el término engloba todo tipo de emisiones de partículas energéticas: luz, calor, ondas sonoras y emisiones radioactivas. Recientemente, el hombre ha empezado a preguntarse en que medida estas radiaciones afectan la salud del hombre, o si es posible usarlas para curar ciertas patologías. Esto es sencillamente explicable, ya que dichos avances tecnológicos son también recientes, y solo interesaba su funcionalidad y utilidad.

15

Dentro de los emisores de radiación se tienen por ejemplo: la radioy la teledifusión, las telecomunicaciones, el vídeo, DVD, cine, la iluminación, las radiografías, tomografías, fotografías, calefacción, microondas, computadores, maquinarias industriales, entre otros.

Los primeros estudios al respecto surgieron en países europeos como Alemania, Francia, Inglaterra, Suecia y Rusia. Dichos estudios estaban ligados a las investigaciones científicas en aeronáutica espacial, civil y militar, e intentaban responder la pregunta ¿cómo se ve afectada la salud mental y física del hombre, expuesto a altas dosis de radiaciones? Estos estudios, a pesar de haberse iniciado hace más de cuarenta años, se habían estancado por la falta de aparatos de medición sensitivos de alta resolución. En los últimos 15 años con los avances de la microelectrónica y de las computadoras, estos estudios han cobrado nuevamente relevancia e interés. En el campo de las radiaciones naturales, los pioneros en las investigaciones son los alemanes y los rusos, ya en 1928 el científico ruso GEORGES LAKHOVSKY16 afirma que la célula es un elemento resonador electromagnético capaz de recibir y emitir vibraciones de frecuencias muy elevadas, lo cual replanteó ciertos conceptos de la época sobre la biología y fisiología, abriéndole las puertas a la electrobiología. Los alemanes por ejemplo, son los responsables de acuñar el término “Geobiologie y Baubiologie”. 17 El organismo de todos los seres vivos, posee una estructura que funciona por la acción de corrientes eléctricas muy débiles (milivoltios, miliamperios, < 10mV) y de campos magnéticos pequeños18 ( < 20 µT). Por eso los campos naturales o artificiales que superan estos umbrales ejercen una acción desequilibrante en el organismo, especialmente los campos electromagnéticos

16 http://educate-ourself.org/be/lakhovskyindex.shtml 17 Geobiología, como la disciplina que se ocupa de la influencia de las radiaciones naturales sobre los seres vivos. “Baugeologie” - Biología de la construcción, disciplina cuyo principio fundamental es construir no solo para la seguridad de los habitantes, sino para su salud. 18 Los campos magnéticos se miden en Teslas (T) o Gauss (G), que están relacionados de la siguiente manera: 1T = 10000 G.


49 alternos (los generados por la electricidad que llega a nuestras casas). Atacar el problema global de la contaminación ambiental, exige un alto grado de conciencia y compromiso socio-ambiental del la población y sus gobernantes. Esta conciencia muchas veces se adquiere al presenciar (ver, oler, oír, sentir) los estragos de los contaminantes en nuestro entorno inmediato. Lamentablemente existen muchas fuentes de contaminantes - y sus efectos que no se “ven”, lo que conlleva a que las personas pasen por alto este problema. Tal es el caso de la contaminación electromagnética, como subproducto del desarrollo tecnológico masivo, basado en la electricidad y las comunicaciones. ¿Qué es la electromagnética?

contaminación

Cuando nos referimos a la contaminación electromagnética o electropolución hablamos de la contaminación producida por los campos eléctricos y magnéticos, tanto estáticos como variables, de intensidad no ionizante, que, para su estudio, se dividen en varias bandas, dependiendo de su frecuencia:  Frecuencias extremadamente bajas (Extrem Low Frecuency – ELF), producidos por la corriente eléctrica;  de radiofrecuencia, producidos por las transmisiones de radio y televisión,  y las microondas, utilizadas fundamentalmente por algunos electrodomésticos, la TV y la telefonía móvil. La Tabla 1 nos muestra el espectro electromagnético. Dada la proliferación incontrolada de fuentes de contaminación electromagnética a nuestro alrededor, científicos de renombre internacional han mostrado su interés por el tema, advirtiendo del creciente riesgo a que nos vemos sometidos (HARTMANN, WERTHEIMER, TOMENIUS, MOULDER)19. 19

Cfr. JOHN E. MOULDER, Cellular Phone Antennas and Human Health. http://www.mcw.edu/gcrc/cop/cellphone-health-FAQ/;

En este sentido es interesante la entrevista al Prof. Dr. Neil CHARRY, de la Universidad de Lincoln – Nueva Zelanda20. De entre los efectos adversos publicados en estas investigaciones podemos destacar los siguientes: cefaleas, insomnio, alteraciones del comportamiento, depresión, ansiedad, leucemia infantil, cáncer, enfermedad de Alzheimer, alergias, abortos, malformaciones congénitas, etc. (Cfr. www.elektrosmog.de, www.elektrosmog.com, www.risikoelektrosmog.de, LOZANO-NIETO, A. 1999; LINET,1997;FEYCHTING, 1963 ) OMS21, en el cual participan países, como Alemania, Dinamarca, Finlandia, Suecia, Reino Unido, Estados Unidos, Canadá, entre otros, y mediante el cual se pretenden aunar esfuerzos, con el objeto de lograr un adecuado conocimiento de los efectos de la contaminación electromagnética sobre el ser humano. También es de importancia destacar la labor realizada por la Comisión de las Comunidades Europeas, que en 1998 elaboró en su seno unas Recomendaciones para los países europeos en materia de contaminación electromagnética, o el reporte de marzo de 2001 del Biofísico británico Dr. G. Hyland22. Fruto de la creciente preocupación sobre la electropolución, es “El proyecto Internacional CEM” (Campos Electro-Magnéticos), auspiciado por la Organización Mundial de la Salud -

20

The electromagnetic Radiation Health Treat - Part . http://www.nzine.co.nz/features/neilcherry.html 21 http://www.who.int/peh-emf/project/es/ 22 "Die physiologischen und umweltrelevanten Auswirkungen nicht ionisierender elektromagnetischer Strahlung" en http://www.ralfwoelfle.de/elektrosmog/redir.htm?http://www.ralfwoelfle.de/elektrosmog/biologie/hyland.htm


50 Tabla 1. Espectro Electromagnético

Bajas Frecuencias Altas Frecuencias

Efecto calórico Efecto calórico

Rayos No- Ionizantes

Campo Estático Trenes Motores

Radio TV

Microondas Infrarojo Luz

Ionización

Rayos Ionizantes

Luz UV Rayos X Rayos Gamma

Frecuencia

Longitud de Onda

0.3 Hz 3 Hz 16 Hz 30 Hz 50 Hz 300 Hz

1 Mill. Km 100000 Km 18000 Km 11000 Km 6000 Km 1000 Km

3 KHz 30 KHz

100 Km 10 Km

300 KHz 3 MHz 30 MHz 300 MHz 3 GHz

1 Km 100 m 10 m 1m 100 mm

30 GHz 300 GHz 3 THz 30 THz 300 THz

10 mm 1 mm 100 um 10 um 1 um

3 * 10 15 3 * 10 16 17 3 * 10 18 3 * 10 19 3 * 10

100 nm 10 nm 1 nm 100 pm 10 pm

3 * 10

20

Ejemplos Tomógrafos Trenes Electrodomésticos Motores Tendidos eléctricos de alto voltaje (>20 kV) Campo Magnético Terrestre PC - Monitores LW MW KW UKW – VHF UHF Celulares Antenas telecomunicaciones Microondas Radares Luz eléctrica Luz UV Rayos X Rayos Gamma

1 pm

(adaptado de www.elektrosmog.com)

¿Qué provoca electromagnética?

la

contaminación

Los campos electromagnéticos (CEM) de baja frecuencia (50 - 65 Hz23) se generan alrededor de cualquier equipo eléctrico en funcionamiento, sobre todo transformadores (o electrodomésticos que los incorporen), motores y equipos electrónicos (TV, computadores, monitores, celulares, equipos de música, etc.).

23 En el Sistema Internacional de Unidades la unidad de frecuencia es el Hertz (Hz), igual a una vibración por segundo. Un megahertz equivale a un millón de hertz; un gigahertz es igual a mil megahertz. En la radiación electromagnética lo que vibra u oscila son los campos eléctrico y magnético que la componen. El espectro electromagnético consta de ondas de radio, infrarrojas, visibles, ultravioletas, rayos X y rayos gamma, con la frecuencia de la radiación aumentando en este orden (v. Tabla 2).

La contaminación electromagnética también es provocada por las líneas eléctricas de alta tensión y conductores de cualquier instalación eléctrica. Es decir que en muchas ocasiones no es solamente una línea de alta tensión exterior la que provoca esta radiación, sino que también existen elementos de riesgo mucho más cercanos, dentro de la casa misma. (LOZANO-NIETO, A., 1999; MAES, 1999; MAES, 1994; OHLSEN, 1993, SAVITZ, 1988; TOMENIUS, 1986) Las radiaciones se diferencian de la luz visible en su menor frecuencia y en su mayor capacidad de penetración en la sustancia, y se pueden clasificar como radiaciones no ionizantes de alta (a) y baja (b) frecuencia (ver tabla 1 y 2). ¿Por qué nos afectan los campos electromagnéticos? Las cuatro fuerzas fundamentales de la naturaleza, según los físicos, son la fuerza


51 nuclear, la fuerza débil, la gravitacional y la electromagnética, considerando a la electricidad y al magnetismo como manifestaciones distintas de un mismo fenómeno.

proporciona una visión correcta de nuestro estado de salud y de enfermedad. El cuerpo humano contiene cargas eléctricas libres, sobre todo en los fluidos que son ricos en iones, como es el caso de la sangre.

Tabla 2: Tipos electromagnética

El organismo humano, igual que el de los otros seres vivos, posee una estructura que funciona gracias a la acción de corrientes eléctricas y magnéticas muy débiles (<10 mV o <20 µT). Por esta razón los campos electromagnéticos de origen artificial pueden llegar a provocar, a medio y largo plazo malestares en el cuerpo humano24. La exposición a un campo electromagnético hace que esas cargas se muevan, generando así corrientes eléctricas en el interior del organismo.

de

radiación

Clasificación de la radiación electromagnética (en orden de frecuencia descendente) Tipo de Características radiación Ioniza o rompe las moléculas (ultravioleta Ionizante lejano, rayos X y gamma, > 300 THz) Excita los electrones e No ionizante induce reacciones químicas (óptica) (ultravioleta cercano, visible e infrarrojo – 300 GHz) Induce corrientes y da origen al calentamiento de No ionizante los tejidos (microondas y (a) radio alta frecuencia - 30 GHz) Prácticamente no produce No ionizante calentamiento (frecuencias (b) industriales y radio por debajo de 1 MHz) (adaptado de www.elektrosmog.com)

Allí donde haya cargas eléctricas en movimiento, habrá magnetismo. Cualquier sustancia sólida, líquida o gaseosa puede ser ferromagnética, paramagnética o diamagnética en función de la respuesta que manifieste ante un campo magnético exterior. Todas las células de cualquier organismo no sólo presentan una naturaleza bioquímica sino también bioeléctrica, o mejor dicho bioelectromagnética. Desde un punto de vista termodinámico, las células se desenvuelven fuera del estado de equilibrio, son por tanto sistemas abiertos, con puntos sumentes (sumideros) y surgentes (fuentes) de materia y de energía, mostrando una diferencia de potencial eléctrico característica. Nuestro cerebro, nuestro corazón, nuestros músculos e incluso nuestros huesos funcionan mediante impulsos eléctricos. Tan es así que el registro de dicha actividad eléctrica nos

Fig. 1. Esquema del campo eléctrico y magnético alrededor de una persona. (Adaptado de GARZON (1997)) En la Figura 1 se muestra esquemáticamente el campo eléctrico y magnético alrededor de una persona. La resistencia que ejerce el cuerpo al paso de energía eléctrica se mide en Kiloohmios KΩ, que en situaciones normales25 no pasa de 20 KΩ cuando estamos descalzos o llevamos suelas conductoras, si nos aislamos del suelo con zapatos de suela de caucho, esta resistencia aumentaría hasta 100 KΩ, que en ciertas 24 Enfermedades típicas como: estrés, jaquecas, problemas de concentración y en casos extremos cáncer (L. TOMENIUS. ScandinavianJournal of work and enviromental health, Sweden, 1986, Vol. 14 pp 337-343) 25 En condiciones meteorológicas estables la diferencia de potencia en el ser humano oscila entre 130 a 270 V/m (BUENO (1992))


52 personas genera estados de ansiedad y nerviosito (BUENO (1992), GARZON (1997)). Electricidad humana El sistema nervioso del cuerpo humano funciona en base a impulsos eléctricos, aunque su voltaje o carga eléctrica es menor a la ocupada por un par de audífonos. El voltaje utilizado por un bombillo mucho más fuerte26. Se produce un efecto biológico cuando las radiaciones originan algún cambio perceptible en el organismo. El efecto no tiene que ser necesariamente perjudicial; puede ser inocuo, e incluso provechoso. Es benéfica, por ej., la producción de vitamina D por el organismo en respuesta a la absorción de la radiación solar en la piel. Pero el exceso de esta misma radiación puede causar quemaduras a corto plazo y cáncer a largo plazo, por un efecto acumulativo. Comúnmente existe un límite entre lo inocuo o provechoso y lo perjudicial según sea la intensidad de la radiación y el tiempo de exposición, factores que regulan la cantidad absorbida por el organismo. El efecto más importante de las radiaciones no ionizantes de frecuencia superior a 1 MHz y menor de 10 GHz (tipo “a” en al tabla) es el calentamiento inducido en los tejidos, fenómeno muy bien conocido, descrito por la ley de Faraday-Lenz y por la interacción dipolar con el agua. Incluso a niveles muy bajos de intensidad esta radiación produce pequeñas cantidades de calor (0.1- 2 ºC), que son absorbidas por los procesos termorreguladores del organismo sin que el individuo lo perciba. Cuando la fuente de radiación es intensa y amplia, puede hacer que la temperatura del cuerpo, el flujo sanguíneo y la sudoración aumenten (0.5 a 2 ºC27)

26 Partes del sistema nervioso http://icarito.latercera.cl/icarito/2001/806/pag3.htm 27 Cfr. http://www.who.int/docstore/pehemf/publications/facts_press/sfact/nd182.htm

Si una persona es sometida a exposiciones de radiación muy intensas se pueden producir dolores de cabeza, náuseas, atontamiento y, eventualmente, un colapso circulatorio y la pérdida de la termorregulación del cuerpo, llegando a ser fatal en casos extremos. Niveles altos de radiación se pueden encontrar a la distancia de algunas decenas de metros de antenas potentes de frecuencia modulada28. Estas antenas se sitúan usualmente en puntos de difícil acceso, en el extremo de altas torres, y no ofrecen peligro directo. No obstante, las personas que trabajan en los sectores de la radiodifusión, transporte y comunicaciones, pueden estar expuestas a campos de intensidad elevada si realizan su actividad muy cerca de antenas transmisoras o de sistemas de radar. En la mayoría de los países europeos, el uso para fines civiles y militares de los campos de radiofrecuencias está sujeto a normas muy estrictas. La profundidad de penetración en los tejidos de la radiación de frecuencia inferior a 1 megahertz (tipo “b” en la tabla 1.) es mayor que la del tipo “a”. Esta radiación es capaz de inducir cargas y corrientes eléctricas en el organismo, estimulando las células de tejidos tales como los nervios y los músculos. Pequeñas corrientes eléctricas están siempre presentes en el organismo como parte normal de las reacciones químicas propias de la vida. Pero si los campos de radiofrecuencias inducen corrientes que excedan el nivel normal de los tejidos (> 10mV, > 20 µT), es posible que se produzcan efectos perjudiciales para la salud. Se ha encontrado, por ej., que la exposición a la radiación de baja frecuencia altera la actividad eléctrica del cerebro en gatos y conejos, al modificar la movilidad de los iones de calcio. Este efecto también se ha comprobado en células y tejidos aislados29. 28

Cfr. "Electromagnetic Fields and Human Health", Fact sheet nº 193 Junho 2000 OMS, http://www.who.int/pehemf/en/ 29

http://waste.ideal.es/antenas.htm


53 Estudios de la OMS – WHA sugieren que la acción de la radiación cambia el ritmo de proliferación de las células, altera la actividad de ciertas enzimas o afecta al ADN celular. Pero no se conoce la incidencia que estos cambios podrían tener en la salud, y las explicaciones dadas al origen de los supuestos cambios usualmente no resisten el escrutinio científico30. Aún queda mucho por investigar en este sentido. Fuentes Domésticas de

contaminación

Las fuentes que emiten la mayoría de la radiación en nuestro entorno inmediato se pueden clasificar según se localicen en la comunidad, la vivienda o el puesto de trabajo. Un 90 % de la radiación observada en la comunidad procede de antenas emisoras de radio, televisión y de equipos de telecomunicaciones. La exposición a la radiación emitida por estos últimos equipos es, en promedio, inferior a la emitida por los aparatos de televisión en la vivienda. Los niveles más elevados de radiación se registran en zonas situadas en las inmediaciones de emplazamientos de transmisores, antenas repetidoras o sistemas de radar. Tabla 3. Electrodomésticos y su campo magnético en su carcasa (adaptado de www.electrosmog.de) Refrigerador Equipos de sonido, Lavadoras de ropa y vajilla Aspiradoras, tostadores, secadores de ropa, Televisores, taladros, calefacción Rasuradoras, Lámparas de mesa, cocina Secador de cabellos, soldador, licuadoras

0.1 – 10 µT 1 - 10 µT 1 – 100 µT 100 -500 µT 650 – 1000 µT 1000 – 2500 µT

Entre las fuentes de radiación “casera” figuran los hornos de microondas, los teléfonos móviles, los dispositivos de alarma antirrobo y los televisores. Los hornos de microondas, que en principio podrían originar niveles de radiofrecuencias muy elevados, están sujetos a normas estrictas de calidad que limitan las fugas de radiación. En general, el nivel básico de radiación de los equipos electrodomésticos es razonablemente bajo, como lo muestra la Tabla 3. La radiación en el puesto de trabajo se puede originar en los calentadores dieléctricos empleados para laminación de maderas y sellado de plásticos, calentadores por corrientes de inducción, hornos de microondas para uso industrial. Siempre existe la posibilidad de que el personal que trabaja con estos equipos sufra un exceso de radiación, por lo que se deben de cumplir estrictamente las normas y regulaciones establecidas para estos casos. En los Estados Unido, por ejemplo, existe la EPA - Environmental Protect Agency, la cual posee una gran autoridad política. Este aspecto es débil en las legislaciones latinoamericanas, que por el momento se han concentrado más en las contaminaciones visibles. Seguramente pronto vendrán las reglamentaciones para el caso específico de la contaminación electromagnética. No hay que olvidar que existen normas internacionales decretadas para garantizar la seguridad de los aparatos emisores de radiofrecuencias, y para que su uso no interfiera con el de otros equipos. La Comisión Internacional de Protección contra las Radiaciones No Ionizantes (International Comission on Non Ionizing Radiation Protection - ICNIRP31), organización no gubernamental reconocida oficialmente por la Organización Mundial de la Salud (OMS), ha establecido límites admisibles para la exposición a campos de radiofrecuencias.

30

www.who.int Organización Mundial de la Salud, Boletín Informativo número 193 de mayo 1998

31

http://www.icnirp.de/


54 Los niveles promedio de radiación que se observan habitualmente en la comunidad y la vivienda actualmente se encuentran por debajo de los límites admisibles de radiación fijados por el ICNIRP. Hasta el momento existe poca evidencia acerca de alguna relación causa-efecto entre la exposición a las radiofrecuencias y el cáncer, aunque estudios anteriores32 sugieren que las radiofrecuencias pueden inducir el crecimiento de tumores en animales y personas (GREEN et al.,1999; AHLBOM A. et al 1993; FEYCHTING M.; AHLBOM A, 1993, BERTHEIMER, 1979). La mayor cantidad de evidencia se refiere a campos intensos como los que se encuentran en la industria. En investigaciones realizadas en obreros expuestos a niveles significativos de radiación se han encontrado correlaciones que indican un cierto incremento del riesgo de contraer leucemia. Pero existen dudas de si los resultados se deben a los campos electromagnéticos o a algún otro agente; por ej., a agentes químicos también relacionados con el trabajo de los obreros. Tampoco se han encontrado evidencias decisivas sobre la posible influencia de la exposición a la radiación en el cáncer de los niños, aunque se ha especulado mucho acerca de la supuesta relación entre la leucemia y las líneas de alta tensión (ADETUNJI, 2005; HARTMANN, 2002; GREEN et al.,1999; VERKASALO, 1999). El Dr. U.M. Forssen y colegas, del Instituto de Karolinska, concluyeron, después del análisis de los datos del registro de casos de cáncer en Suecia, que no existe conexión alguna demostrable entre la exposición a campos magnéticos y el incremento de riesgo del cáncer de mama en mujeres.33 32

The Associated Bioelectromagnetics Technologists: http://www.emfbioeffects.org 33 Pharma Investments, Ventures & Law Weekly. Atlanta: Apr 10, 2005. pg. 130, “Karolinska Institute, Stockholm; Study doesn't find any link between magnetic fields and increased risk in women”, http://proquest.umi.com/pqdweb?did=821200651&sid=2 &Fmt=2&clientId=57302&RQT=309&VName=PQD

Lo cierto es que estas investigaciones, realizadas en sectores residenciales, son complejas y usualmente poseen un gran margen de error, pues deben tomar en cuenta factores tales como la distancia de la vivienda a las líneas de alta tensión, el tiempo de exposición, o la presencia de otros emisores de radiación en las cercanías, incluyendo los equipos domésticos. No obstante, todavía aparecen noticias alarmantes en los diarios como el Financial Times de Londres que en su edición del 3 de junio de 2005, indicaba: “Niños que viven cerca de las líneas de alta tensión, corren un riesgo ligeramente alto de contraer cáncer”34 . Dicho artículo hace referencia al informe presentado ese día por el British Medical Journal. Estudios históricos efectuados La mayoría de las investigaciones al respecto se han hecho en Europa, específicamente en los países nórdicos, donde el concepto de “Sociedad del Bienestar” no es un parágrafo en la constitución sino una realidad. Realidad tal, que sus gobernantes se preocupan constantemente por al salud de sus pueblo y vigilan con ojo acucioso los efectos nocivos que ciertos “adelantos” tecnológicos puedan tener en el ambiente y en el ser humano. Ya en el año 1992, el Instituto Karolinska de Estocolmo presentó un informe sobre el efecto de los campos electromagnéticos en las personas. Este estudio se desarrolló entre 1960 y 1985 sobre una población de 436.503 personas expuestas a la radiación electromagnética continuada de una línea de alta tensión. Los estudios llevados a término evidenciaron que determinadas enfermedades se manifestaban a partir de las intensidades en le campo magnético mayores a 500 nT (nanoTeslas), y 10 V/m (a frecuencias de 50 Hz), aumentando considerablemente el nivel de riesgo cuando estos valores aumentaban. 34

ADETUNJI, LYDIA. Children who live near power lines 'may run slightly greater cancer risk'. Sección: NATIONAL NEWS BUSINESS & ECONOMY. Financial Times. London (UK): [LONDON 3RD EDITION] Jun 3, 2005. pg. 5


55 Conclusiones En el "Instituto de Bioelectromagnetismo Alonso de Santacruz" de la Universidad de Alcalá de Henares, se descubrió que el funcionamiento de la glándula pineal se alteraba por efecto de los CEM. Esta glándula segrega la hormona melatonina, que mantiene en forma nuestro sistema inmunitario, y regula el crecimiento de las células del cuerpo. Por ello su alteración repercute en los procesos infecciosos y alergias, así como en el crecimiento anormal de las células en el cáncer.35 La radiación electromagnética se considera más peligrosa cuando nos encontramos sometidos a situaciones de estrés y agotamiento. Estas radiaciones se consideran peligrosas a partir magnitudes mayores a 2 mG (> 500 nT) (BUENO, 1992; www.elektrosmog.de, 2005) ¿Qué se puede hacer? Aún, sin disponer de instrumentos de medida, es posible minimizar este tipo de contaminación, si tenemos en cuenta algunas pequeñas precauciones como la de alejarnos de elementos eléctricos que se encuentren enchufados. Uno de los ejemplos más evidentes es el despertador eléctrico, que a causa de la corta distancia a la que se coloca y al transformador que posee emite una elevada radiación sobre las personas. Por ejemplo, una radio de baterías no emite ninguna radiación pero cuando se conecta a la red se convierte en un emisor de campos electromagnéticos. Y una regla muy importante: la distancia es la mejor solución a la radiación. Cuanta mayor sea la distancia de una fuente emisora menor será la radiación que recibamos.

Actualmente se pueden encontrar informes sobre diferentes investigaciones realizadas en grandes grupos de personas o animales, pero con resultados totalmente contradictorios. Por ej., una investigación publicada por el Diario de Asociación de Médicos Alemanes36, en su edición del 13 de abril de 2005, hace alusión al los resultados de un estudio danés publicado en la revista “Zeitschrift Neurology (64, 2005, 1189), en que no se encuentra riesgos significantes en el uso apropiado de los teléfonos celulares. Dicho estudio forma parte del Proyecto Internacional de la Agencia Internacional de Investigaciones sobre el Cáncer – IARC – OMS37. Lo cierto es que aún existe muy poca información acerca del efecto a largo plazo en el cuello y la cabeza de las radiaciones de baja potencia originadas por los celulares. Y los más optimistas consideran que, hasta el momento, el único problema de salud que parece estar asociado al uso de estos teléfonos es el incremento de los accidentes de tránsito, causados por los conductores que usan el celular en la vía sin atender debidamente al control del vehículo. Sin embargo, la realidad es que vivimos sumergidos en un mar de ondas electromagnéticas, donde la contribución de los celulares no es, ni mucho menos, la más importante. Además de la luz solar visible que absorbemos en la piel, ondas invisibles de radio, televisión y microondas atraviesan nuestros cuerpos continuamente, todos los días y cada segundo de cada día, mientras comemos, dormimos, nos bañamos, trabajamos con el computador o nos sentamos frente al televisor.

36

35

BARDASANO RUBIO, José Luís et. al.

ÄRZTE ZEITUNG: http://www.aerztezeitung.de/docs/2005/04/13/066a0104. asp?cat=/news 37 IARC - INTERNATIONAL AGENCY FOR RESEARCH ON CANCER. www.iarc.fr


56 Recomendaciones

COLEGIO OFICIAL DE INGENIEROS INDUSTRIALES, Nº 4 Nov.-Dic. 2001, Madrid.

En cuanto a la prevención de la salud pública y el medio ambiente se refiere, es necesario adoptar el criterio de “precaución” que tenga como eje central los siguientes aspectos:

BERTHEIMER N, LEEPER E. Electrical wiring configurations and childhood cancer. Am. J. Epidemiology, 109:273-284. 1979.

Elaborar un inventario de las fuentes de contaminación electromagnética de la localidad. Elaborar mapas de contaminación electromagnética. Diseñar un programa de medición y control de fuentes de emisión electromagnética. Valorar permanentemente el resultado de la experimentación en el laboratorio y en el campo con animales. Impulsar estudios epidemiológicos que incluyan la estimación del riesgo potencial individual y colectivo. Fomentar un mayor número de investigaciones interdisciplinarias tanto de laboratorio como en seres humanos, para terminar de aclarar los mecanismos y los efectos de los campos electromagnéticos, los térmicos y sobre todo, los efectos no térmicos, poco estudiados. Impulsar el desarrollo y aplicación de normativas y recomendaciones internacionales de protección existentes frente a los campos electromagnéticos en los niveles ocupacional, terapéutico y ambiental. Utilizar en el trabajo y en casa monitores y electrodomésticos que cumplan con las normas internacionales de baja radiación. Tener en cuenta las recomendaciones internacionales más restrictivas, ya que más vale prevenir que lamentar.

DALZIEL, C.F. AND LEE, W. R.. Re-evaluation of lethal electric currents. IEEE Trans. Ind. Gen. Appl., vol IGA-4 págs. 467-476. Sep-Oct 1968.

• •

Referencias AHLBOM A. ET AL. Electromagnetic fields and childhood cancer. Lancet 343: 1295-1296, 1993. AKERSTEDT T, ARNETZ B, FICCA G, PAULSSON L, KALLNER A. A. 50-Hz electromagnetic field impairs sleep Journal Sleep Res. 8, 77-81. 1999. BARDASANO RUBIO, JOSE LUIS. Contaminación electromagnética. REVISTA INFORMATIVA DEL

BUENO, MARIANO. El Gran libro de la casa sana. Edic. Martínez Roca, España, 1992.

FEYCHTING M.; AHLBOM A. Magnetic fields and cancer in children residing near swedish high voltage power lines. American Journal. Epidem. 7:467-481, 1993. GREEN L, MILLER A, AGNEW D, GREENBERG M, LI J. Childhood leukemia and personal monitoring of residential exposures to electric and magnetic fields in Ontario, Canada. Cancer Causes and Control 10: 233243, 1999. HARTMANN, ERNST. Krankheit als Standortproblem. Haug Verlag, Alemania, 2002. LINET M, HATCH E, KLEINERMAN R, ROBISON L, KAUNE W, ET AL. Residential exposure to magnetic fields and acute lymphoblastic leukemia in children. The New England J. Of Medicine 337: 1-7, 1997 LOZANO-NIETO, ALBERT. Electromagnetic fields in your home. Popular Electronics. Farmingdale: Jan 1999.Tomo16, Nº 1; pg. 45, 4 pgs MAES, WOLFGANG. Baubiologie: Praktische Hilfe für jedermann (Biología de la construcción: Ayuda práctica para cualquiera), Kral Haug Verlag, Hiedelberg, Alemania, 1999. MAES, WOLFGANG. Stress through current and radiation. Institut fuer Baubiologie und Oecologie – IBN – Neubuern, Alemania, 1994. MAYERS, A. British Journal of Cancer, Leeds, Reino Unido, 1990, Vol. 62, pp.1008-1014 MOULDER , JOHN E.. Professor of Radiation Oncology. Cellular Phone Antennas and Human Health. http://www.mcw.edu/gcrc/cop/cell-phone-health-FAQ/ OHLSEN, J.H. British Medical Journal, Vol. 307, pp.891-895, 1993 (caso Dinamarca – > 500nT) SAVITZ, D.A. American Journal of Epidemiology. Denver, 1988, Vol.128, pp21-38 TOMENIUS, L. Scandinavian Journal of work and environmental health, Sweden, 1986, Vol. 14 pp 337343. (flujo magnético cerca casa, >500 nT, incidencia cáncer en niños) VERKASALO, P.K. British Medical journal, Vol. 307, PP. 895 -899 (Caso Finlandia, cerca redes alta tensión. > 500 nT)


57 WERTHEIMER, N. y LEEPER, E. American Journal of Epidemiology. Denver, 1979, Vol. 109, pp. 273-284. (flujo magnético cerca casa, >100nT, incidencia cáncer) WOELFLE, DIETER RALF. ELEKTROSNOINFO: "Die physiologischen und umweltrelevanten Auswirkungen nicht ionisierender elektromagnetischer Strahlung" en http://www.ralfwoelfle.de/elektrosmog/redir.htm?http://www.ralfwoelfle.de/elektrosmog/biologie/hyland.htm

Direcciones Electrónicas adicionalmente) AMERICAN JOURNAL aje.oupjournals.org

OF

(consultadas

EPIDEMIOLOGY

ÄRZTE ZEITUNG. http://www.aerztezeitung.de/ 13.04.2005 Electromagnetic Fields and Human Health, Fact sheet nº 193 Junho 2000 OMS, http://www.who.int/pehemf/en/ http://waste.ideal.es/antenas.htm FEDERATION NATIONALE DES CENTRES DE LUTTE CONTRE LE CANCER www.fnclcc.fr/fr/sor/pdf/rapport_abrege/melanome_abre gee_1299.pdf http://educate-yourself.org/be/lakhovskyindex.shtml http://www.who.int/docstore/pehemf/publications/facts_press/sfact/nd182.htm IARC - INTERNATIONAL AGENCY FOR RESEARCH ON CANCER. www.iarc.fr I C N I R P. International Commission on Non-Ionizing Radiation Protection. www.icnirp.de International Comission on Non Ionizing Radiation Protection. http://www.icnirp.de/ JAMA: The Journal of the American Association – www.jama.ama-assn.org KAROLINSKA INSTITUTET UNIVERSITET www.ki.se/

ETT

Medical

MEDICINSKT

OMS BI-193 Organización Mundial de la Salud, Boletín Informativo número 193 de mayo 1998. www.who.int Partes del sistema nervioso http://icarito.latercera.cl/icarito/2001/806/pag3.htm Pharma Investments, Ventures & Law Weekly. Atlanta: Apr 10, 2005. pg. 130, “Karolinska Institute, Stockholm; Study doesn't find any link between magnetic fields and increased risk in women”, http://proquest.umi.com/pqdweb?did=821200651&sid=2 &Fmt=2&clientId =57302&RQT=309&VName=PQD Proyecto CEM –OMS: http://www.who.int/pehemf/project/es/ The Associated Bioelectromagnetics Technologists: http://www.emfbioeffects.org

The electromagnetic Radiation Health Treat – Part – I: http://www.nzine.co.nz/features/ neilcherry.html WHO: World Health Organization www.who.int


58 SISTEMA DE CONTROL DE CALIDAD DE PIÑONES CON VISION ARTIFICIAL

industria que requiera realizar control de calidad de piñones.

Por: Julián A. Mina Caicedo, Fabio A. Rincón Landazúry, Héctor F. Echeverri Quintero, Edgardo S. Barraza Verdesoto Pedro Joaquín Díaz Plata38

Palabras claves: Visión Artificial, Control de Calidad, Piñones.

Abstract Due to the necessity to implement a modulate of quality control to evaluate parameters of the pinions that are used by the Mecatronics Standard System (MSS) of the company Bosch Rexroth Didactic, acquired by the laboratory of Industrial Processes of the University Santiago de Cali, was decided to implement a system of Artificial Vision that was able to make a process of acquisition of these parameters to make the statistical analysis of such lately. The developed solution allows the system to be not only implemented in the MSS, but in any other industry that require to make quality control of pinions. Keywords: Artificial Vision, quality control, pinions. Resumen Debido a la necesidad de elaborarar un módulo de calidad para evaluar parámetros de los piñones que utiliza el Sistema Estándar de Mecatrónica, MSS, de la firma Bosch Rexroth Didactic, adquirido para el laboratorio de Procesos Industriales de la Universidad Santiago de Cali, se decidió implementar un sistema de Visión Artificial a través del cual fuera posible realizar un proceso de adquisición de dichos parámetros, para posteriormente hacer el análisis estadístico de los mismos. La solución desarrollada permite que el sistema se implemente no solamente en el MSS, sino en cualquier 38

Universidad Santiago de Cali, Laboratorio de Visión Artificial, Santiago de Cali, Colombia. jmina@usc.edu.co, frincon@usc.edu.co, hefaeche@usc.edu.co, ebarraza@usc.edu.co, pjdiaz@usc.edu.co

1. Introducción A partir de un estudio y análisis a la adquisición realizada por la Universidad Santiago de Cali del Sistema Estándar de Mecatrónica, MSS, de la firma Bosch Rexroth Didactic se detectó que una de las limitantes para su correcta utilización como herramienta didáctica para el laboratorio de Procesos Industriales, que el módulo de control de calidad era muy costoso, ya que el proveedor lo diseña a partir de las especificaciones del usuario, razón por la cual el equipo de investigación aprovechando las herramientas del Laboratorio de Visión Artificial determinó IMPLEMENTAR UN SISTEMA DE CONTROL DE CALIDAD DE PIÑONES APLICANDO VISIÓN ARTIFICIAL EN EL LABORATORIO DE PROCESOS INDUSTRIALES para satisfacer dicha necesidad y poder contribuir al crecimiento intelectual del Equipo Investigador y al continuo mejoramiento de la Universidad Santiago de Cali y de la Facultad de Ingenierías de la misma. 1.1 Sistema Estándar de Mecatrónica (MSS) El Sistema Estándar de Mecatrónica es un dispositivo electrónico compuesto por una serie de estaciones o módulos que interactuado con un software especial permite realizar análisis de características sobre piñones industriales rectos. Debido al alto costo del software que realiza esta función, el equipo investigador creó un software denominado “Sistema de Control de Calidad de Piñones Industriales aplicando Visión Artificial” que permitió ahorrar a la universidad costos significativos en cuanto a la respectiva adquisición del software. El Sistema Estándar de Mecatrónica está compuesto por las estaciones: puesta a disposición de piezas (TBE), estación de verificación (PSV), estación TrabajoEnsamble (BAF) y la estación de almacén y


59 deposición (LA) que al combinarse e interactuar entre sí, determinan el Sistema Estándar de Mecatrónica, como se muestra en la Figura 1.

• •

• Figura 1. Sistema Estándar de Mecatrónica

1.2. Características del piñón

De acuerdo con la norma No.111.03 (ASA B6.5-1954) de la American Gearing Manufactured Asociation (AGMA) [1], un piñón se caracteriza por:

Superficies: • Cilindro Primitivo o de paso: Es el cilindro imaginario de un engrane que rueda sin deslizamiento. • Cilindro de pie: Es el cilindro imaginario tangente al fondo del espacio entre los dientes. • Circunferencia de base: es la circunferencia desde la cual son generados los perfiles de cada diente. • Circunferencia primitiva o de paso: Es la circunferencia imaginaria que rueda sin desplazamiento con la circunferencia primitiva de un engrane compañero. • Circunferencia exterior: es la circunferencia que pasa por la cabeza de los dientes, también se conoce como circunferencia de adendo. • Circunferencia interior: es la circunferencia que pasa por los pies de los dientes. • Centro de engrane: es el centro de la circunferencia primitiva. • Punto primitivo: es el punto de tangencia entre dos circunferencias primitivas. Dimensiones lineales y circulares

• • •

Paso Circunferencial (p): es la distancia a lo largo de la circunferencia de paso entre perfiles correspondientes de dientes adyacentes. Adendo (a): Es la altura que el diente proyecta sobre la circunferencia de paso. Dedendo (b): Es la altura del espacio entre los dientes bajo la circunferencia de paso. Claro (c): Es la cantidad que excede el Dedendo al Adendo en un engrane determinado. Diámetro de Paso o Primitivo (D): Es el diámetro de la circunferencia de paso. Diámetro Exterior (Do): Es el diámetro de la circunferencia de Adendo o exterior. Diámetro Interior (Di): Es el diámetro de la circunferencia interior. Diámetro Base (Db): Es el diámetro de la circunferencia de base. Radio de Paso o Primitivo (R,r): Es el radio de la circunferencia de paso. Radio de Exterior (Ro): Es el radio de la circunferencia exterior. Radio base (Rb): Es el radio de la circunferencia de base.

Números y relaciones • •

Número de Dientes (N): Es el número de dientes del engrane Paso Diametral o Paso Circunferencial (P): Es la relación entre el número de dientes y el diámetro de paso Módulo (m): es la relación entre el diámetro primitivo expresado en pulgadas o milímetros y el número de dientes Espesor del diente (Tt): Es el grosor de los dientes del piñón medidos en la circunferencia de pasos

En la Figura 2 [2] representación de los importantes.

se muestra la parámetros más


60

Figura 2. Representación de los parámetros básicos de un piñón 1.3 Automatización. Para la implementación del Sistema de Visión Artificial en el MSS, se colocaron los sistema de iluminación y de captura en el módulo PASI, esto con el fin de poder realizar una adquisición de la imagen en el momento preciso. Una vez los piñones están en el lugar correcto (al final de la banda que transporta los piñones), el PLC asociado al PASI envía una señal en forma de pulso binario, este pulso se convierte en una señal de salida RS-232 la cual es recibida por la aplicación para disparar el proceso de captura de la imagen. La aplicación ha sido desarrollada de tal forma que dé soporte a una cantidad variada de cámaras, las cuales pueden ser industriales o webcams. Las cámaras industriales deben ser compatibles con la tarjeta digitalizadora Matrox Meteor-II, la cual es la tarjeta con que se han hecho las pruebas. Por otra parte, las webcams que se pueden utilizar son todas aquellas que son soportadas por el Microsoft WDM Image Capture, el cual es una librería que permite manipular y controlar la cámara desde la aplicación, en la actualidad la mayoría de webcams en el mercado son soportadas por esta librería. Para el desarrollo de la aplicación se trabajó con la cámara industrial JAI CV-M10 BX/RS monocromática y con la webcam Genius NB 300, los resultados obtenidos fueron mejores con la cámara industrial debido a que esta tiene una mejor resolución en cantidad de Mega píxeles, por lo cual puede captar la imagen mucho más nítida. Otra ventaja que tuvo la cámara industrial sobre la webcam es

que a ésta se le pueden colocar lentes para tener una imagen aun mejor, en la webcam no es posible. Cuando se trabajó con la webcam fue posible notar que ésta controlaba de manera automática la intensidad de luz que percibía del entorno, esto es una característica negativa, ya que generalmente se requiere que la intensidad de luz del entorno sea controlada manualmente por el usuario del sistema y no de forma automática. Una vez se ha capturado la imagen del piñón se lleva a cabo la fase de preprocesamiento de la imagen la cual tiene por finalidad preparar la imagen para que al procesarla se puedan obtener resultados óptimos. En esta fase se realizan básicamente dos procesos: Detección de Bordes y Binarización los cuales fueron implementados a partir de las librerías de clases ActiveMIL de Matrox En el preprocesamiento de la imagen la tarea fundamental es eliminar, en una gran escala, el nivel de ruido que ésta pueda contener, para que la variación de color entre el fondo de la imagen y las características útiles de la imagen sean percibidas sin ningún tipo de dificultad, el ruido en una imagen hace referencia a todo aquello que hace parte de la imagen pero realmente no es útil en ella. El ruido se presenta en las imágenes debido al nivel y al tipo iluminación que se esté utilizando, si la iluminación del sistema es deficiente, la imagen tendrá un alto grado de ruido. En la Figura 3 se puede observar la diferencia entre una imagen con un buen nivel de iluminación y otra con poca iluminación.

Figura 3. La imagen de la izquierda es tomada del sistema con iluminación ambiente (poca iluminación), la de la derecha fue tomada con la implementación del sistema de iluminación


61 El primer proceso que se lleva a cabo en la fase del preprocesamiento de la imagen es el de Detección de Bordes [3], éste se fundamente en el reconocimiento de los bordes de la imagen, donde un borde es una discontinuidad de los niveles de color de una imagen [4], la variación se presenta en los valores de la escala de grises. Un píxel no es borde cuando los píxeles que le rodean tienen niveles de gris semejantes a él, mas es un borde cuando los píxeles que le rodena tiene niveles de gris muy diferentes. Cuando se realiza la detección de bordes en la imagen del piñón, se remarcan dos áreas principalmente, la parte de los dientes del piñón y la parte de la circunferencia interior, esto se debe a que el algoritmo[5] detecta que hay píxeles que varían tanto en la circunferencia interior como en el borde de los dientes. El segundo proceso es la binarización, también conocido como umbralización [6] se fundamenta en el análisis del nivel de color existente en cada uno de los píxeles de la imagen, donde cada uno de estos puede contener un valor entre 0 y 255, ya que se trabaja con imágenes en escala de gris. El valor de 0 hace referencia al color negro y el valor 255 hace referencia al blanco. La finalidad de este proceso es que la imagen contenga sólo dos niveles de color, los cuales blanco o negro (255 ó 0 respectivamente), donde el blanco es conocido como el nivel de color alto y el negro como el bajo. Esta diferenciación se hace para tener una mejor distinción del objeto que se desea identificar, en este caso el piñón, ya que el nivel de color bajo hace referencia al fondo de la imagen, lo cual no es importante en el procesamiento de lo imagen y el nivel de color alto es el que realmente está haciendo referencia al piñón. Un termino muy importante al hablar de binarización es el umbral el cual hace referencia un valor que oscila entre 0 y 255, sobre éste se decide que valores van a ser llevados a 0 y cuales van a ser llevados a 255. Generalmente el umbral se define a través del histograma de la imagen, el cual es el método más utilizado para establecer cual

es el valor que se debe asignar al umbral, es decir, donde el valor de color deja de hacer referencia a fondo de la imagen para hacer referencia a la parte útil de la imagen. La Figura 4. muestra las imágenes de un piñón cuando se le han detectado los bordes y cuando ha sido binarizado.

Figura 4. La imagen de la izquierda muestra el piñón después de la detección de bordes la de la derecha muestra el piñón después de la Binarización Para la binarización se implemento el método Binarize de la clase ImageProcessing de la librería de clases Matrox ActiveMIL. Cuando la imagen ha sido binarizada, queda representada en función de dos colores, blanco y negro (255 y 0 respectivamente), con esto, se forma una matriz[x,y] que representa a la imagen, el valor de x esta definido por la distancia en píxeles existentes entre al píxel evaluado y el borde izquierdo de la imagen, por su parte, el valor de y se define por la distancia en píxeles existentes entre el borde superior y el píxel que actualmente se está evaluando. Una ves se ha construido la matriz o mapa de bits a partir de la imagen binarizada se evalúan solamente las celdas cuyo valor es 255, porque las que tienen valor 0 hacen referencia al fondo de la imagen. A partir del mapa de bits se hace el reconocimiento de las áreas o sectores en los cuales hay agrupaciones de píxeles que están conectados y contienen estados lógicos similares y a su vez estas, se separan utilizando el valor del fondo de la imagen como punto de referencia. Estas agrupaciones, también son llamadas BLOBs [7], y de estas se pueden extraer las algunas características geométricas de las cuales fueron utilizadas el centro de masa (centro de


62 gravedad) el cual entrega las coordenadas (x,y) del punto de centro de masa y el recuadro que demarca la región y entrega las longitudes en X y en Y de la región [8]. Cuando se realiza la identificación de las regiones se espera que el número de regiones detectadas sean solo dos ya que la imagen del piñón se forma con 2 regiones, la de los dientes y la de la circunferencia interior, pero como en algunos casos es imposible eliminar todo el ruido existente en la imagen, se decidió trabajar con el valor de la longitud promedio ((LongitudX+LongitudY)/2) de las regiones para filtrar las regiones que no son útiles debido a que son producto del ruido ya que estas generalmente tienen longitudes promedio pequeñas, entonces es buscan las dos regiones que tengan la mayor longitud promedio. Es posible que una de las dos regiones más grandes sea producto del ruido, pero en ese caso, al detectar la forma se sabrá que la imagen no se relaciona con las características del piñón y se abortará el proceso de reconocimiento de parámetros. Después que se han establecido las dos regiones de mayor longitud promedio, lo primero que se hace es verificar si dichas regiones son realmente las regiones del piñón o si son resultado de un nivel elevado de ruido, esto se hace mediante el análisis de la forma de las regiones, el cual es un proceso se divide en capas o niveles y solo se dice que la imagen corresponde a un piñón cuando ha superado todas las capas. En el primer nivel, se analiza que el número de regiones sea dos, si se encuentra una sola región entonces no corresponde a la imagen de un piñón. Luego se extraen los valores útiles para hallar los parámetros del piñón. Por definición, los piñones son circulares, por lo cual, en el momento que se evalúan las longitudes en X y en Y de las regiones deberían ser iguales ya que el diámetro de la circunferencia es igual en todas las direcciones, esto no siempre sucede, pues en algunos casos al digitalizar la imagen los valores se alteran con

respeto línea horizontal y a la vertical, por esto no se trabajó sino con el valor de la longitud promedio el cual sugiere un valor entre los otro dos, además de esto, se implemento un valor denominado Varianza el cual es la diferencia entre las dos longitudes. Teniendo los valores de la longitud promedio y de la Varianza, se hace el análisis en la circunferencia exterior la cual se toma de la región más grade que hace referencia a los dientes del piñón. Basándose en el centro de gravedad de la región mayor, se hace un barrido al arco de la circunferencia exterior tomando como radio la mitad de la longitud media más el valor de la variación, el cual se agrega a la mitad de la longitud media un píxel por cada vuelta hasta que se llega al valor de la Varianza, con el fin de determinar cual es la distancia angular entre el punto inicial de un diente y el de el que le sigue, para esto se hacen cuatro recorrido, el primero es para saber si la posición en la cual se inicia el recorrido corresponde al espacio donde no hay un diente (donde no hay píxeles con valor igual a 255 en las posiciones de dicho arco) esto se hace se hace incrementando la posición del arco cada 25º o lo que es lo mismo, cada 15’ se concluye este recorrido en el momento que al evaluar la información de un píxel en el arco sea 255. Justo en la posición angular donde termina el primer recorrido inicia el segundo, en el cual se evalúa la distancia angular entre el punto donde inicia el diente del piñón y el punto donde este termina, lo cual es justo en el momento que se encuentra un píxel cuyo valor es 0. Al terminar el segundo recorrido se hace el tercero en busca de el ángulo en el cual se encuentra el diente siguiente, este recorrido es igual al primero, solo que es necesario hacerlo de nuevo porque no hay forma de asegurar que en el primer recorrido se recorrió toda el espacio. Al igual que en el tercer recorrido el cuarto recorrido se hace para asegurar que en el segundo recorrido no se haya iniciado en una posición en la cual ya estuviera en diente, porque si al empezar el recorrido se está entre las posición del arco donde hay un diente, entonces al recorrer el espacio no se


63 hará ningún avance debido que en esa posición el píxel tiene por valor 255, entonces en el segundo recorrido al evaluar el arco del diente se tendrá una distancia angular menor a la real, lo cual conllevará a errores de cálculo. Cuando se tienen la distancia angular del diente y la distancia angular del espacio en la circunferencia exterior, se calculan el radio de base y el radio de paso, para después calcular del número de dientes. El radio de base es el radio de la circunferencia de base, en donde dientes alcanzan el su punto más bajo, para hallarlo se hace un barrido en una distancia angular de 45º partiendo desde un ángulo determinado, como radio inicial se toma el radio de la circunferencia interior y se va incrementando hasta hallar un píxel cuyo valor sea 255, si esto sucede, el valor del radio es almacenado en un arreglo y se incrementa el ángulo en 0.25º para buscar el radio del nuevo ángulo, de lo contrario, se incrementa el radio en 1 píxel mientras se encuentre un píxel cuyo valor sea diferente de 0. El incremento del radio de definió como 1 píxel para garantizar que no quede ningún píxel sin ser evaluado. Una ves se a terminado el barrido del los 45º se evalúa cual es el radio de menor longitud en el arreglo y ese radio es el que se utiliza como radio de base. Si se encuentra un ángulo en el cual no hay un píxel con valor de 255, se determina que la imagen no hace referencia a un piñón. En la Figura 5. La parte en color amarillo hace referencia al área sobre la cual se hace el barrido para calcular el radio base.

Después, calcula el radio de paso, el cual es igual al radio de base mas la mitad diferencia entre el radio exterior y el radio de base. Al tener el radio de paso, que es el radio de la circunferencia que pasa justamente en la mitad de los dientes, se puede determinar cual es la cantidad de dientes haciendo un recorrido de 360º sobre el arco de esta circunferencia, al evaluar los píxeles de la siguiente manera: cada ves que se encuentre un píxel cuyo valor sea 255, se hace un recorrido hasta el siguiente píxel cuyo valor sea diferente de 255 y se suma como un punto en la circunferencia. Al terminar de recorrer los 360º se tiene un número que indica cuantas veces fue hallado un punto en la circunferencia, ese valor se divide entre 2 ya que cada diente cruza dos veces la circunferencia de paso, el valor resultante es el numero de dientes que posee el piñón. También sobre la circunferencia de paso se calcula otro parámetro, el paso circular o circunferencial, el cual es la distancia que existe entre el punto donde inicia un diente y el punto en el cual inicia el diente siguiente, lo cual es igual a decir que es la diferencia entre un punto y el punto que esta después del que le sigue al primero, en otras palabras, la diferencia entre el punto 1 y el punto 3. La Figura 6. Muestra como se calcula el paso circular y el número de dientes

Figura 6. Circunferencia de Paso

Figura 5. Cálculo del radio de base

Cuando ya se ha calculado el numero de dientes, prácticamente ya se han calculado todos lo parámetros requeridos puesto que los diámetros exterior e interior son equivalentes a las longitudes medias de las regiones exterior e interior respectivamente y además se han calculado otros parámetros secundarios como el radio de paso y el de base, el paso circular y también el espesor


64 del diente, este último se calcula dividiendo π (PI = 3,14159....) entre 2 veces el número de dientes sobre el diámetro de paso. Finalmente se valida que los dientes estén bien conformados, para esto se implemento un algoritmo que recorre los 360º de la circunferencia exterior y cada que encuentra la parte donde inicia un diente, calcula la distancia angular de dicho diente y la almacena en un arreglo, cuando ha terminado el recorrido a toda la circunferencia se cuentan la cantidad de elementos en el arreglo, idealmente este número debería ser igual al número de dientes, pero esto no siempre es así ya que en algunos casos hay píxeles que están fuera de contexto debido al proceso de digitalización o al ruido no eliminado, si esto sucede, se toman los n valores más grandes, donde n es el número de dientes, de no presentarse diferencia entre el número de diente y el número de partes halladas se toman todos lo elementos del arreglo. Después de seleccionar los elementos del arreglo que son útiles se saca el promedio entre las distancias angulares de los dientes, a partir de este valor y dependiendo de la precisión que haya sido configurada en el sistema se determinara cuantos dientes están dentro del rango de dientes buenos y con esta información se determina si el estado de los dientes es BUENO, ACEPTABLE, MALO o DEFECTUOSO. Al concluir este proceso se hace lo mismo con el radio de base con el fin de validar también la parte interior de los dientes. 1.4. Almacenamiento de la Información Cuando concluye la fase del cálculo de los parámetros, se obtienen todos los parámetros requeridos en un objeto de tipo Pinion, este objeto contiene el número de dientes, los diámetros interior, exterior, de paso y base, el espesor del diente y el paso circular; luego, el objeto es almacenado en una instancia de la clase ColeccionPinion que guarda el registro de todos los piñones que han sido procesados. La clase ColeccionPinion es Serializable, por lo cual permite guardar y

cargar de un archivos XML la información de los piñones que se han procesado, de esta forma se asegura que se van a tener los datos de los piñones que han sido y están siendo procesados. A partir del archivo XML es que el módulo de control de calidad adquiere la información de los piñones. 1.5. Conversión de unidades del PC a Reales Las imágenes por computador implícitamente tienen como unidad de medida los píxeles, por lo tanto hay convertirlos en valores reales (centímetros, pulgadas, etc.), ya que no existe un valor fijo por el cual se deba multiplicar el número de píxeles para obtener una valor real debido que como los píxeles son puntos que componen la pantalla del monitor y su tamaño esta ligado la especificación del monitor, además, no todos los píxeles tienen el mismo tamaño, dependiendo de cuan recta o cuan curva sea la pantalla, así mismo los píxeles del centro de la pantalla variarán su tamaño con respecto a los de los extremos [9]. Existe una técnica de visión artificial para transformar un valor en píxeles a un valor real que consiste fundamentalmente en identificar dos parámetros, el campo de vista (FOV [10], field of view) y la distancia de trabajo (WD [11], working distance) y a partir de éstos se puede establecer una relación entre píxeles y unidades reales. El FOV es la longitud en valores reales que puede ser vista por la cámara horizontalmente sobre la superficie de la imagen que se esté procesando. EL WD es la distancia (altura) en valores reales existente entre la cámara y el objeto que esta siendo evaluado. El FOV es completamente dependiente del WD y se relaciona con el ángulo de vista del lente de la cámara, ya que a medida que la altura de la cámara sobre la objeto (WD) cambia, al campo de vista (FOV) también va a cambiar. El ángulo de vista es el ángulo de cobertura que tiene un lente horizontalmente, este valor no es muy necesario porque puede ser calculado


65 geométricamente. La Figura 7. Representa el sistema de visión artificial.

para tratar de minimizar defectuosos de la misma.

Cuando ya se ha establecido el valor del FOV se resuelve la siguiente ecuación:

Años más adelante, en la segunda guerra mundial cuando se incrementó la producción de forma masiva se encontró en el control estadístico de la calidad un medio con el cual se podría inspeccionar la producción de forma más eficiente y eficaz, siendo los EEUU los primeros en utilizar este método en la fabricación de armas y por consiguiente en fomentarlo a los proveedores de las misma.

Valor Re al =

FOV × Valor ( píxeles) resoluciónVertical

Donde la resolución vertical es la resolución del área en la pantalla que cubre el área del FOV, esta resolución esta dada en píxeles, por lo cual el valor real resultante va a quedar especificado en las mismas unidades con las que se asigne el valor del FOV.

Figura 7. Sistema de Visión Artificial 2. Control de Calidad Para definir el término control de calidad es importante remontarnos a la historia y denotar sus antecedentes en su proceso de evolución. Antes de la Revolución Industrial, los productos eran hechos a mano y por tanto la calidad la garantizaba el conocimiento del artesano, quien tenía la visión general de todos los procesos que estaban involucrados en el producto final. Después, con la industrialización y el incremento de la producción se hizo necesario que las empresas se dividieran en centros especializados, de tal forma que se perdió la visión general de los procesos, y por tal razón era el jefe de cada sección el encargado de inspeccionar la producción

los

productos

Durante los cincuenta, cuando se incrementó la complejidad de los productos se comenzaron a desarrollar diferentes métodos especiales que permitieran elevar la fiabilidad de los mismos en cuanto a dispositivos electrónicos con fines militares y programas espaciales. Es por eso que una de las primeras definiciones que se le dio al control de calidad fue: “El control de calidad es un compromiso que se debe desarrollar todos los días, la excelencia en la calidad sólo se logra mediante el compromiso, valga la redundancia, que implica darle cada vez más de lo mejor al cliente”[12]. En los años setenta, se encontró que trabajar en áreas aisladas no era lo más recomendable para fabricar productos de alta calidad y a costos razonables, entonces se implementaron actividades planeadas de calidad que cubrieran todas las áreas y funciones, llamando a esta manera de trabajar de cruce funcional Control Total de Calidad. A finales de la década de los 70’s, se introduce a las industrias el concepto de aseguramiento de la calidad que conlleva que se cumplan a cabalidad los principios de control de calidad, ya que el aseguramiento de la calidad se encarga de responsabilizar legalmente a los fabricantes de los productos de todos las consecuencias secundarias que estos puedan tener en el cliente cuando son utilizados. En la actualidad, la calidad no tiene un significado popular de lo mejor en sentido absoluto, sino que por el contrario, la calidad industrialmente se refiere como lo mejor


66 dentro de ciertas condiciones del consumidor, ya que es él, quien en última instancia determina la clase y la calidad del producto que desea fabricar[13]. Así pues, en la actualidad la calidad se define como la resultante de una combinación de características de ingeniería y fabricación, determinante del grado de satisfacción que el producto proporcione al consumidor durante su uso. Para ello el control de calidad debe permitir garantizar la máxima concordancia que se pueda lograr entre lo diseñado y lo producido. Es por esta razón que se decidió implementar un módulo de control de calidad de piñones capaz de determinar de forma online el grado de percusión que tendrá una producción de piñones en el medio comercial e industrial; esto se logra gracias a la especificación de las medidas de las características del piñón, tales como el paso circunferencial (p), diámetro de paso o primitivo (D), diámetro exterior (Do), diámetro base (Db), diámetro interior (Di), número de dientes (N) y espesor del diente desde un archivo XML cuya característica principal es permitir la fusión de los módulos Procesamiento de Imágenes (PDI) y el Modulo de Control de Calidad MCC, gracias a ello se puede realizar control de calidad sobre cada una de las características anteriormente mencionadas, para ello se implementaron una serie de procesos tales como: - Módulo de entrada de datos. Este módulo se caracteriza por permitir la entrada de ONLINE de la información esta puede ser, desde un archivo XML o por el contrario de la especificación manual del inspector de la producción, como se muestra en la Figura 8.

Figura 8. Entrada de datos especificados por el usuario - Módulo de procesos de estadística descriptiva. Estos procesos le permiten a la aplicación la generación de la distribución de frecuencia de cada característica de los piñones para la realizaron de los demás procesos, este proceso es indispensable por que en el se centra la generación de la información para los demás módulos, como se muestra en la Figura 9.

Figura 9 Generación de la distribución de frecuencias - Módulo del análisis de las gráficas. Es importante recalcar que este módulo es el responsable de la representación de la información, de esta manera se le muestra al usuario la forma correcta y fácil de interpretar la información, como se muestra en las Figuras 10 y 11.


67

Figura 10 Generación de histogramas

Figura 12. Generación de pareto

diagramas de

De ahí, que se puede determinar que el software desarrollado por el equipo investigador, a partir de un análisis detallado sobre las características de los piñones, facilita la toma de decisiones acerca del aseguramiento de la calidad bien sea en el proceso de fabricación o en la etapa posterior a ella. Referencias Figura 11 Generación de ojivas estadísticas - Módulo Gráficas de control. Este modulo se encarga de visualizar la manera como se esta comportando la producción cada ves que se examina un nuevo piñón. - Módulo de índices de capacidad de proceso. Los procesos definidos en este módulo le permiten a la persona encargada de la producción la toma de proactiva y objetiva de decisiones a cerca de los resultados que se van obteniendo en el transcurso del análisis de la producción. - Módulo de análisis de Pareto. La importancia de este módulo radica en que se puede configurar para examinar el numero de defectos que influye sobre cada característica del piñón y por consiguiente hacer una análisis de los valores obtenidos para decidir si se debe aumentar el grado de control o por el contrario mantenerlo estable., como se muestra en la Figura 12.

[1] Documentos ANSI/AGMA 1012-F90 e ISO 701:1998 [2] Imagen tomada del sitio Web http://www.terra.es/personal/jdellund/simulador.htm [3] de la Escalera, Arturo. Visión por Computador. Fundamentos y Métodos. Prentice Hall. Pag155 - 170 [4] Valiente, Jose y Andreu, Gabriela. Curso de Doctorado de Visión por Computador. Departamento de Informática, Sistemas y Computadores (DISCA) Grupo de Visión por Computador Universidad Politécnica de Valencia. Capitulo 5.2. Detección de discontinuidades. [5] Para la detección de bordes se implemento el método EdgeDetect1 de la clase ImageProcessing de la librería de clases Matrox ActiveMIL. [6] de la Escalera, Arturo. Visión por Computador. Fundamentos y Métodos. Prentice Hall. Pag199 - 214 [7] Nombre acuñado por Matrox en The User Guide Version 7, Matrox ActiveMIL [8] Se utilizaron las propiedades de CenterOfGravity y Box de la clase BlobAnalysis de Matrox ActiveMIL [9] The User Guide Version 7. Matrox ActiveMIL. Tamaño píxeles. [10] Zuech, Nello. Understanding and applying machine vision, second edition, revised and expanded. Marcel Dekker. Pag. 113 – 129


68 [11] http://www.sensorsmag.com/articles/0400/34/main. shtml [12] BESTERFIELD Dale H. Control de calidad. Editorial Prentice Hall, México 1994. [13] BESTERFIELD Dale H. Control de calidad. Editorial Prentice Hall, México 1994.


69 LA FUNCIÓN LOGÍSTICA DE LOS NEGOCIOS Y LA TECNOLOGÍA DE INFORMACIÓN Álvaro Iván Jiménez Alzate1 Resumen La función logística en una organización es compleja por cuanto implica integrar en línea diferentes áreas y procesos disímiles, de tal forma que deja de ser un evento aislado, y se organiza a partir de un conjunto de procesos que trasvasan horizontalmente la organización, con la única finalidad de satisfacer con calidad, costos y oportunidad al cliente, permitiendo con ello la competitividad, el liderazgo y la globalización de sus productos y/o servicios. La aceptación y confianza por parte del cliente en un producto y/o servicio que oferta una empresa depende mucho del nivel organizacional y tecnológico de la función logística. La planeación, diseño, producción y oferta de un producto y/o servicio conjuga áreas y procesos, que van desde la adquisición y almacenamiento de la materia prima, pasando por la producción y control de calidad, hasta el almacenamiento del producto terminado, venta y distribución. Y esto solo es posible a partir de la modelación de la organización bajo el concepto de la cadena valor. La cadena valor visualiza la empresa como un todo concretamente integrado y organizado, donde existen unos procesos de Ingeniero Mecánico - UAO, CAP Instructor de Empresas - SENA, MSc Computacionales con Especialidad en Redes - ITESM México, Socio Activo de la Asociación Colombiana de Ingenieros - ACIEM, Ingeniero Consultor Análisis de Sistemas, Desarrollo de Software y Capacitación No Formal, Docente Programa Ingeniería de Sistemas – USC y Tecnología de Sistemas - Fundación Universitaria Católica Lumen Gentium - FUCLG, Consejero Superior Universidad Santiago de Cali 2005 - 2006, Integrante Grupo de Investigación en Biotecnología y Medio Ambiente GIBMA – USC, líneas de Investigación RSU y Sociedad del Conocimiento y Cibernética, aijimenez@usc.edu.co 1

apoyo (mantenimiento, recursos físicos y financieros, recursos humanos, calidad, control interno, tecnología) que soportan el quehacer misional o procesos misionales de la empresa (logística de entrada, logística de producción, logística de salida). La logística se soporta en la integración eficaz de los procesos misionales con los procesos de apoyo solo a partir de la conjugación con herramientas de tecnología de Información y mejores prácticas de negocios. Solo la tecnología de información puede soportar la intrincada red de procesos y procedimientos logísticos, facilitando el flujo de la información de una manera transparente, segura, oportuna, confiable e integrada, como la integración hacia atrás con los proveedores y la integración hacia adelante con los clientes. Palabras Claves: Cadena valor, logística de entrada, logística de producción, logística de salida, tecnología de información, mejores practicas de negocio, paradigmas organizacionales, paradigmas tecnológicos, procesos de apoyo, procesos misionales, modelación por procesos, globalización, apuestas productivas, competencia. Abstract The logistic function in an organization is a complex one, since it implies the in-line integration of many different areas and processes so that it stops being an isolated event, and it is organized from a set of processes horizontally traversing the organization, with the sole purpose of satisfying the client with quality, cost, and opportunity; allowing for competitiveness, leadership, and the globalization of their goods and services. The client’s acceptance and confidence on a product and/or service offered by a company depends a lot on the organizational and technological level of the logistic function. The planning, design, production, and sale of a product and/or service combines areas and processes that vary from the acquisition and


70 storage of raw materials, through production and quality control, to the storage of the finished product, its sale, and distribution. This is only possible by molding the organization after the concept of the value chain. The value chain visualizes the company as a concrete, integrated, organized whole where support processes exist (maintenance, material, financial, and human resources, quality, internal control, technology) to support the everyday mission oriented processes of the company (input, operations, and output logistics). Efficient integration of mission driven processes with support processes sustains logistics, only after their combination with information technology tools and better business practices. Only information technology can bear the intricate network of processes ans logistic procedures, facilitating the flow of information in a transparent, safe, opportune, reliable, and integrated way, such as the upward integration with suppliers and forward integration with clients. Keywords: Value chain, input logistics, operations, output logistics, information technology, better business practices, organizational paradigms, technological paradigms, support processes, mission driven processes, modeling by process, globalization, productive bets, competition. 0. INTRODUCCION La Logística desde tiempos inmemoriales ha estado asociado a la actividad de la guerra, al combate. Esto, porque de hecho se conoce que en la ciencia militar, la logística compete a todas aquellas actividades desarrolladas en apoyo de las unidades de combate. La Logística comprende entonces, la consecución, el mantenimiento, y el transporte de personal militar, suministros y equipos. Por lo tanto el apoyo de logística en combate proviene de las unidades de suministros, comunicaciones y transporte.

Haciendo una extrapolación, con los tiempos de ahora y a nivel de las organizaciones, la Logística es entendida como el resultado de una metodología de abstracción o modelación de la cadena de procesos dirigida por eventos en una organización, que incorpora e integra tareas o funciones desde la adquisición y almacenamiento de la materia prima e insumos hasta las ventas y distribución al cliente, pasando por la planeación de la producción, dentro de un flujo de trabajo integrado de eventos de negocios. Eventos que permiten planear, coordinar y controlar el conjunto de actividades que abarcan el diseño, comercialización, entrega y apoyo a un producto y/o servicio, en una cadena de valor que garantice la producción de un producto y/o servicio con calidad. El concepto de cadena de valor2 fue popularizado por el Profesor Michael E. Porter de Harvard Business School, quien describió la cadena de valor como una herramienta para asegurar la ventaja competitiva de una compañía. De acuerdo con Porter, toda compañía puede entenderse como un conjunto de actividades de valor que se ubican en dos categorías: actividades primarias o misionales, que son las actividades que denotan la razón de ser de la compañía; y las actividades de apoyo. Las actividades misionales soportan el abastecimiento, la producción física del producto y/o servicio, la venta y transferencia al comprador, y soporte post-venta, asistencia, etc., y se articulan a partir de las siguientes categorías:  Logística Interna o también conocida como Logística de Entrada, soporta todas aquellas actividades de abastecimiento o adquisición y compra de insumos y materia prima, almacenamiento, control de inventarios, programación de vehículos, devoluciones al proveedor, etc.

2

Michael E. Porter, Competitive Advantage (New York: The Free Press, 1985).


71  Logística Externa o también conocida como Logística de Salida, soporta todas aquellas actividades de bodegaje del producto terminado, transporte, entrega al cliente, recolección, procesamiento de pedidos, operación de vehículos de entrega, programación, etc.  Operaciones, soporta las actividades de producción propiamente dicho o de empaquetado, ensamblado, etc.  Mercadotecnia y ventas, soporta las actividades de publicidad, mercadeo, ventas, promoción, cotizaciones, desarrollo de nuevos productos, aseguramiento del cliente, etc.  Servicio, soporta las actividades de instalación, reparación, capacitación, etc.

Las actividades de apoyo involucran todas las actividades de orden administrativo y financiero que soportan la gestión de las actividades primarias del negocio y, básicamente, son aquellas actividades que tiene relación con la gestión del recurso humano, la gestión de los recursos físicos y financieros, la gestión de la tecnología de información, la gestión de calidad, la gestión de control interno, la gestión jurídica, la gestión de mantenimiento e infraestructura. La Figura No.1 representa esta conceptualización.

Figura No.1. Conceptualización de la Cadena Valor Visualizada de esta manera una compañía u organización, donde cada actividad se considera en términos de la cadena de valor, una empresa podrá entonces modelar con certeza los procesos potenciales de su ventaja competitiva. Por lo tanto en la

modelación por procesos3 de un negocio, la Logística juega un papel preponderante en la búsqueda de la competitividad, soporte para 3

Álvaro Iván Jiménez Alzate, Modelamiento de Negocios y Nuevas Practicas Informáticas, Editorial POEMIA, 2005.


72 la administración y control del mercado global y fortalecer las relaciones con los clientes y proveedores. La modelación por procesos es contraria al enfoque funcional. El enfoque funcional también conocido como la tradicional manera de modelar un negocio u organización, es el enfoque que visualiza la organización como un conjunto de áreas o “silos” totalmente independientes los unos de los otros y sin ninguna integración. Se definen fronteras reales entre las áreas donde cada una almacena información propia del área. Este enfoque coadyuvó históricamente a la creación de las llamadas “islas de información” con los correspondientes problemas asociados al hardware creando “torres de babel”, al reproceso de información en diferentes áreas y, al no contribuir a percibir la empresa como un todo concretamente organizado o el conjunto de partes interdependientes e interactuantes. El enfoque por procesos, sustrato de la Ingeniería de Negocios, es el enfoque moderno que visualiza la organización de una manera matricial, donde la organización se modela a partir de procesos o ciclos que la trasvasan de manera horizontal teniendo puntos de contacto con las diferentes áreas de la empresa. El valor agregado de este enfoque consiste en contribuir a la estructuración de empresas cuyo objetivo es la eficiencia, los costos, la satisfacción del cliente, la rentabilidad, la competencia y la cooperación con los proveedores. La empresa se visualiza a partir de ciclos que tocan diferentes áreas: el ciclo de egresos, el ciclo de ingresos, el ciclo de producción, etc. El ciclo de egresos se inicia con la demanda de un pedido de insumos, materiales y repuestos por parte de un área de la empresa que origina una orden de salida de almacén o una solicitud de compra y en su defecto un ingreso de mercancía al almacén como la respectiva cuenta por pagar y, adicionalmente, tiene el correspondiente registro contable y de costos. El ciclo de ingresos se inicia con una solicitud de pedido

por parte del cliente a partir de una venta que origina una orden de salida de bodega o una orden de producción del producto que se factura al cliente generando una cuenta por cobrar y, adicionalmente, tiene el correspondiente registro contable y de costos. El ciclo de producción se inicia a partir de un presupuesto de demanda de venta del producto que origina una orden de producción que se soporta en el alistamiento de los insumos o Planeación de los Recursos de Materiales MRP, en la utilización real de los insumos y en la liberación de los insumos no utilizados y, adicionalmente, esta integrado a los ciclos de egresos e ingresos. La modelación de un negocio a partir del enfoque por procesos busca mejorar la competitividad del negocio y la eficiencia de los procesos. Es así, como este enfoque facilita que el negocio administre y controle el mercado competitivo, la organización se estructure de una manera flexible y las metas estén siempre orientadas hacia el cliente. Los procesos cruzan las fronteras organizacionales, son “independientes” de las estructuras, soportan directamente los objetivos del negocio. Son operados por las personas, no por las áreas, ningún área es autónoma en la obtención de los resultados de los procesos, crean la interdependencia entre áreas funcionales tanto en operación como en decisiones. Las decisiones o acciones realizadas en una etapa del proceso afectan al resto y al resultado final. El enfoque por procesos posibilita que el negocio se visualice como un conjunto de procesos que trasvasan horizontalmente el negocio independiente de las áreas que lo ejecutan. 1. Definición de Logística La Logística comprende la mayoría de las actividades primarias, que van desde ventas y distribución, planeación de la producción, materiales y administración de la calidad, hasta el mantenimiento de plantas. Todas las funciones de la cadena logística entre ventas y distribución, abastecimiento, producción, transporte, almacenamiento y similares, se


73 planean, controlan y coordinan a través de todas las áreas de negocios. La Logística soporta hoy en día que los clientes demanden que los productos y servicios se diseñen y produzcan de acuerdo con sus especificaciones y se entreguen según sus términos. Esto, debido a que cada vez mas la demanda se centra en la calidad de los productos y en los plazos de entrega más cortos. Las compañías están adoptando el modelo “enfocado en el cliente”, para lo cual se planean las actividades de la compañía de acuerdo con las necesidades de los clientes. La Logística de ventas se soporta en aquellos procesos que, manejados en línea y en tiempo real, permiten el acceso a la información de ventas y optimización de las tareas de captura de pedidos, la entrega y facturación. Además, las ventas y la distribución podrán integrarse con abastecimiento, planeación de la producción y transporte, agilizando los procesos en ambas direcciones de la cadena valor. Los objetos de negocios que son soportados por la Logística de ventas son ventas, embarques, facturación y soporte a ventas. La Logística de la producción centra la atención en la calidad del producto, un mejor precio y tiempo de entrega mas corto. Ahora más que nunca, la ventaja competitiva de una compañía depende de planear procesos que sean flexibles y rápidos de liberar, pero que al mismo tiempo se concentren en la calidad. La integración de la logística de la producción con abastecimiento y almacenamiento y ventas y la distribución, asegura de una manera óptima la productividad, ofreciendo por lo tanto eventos propicios para la planeación, la contabilidad financiera, y el control del flujo total de materiales en la producción del bien o servicio. La Logística de la producción posibilita la producción por lote, manufactura repetitiva, producción continua, producción regulada, y fabricación por pedido orientada a proyectos. Los objetos de negocios que son soportados por la logística de la producción son planeación,

producción y control de la producción, laboratorio de calidad, gestión de calidad, ventas, inventario y costos. La Logística de abastecimiento, también conocida como manejo de materiales, articula las funciones de compras, administración de inventarios y la operación del almacén. La Logística de abastecimiento simplifica tareas que consumen mucho tiempo, como determinar la fuente apropiada de suministro, analizar y comparar precios de proveedores, emitir órdenes de compra y procesar facturas para pago. La integración con la planeación de la producción, la administración de inventarios y las cuentas por pagar, asegura un adecuado procesamiento de pedidos, y facilita el flujo del material necesario para la producción del bien o servicio o el consumo interno. La Logística de abastecimiento posibilita administrar el abastecimiento de material en existencia, el abastecimiento de materiales de consumo, el abastecimiento de materiales en consignación, el maquilado, la transferencia de existencias y servicios externos. Los objetos de negocios que son soportados por la Logística de abastecimiento son compras. 2. El Concepto de Logística La Logística se refiere entonces al conjunto de medios y métodos necesarios para llevar a cabo la organización de una empresa, o de un servicio, de una manera integral y coherente. Es así como la Logística posibilita la integración de unidades organizacionales, escenarios, objetos de negocios y procesos de negocios. La Logística integra la cadena de procesos dirigidas por: Evento, Tarea, Organización e Información. El Evento, ¿Cuándo debe hacerse algo? Un evento sea este un pedido, una compra o una entrega, inicia la cadena de procesos subsiguientes que fluyen a través de una compañía. Por ejemplo, si un cliente envía un pedido de un producto, el evento “solicitud pedido” ocasiona que se inicie la cadena del proceso. Los eventos inician, o conducen, los procesos que siguen.


74 La Tarea o Función, ¿Qué debe hacerse? Dentro de una compañía, una tarea o función describe lo que realmente hace un empleado. En un sistema de información, una tarea o función es una transacción. Por lo tanto, para poder realizar una tarea se debe tener como datos la información acerca de la tarea. A su vez, esos datos pueden servir como entrada para otras tareas relacionadas. La Organización, ¿Quién debe hacerlo? Una organización es una ubicación, oficina, departamento o persona. La Información, ¿Qué información se requiere para realizar una tarea? Para llevar a cabo una tarea de negocios especifica, se necesita información. La información se genera, ya desde un sistema de información, o este es afectado por la información desde afuera. La información son los flujos de información de entrada de un proceso y los flujos de información de salida de un proceso. Sin información ningún proceso tendrá lugar, y en su defecto no se podrá comenzar un proceso siguiente. Es la información el vínculo entre los diferentes procesos organizacionales o transacciones en un sistema. La Logística, es pues la función organizacional que permite integrar eventos, tareas, recursos e información, de una manera eficaz para la administración y control de los eventos que sustentan los procesos misionales de un negocio. 3. La Logística y la Competencia Actualmente el entorno competitivo de las organizaciones, y en su defecto del país, se encuentra jalonado por dos factores decisivos: el proceso de globalización de los productos y servicios y la transformación hacia economías cada vez más soportadas por la información y el conocimiento. La globalización obliga a que estructuralmente las empresas se apropien

en la aplicación de paradigmas organizacionales y tecnológicos que coadyuven en la administración y control del mercado global de productos y servicios, y en cuanto a la Logística propiamente dicha, se hace necesario desarrollar estrategias de cambio que se soporten en herramientas de tecnología de información y comunicación, en estructuras modernas organizacionales más horizontales, y en nuevas maneras o practicas de hacer las cosas mas eficientes y eficaces. La globalización es un proceso que implica cambios a nivel cultural, social, económico y educativo. En el ámbito de lo económico, se caracteriza por la supresión de las barreras al libre comercio y la mayor integración de las economías nacionales, generando competitividad y mayor productividad. En lo cultural y social se requiere que la sociedad esta formada por personas que posean modelos mentales orientados a los resultados, a la calidad, al aprendizaje continuo, a la creatividad, al empleo de recursos cognitivos, el desarrollo de habilidades y destrezas, y orientados por principios éticos. Desde el ámbito educativo, se requiere que los educandos tengan la capacidad de expresar, de describir problemas y resolverlos, de aprender, de adaptación, de creación, de ser críticos, de interpretar información, de distinguir lo esencial de lo accesorio, de lectura y de estudio y de guiarse en lo social conforme a una visión humanista y de valores. La función logística en una organización soporta las necesidades del mercado de la región y del mundo, de tal manera que permite ofertar productos y servicios competitivos en el mercado, que involucren la calidad total, la optimización de costos de producción, y la oportunidad en la entrega al cliente del producto o servicio. Actualmente la sociedad cambia de una manera vertiginosa hacia una sociedad más abierta, más competitiva, más informatizada, más controlada, mas mediatizada por las herramientas de tecnología de información,


75 que hace imperativo cambios estratégicos de orden organizacional y tecnológico al interior de las organizaciones. Por ello es fundamental el desarrollo y/o aplicación de paradigmas organizacionales y tecnológicos que posibiliten la transición de una economía industrial hacia una economía fundamentada en la información y el conocimiento. Paradigmas organizacionales como los de flexibilización, empoderamiento, administraciones horizontales, planeación estratégica, planeación logística, planeación de la producción, ingeniería de negocios, modelación por procesos, la cadena valor de un negocio, logística de abastecimiento, logística de producción, logística de distribución, logística de ventas, integralidad, programas de calidad total y mejoramiento continuo, reingeniería de procesos, los sistemas de justo a tiempo, el Benchmarking, la gerencia del servicio, la implementación de normas ISO, mercadeo, comercio exterior, gestión de compras, gestión servicio al cliente, nuevas practicas de negocios, satisfacción del cliente, inmediatez, reducción de costos, entre otros, son elementos constitutivos fundamentales de la función logística en una organización. Igualmente, paradigmas tecnológicos como los de sistemas abiertos, arquitecturas cliente-servidor, aplicativos web Enable, bodegas de datos – Data Warehouse, inteligencia de negocios - BI, gestión de calidad, minería de datos – Data Mining, sistemas de información ejecutivos – SIE, sistemas para la toma de decisiones - DSS, soluciones para la planeación de los recursos empresariales - ERP, manejo de las relaciones con el cliente - CRM, manejo de la cadena de suministro - SCM, portal, modelos cibernéticos, sistema nervioso digital, entre otros, soportan tecnológicamente la función logística en una organización.

4. La Logística y las Oportunidades de Mercado La globalización, la productividad y la competitividad son aspectos de la realidad social y económica de las empresas colombianas, que generan cada vez mas desequilibrio entre la oferta y demanda de bienes y servicios, por cuanto existen empresa de la región que están mejor preparadas organizacional y tecnológicamente que otras. Y están mejor preparadas, porque han absorbido las fuerzas del entorno y por lo tanto participan en cualquiera de los mercados económicos mundiales de, Mercosur, Comunidad Económica Europea, Asia, EE.UU., Grupo Andino, y ahora el ALCA; han cambiado toda su estructura de servicios, orientando su funcionalidad no hacia la oferta sino hacia “la necesidad del cliente”; han vinculado y capacitado al personal en competencias técnicas especificas de tecnología y globalización de la economía; han fundamentado toda la gestión de la organización tanto interna como externa en redes corporativas de tecnología; han soportado toda la producción y comercialización de los productos y servicios en la cadena valor del negocio; y han innovado constantemente el mercado con la sustitución de nuevos productos y/o servicios. El reto para aquellas empresas que todavía no han podido absorber las fuerzas económicas y políticas del entorno, por la rigidez de sus estructuras organizacionales, por la no apropiación de herramientas de tecnología de información y por la no implementación de nuevas y mejores practicas de hacer las cosas, por ejemplo el concepto de la Logística en la cadena de valor de un negocio, es flexibilizar la estructura organizacional, optimizar los costos de producción, horizontalizar la organización mediante la modelación por procesos, y fundamentar la gestión de la empresa en la información y el conocimiento.


76 La globalización44 tiene elementos característicos: o

o

o

o

los

siguientes

“producción, distribución y consumo de bienes y servicios a partir de estructuras organizadas sobre bases mundiales. organizaciones con una cultura abierta al contexto mundial y desarrollando estrategias que obedecen a lógicas mundiales. participación en los mercados mundiales condicionada al uso de protocolos y normas universales. dificultad para identificar una sola territorialidad (jurídica, económica, tecnológica) en razón de las numerosas interrelaciones e integración entre los elementos en juego”

Esta realidad del contexto mundial golpea fuertemente a la industria y al comercio nacional, regional y local, por lo que están claramente identificadas las condiciones de cambio por las que tiene que pasar una empresa, en la cual juega un papel demasiado importante la función de la Logística, y en su defecto la necesidad cada vez mas de personal calificado en las empresas para que puedan operar y dar solución a todos aquellos problemas asociados con la logística de abastecimiento, la logística de producción, la logística de distribución y la logística de ventas. Actualmente el país cuenta con el denominado Plan Estratégico Exportador5 y con programas puntuales orientados hacia zonas rurales o hacia el desarrollo de sectores de la economía específicos. En cuanto a este último se busca que las organizaciones mejoren las variables relacionadas con la capacidad exportadora: logística e infraestructura, mecanismos de financiación, adecuación de la oferta 4

Bernal, C.E. (1995) Innovación y apropiación de tecnología en el contexto de la globalización en ciencia y tecnología para una sociedad abierta. Bogota, Colciencias y DNP. 5

República de Colombia (1999) Plan Estratégico Exportador 1999 – 2009.

exportable, rigidez del estado (tramites), inseguridad, tasa de cambio, cultura exportadora, inversión extranjera, desarrollo e innovación tecnológica y ubicación del aparato productivo, entre otras. En general, para la modernización organizacional y tecnológica y el desarrollo de estrategias se requiere de personal calificado que realice los procesos necesarios para ello y participe de círculos de calidad y de mejoramiento, a fin de que generen soluciones creativas y viables. Esto, como es natural requiere de un perfil esperado en los trabajadores que este asociado a la capacidad de “hacer más y mejor” con menor supervisión y mayor autonomía. La integración de los procesos de abastecimiento, producción, distribución y ventas en una sola cadena de valor, hace que se requiera de un trabajador que comprenda, coordine y controle un numero indeterminado de procesos transversales en la organización, y tenga la capacidad por lo tanto de trabajar en equipo. El saber gestionar, decidir e innovar se torna mas importante que la formación de cualidades, destrezas y habilidades sin relación con el contexto propio de desempeño (cualificación). Por lo tanto el trabajador responsable de lo logístico debe incorporar creatividad al proceso productivo, analizar y solucionar problemas que permitan mejorar la calidad y la productividad en una empresa. 5. La Logística y las Apuestas Productivas en el Valle del Cauca La Agenda Interna del Valle del Cauca especifica los retos que plantean los mercados nacionales e internacionales, y en ello el modelo logístico será un soporte fundamental para el posicionamiento de los productos y/o servicios en los mercados. La citada agenda tiene su referente en el Plan Maestro de Desarrollo Regional al 2015, la Agenda Regional de Ciencia, Tecnología e Innovación, y El Plan de Desarrollo Departamental 2004 – 2007 “Vamos Juntos por el Valle del Cauca”.


77 Los criterios especificados en la Agenda Interna del Valle del Cauca que le apuestan a la productividad en el Valle del Cauca son: o o o o o o o o o

Impacto en el PIB regional actual y potencial. Impacto en el valor agregado industrial. Generación de Empleo. Viabilidad Técnica y Financiera. Impacto Social. Alianzas Estratégicas Interregionales. Territorialidad- Impulso al desarrollo subregional. Sostenibilidad Ambiental. Potencial Exportador y Nivel de Competitividad.

Las Apuestas Productivas definidas en la Agenda Interna del Valle del Cauca son en total 14: 1. Cadena de Caña de azúcar y sus derivados: En el futuro facilitara la generación de energía a partir de otras biomasas (desechos del campo), el desarrollo de Biopolímeros a partir de los derivados de la caña, el incremento en la producción e innovación de la confitería, y el incremento de las exportaciones que a octubre del 2004 fueron: Azúcar 153 millones de dólares, Confitería 91 millones de dólares y sucroquimica 18.7 millones de dólares y en panela se exportaron 526 toneladas de panela.

4. Cadena Forestal: Intensificar la producción de madera y manufacturas de madera, crear el centro de Desarrollo Tecnológico para la madera y sus productos, la reforestación de áreas vulnerables para la producción de oxigeno y absorción de CO2. (Protocolo de Kyoto). Las exportaciones a Octubre de 2004: 9.7 millones de dólares entre madera (3.9) y muebles (5.8). 5. Cadena de las Confecciones: Pasar de operaciones de maquila a manejo de diseño y “Paquete Completo” en los productos donde se tiene mayor competitividad. En Cuero, Calzado y Marroquinería fortalecer la capacidad exportadora, a partir de mejoras en diseño y calidad de producción. Las exportaciones en millones de dólares: En textiles 48.6, Prendas de vestir 33.9, Cuero y derivados 7.0 y Calzado 4.7. 6. Cadena Hortifruticola: Pasar del cultivo de 16 mil hectáreas sembradas a 30 mil hectáreas en 10 años, desarrollo de la agroindustria hortifruticola a fin de darle valor agregado, obtener certificados de Buenas Prácticas Agrícolas (BPA) y lograr que uno o dos de los laboratorios mas avanzados que operan en el Valle del Cauca se acrediten para otorgar certificaciones de BPA y otras exigencias de compradores internacionales. Las exportaciones en Frutas son de 1 millón de dólares y en hortalizas de 477 mil dólares.

2. Cadena de Pulpa, papel, cartón, editoriales y artes graficas: Garantizar en la región mayor abastecimiento y menor costo de las materias primas: Madera, bagazo, energía e insumos químicos. Las exportaciones a Octubre de 2004 de Papel y editoriales fueron de US$153 MM.

7. Cafés Especiales: Incrementar en un 20% la producción en un lapso de 2 años (7.671 has), investigación y desarrollo para ofrecer un café especial diferenciado que se reconozca por el respeto al medio ambiente. Las exportaciones a través de la Federación de Cafeteros: 1.2 millones de dólares.

3. Industria farmacéutica: Incrementar las exportaciones de genéricos y de marca, dada la firmeza Estatal para negociar los temas de propiedad intelectual, patentes y normatividad para el sector farmacéutico. Las exportaciones en millones de dólares a Octubre de 2004 de: Farmacéuticos: US$58.4MM.

8. Servicios de Salud: Ofrecer servicios de salud tanto a extranjeros como a nacionales residentes en el exterior, para lo cual se han identificado como potenciales 21 procedimientos de salud (Histerectomía laparoscopica, colisistectomia laparoscopica, cirugía endoscopica en tratamiento de próstata, cirugía bariatrica, transplante y


78 litiasis renal, microinjertos, cirugía maxilofacial, técnicas de reproducción asistida, litotripsia extracorpórea, cirugía refractiva láser, diagnostico medico, medicina preventiva y antienvejecimiento, estudios de biodisponibilidad y bioequivalencia, ensayos clínicos controlados en humanos, evaluaciones toxicologicas, pruebas de biología molecular y citometria de flujo). 9. Servicios de Estética y Cuidado Personal: Ofrecer servicios de salud tanto a extranjeros como a nacionales residentes en el exterior, para lo cual se han identificado 8 procedimientos médicamente establecidos para el cuidado personal (Lipoescultura, Mamoplastia, Dermolipectomia, Cirugía Plástica en General, Rehabilitación Oral, estética e implantologia, periodoncia, servicios de odontología general y cosmetología dental). 10. Productos con fines nutricionales, terapéuticos y cosmetológicos: Nutraceutica. Impulsar la agricultura orgánica, especialmente en frutas y hortalizas y la producción de bioinsumos, impulsar la cadena de plantas aromáticas, medicinales y condimentarías con miras a producir aceites y esencias destinadas a productos cosméticos, terapéuticos y a la industria de alimentos. 11. Pesca y Acuicultura: Reactivación de la industria atunera con sede en Buenaventura y modernización tecnológica del sector pesquero en general, incursionar en las exportaciones de pescado fresco, avanzar en el desarrollo de las técnicas de maricultura y acuicultura. Las exportaciones a octubre de 2004: 1.3 millones de dólares. 12. Servicios de Logística: Desarrollar una eficiente capacidad de recibo, despacho, almacenamiento y transporte, para todos los sectores y cadenas actuales y potenciales, implementar mecanismos de seguridad mediante la comunicación satelital a lo largo de la red vial del Suroccidente Colombiano, y desarrollar una infraestructura eficiente y adecuada.

13. Software: Consolidar la industria del software, con énfasis en el sector de las tecnologías de la información y las comunicaciones, donde ya se han posicionado importantes productos como los servicios de Call Center (recepción de llamadas) entre otros. 14. Turismo: Ecoturismo con énfasis en la opción de sol y playa en el pacifico vallecaucano (La Bocana y Juanchaco) donde se esta desarrollando el programa de vivienda turística productiva, consolidación del Tren Turístico en la Ruta Azúcar y Café, alternativa de transporte de gran atractivo para el sector, Turismo Religioso, de Deporte y Aventura, Turismo de salud y belleza, por los destacados centros que ofrecen este servicio, Turismo de congresos y convenciones, compras y negocios con eje en Cali, Infraestructura básica e infraestructura turística, Capacitación de las personas en los diferentes eslabones de la cadena, y Promoción de los productos turísticos a nivel nacional e internacional. Conclusiones La función logística modelada y alineada en torno a las herramientas de Tecnología de Información y nuevas prácticas de negocios permitirá en las organizaciones: - Gestionar la realidad empresarial de la región, desde lo tecnológico y administrativo, con respecto a la planeación de la producción por demanda. - Aplicar estándares de calidad internacionales en la producción de bienes y/o servicios. - Integrar las diferentes cadenas de valor de una organización. - Gestionar la aplicabilidad de las herramientas de tecnología de información y mejores prácticas de negocio para la modernización organizacional y tecnológica. - Dirigir la operación logística a partir de soluciones de información logística. - Aplicar modelos de costos eficaces e integrados en la producción de bienes y/o servicios.


79 - Implementar mejores prácticas de negocios en la planeación, gestión de calidad, y laboratorio de calidad. - Especificar y diseñar escenarios estratégicos de tecnología de información. - Modelar la integración de los procesos primarios con los procesos de apoyo en una organización. - Gestionar y diseñar la interrelación de los procesos de la logística de producción con los procesos de la logística de abastecimiento, y de ventas y distribución. - Gestionar y/o customizar soluciones de información de logística. - Coordinar actividades interdisciplinarias entre las diversas áreas que soportan el proceso de logística en la organización. - Gestionar y liderar proyectos productivos e innovadores. - Orientar la organización hacia la toma eficaz de decisiones y estrategias. - Optimizar el manejo de los recursos que soportan la logística en una organización. - Posicionar la organización frente a la competencia. - Satisfacer las necesidades del cliente de una manera oportuna. - Estructurar una organización con visión competitiva y fundamentada en la información y el conocimiento. BIBLIOGRAFÍA

1. www.shitauke.com, sitio web especializado en logística. 2. www.all-logistica.com, sitio web especializado en logística. 3. www.logistpilot.com, sitio web especializado en logística. 4. www.tecnipublicaciones.com, sitio web especializado en publicaciones, entre ellas logística. 5. www.proexport.com.co, sitio de Proexport organización especializada en el apoyo a las ventas y distribución internacional de bienes y servicios. 6.

Logística Profesional, Revista.

7. AMDPresPlus – Logística Profesional Digital, Revista Digitalizada.

8. ACIEM – Asociación Colombiana de Ingenieros, Revista especializada de apoyo al sector industrial. 9. Guía de Equipamiento y Servicios Logísticas, Revista. 10. ICONTEC – Instituto Colombiano de Normas Técnicas. 11. Proexport Colombia, organización que promueve las exportaciones colombianas, la inversión extranjera y el turismo hacia Colombia. 12. SEAS – System Evaluation and Selection, es un método cuantitativo para la evaluación, comparación y selección de productos y servicios complejos, San Francisco EE.UU. 13. ECA – E Communication Advantage, es un sistema de soporte logístico, Austin Texas. 14. TIA - Totally Integrated Automation – Siemens, solución de información que integra la totalidad de los procesos logísticos en una organización. 15. mySAP ERP - SAP, es la ERP líder a nivel mundial que integra toda la cadena logística de una organización. 16. mySAP CRM, es la solución de SAP líder que permite manejar las relaciones con los clientes. 17. mySAP SCM, es la solución de SAP líder que permite manejar la cadena de suministros 18. mySAP SRM, es la solución de SAP líder que permite gestionar las relaciones con los proveedores. 19. Business Suite – ORACLE, es una solución de información que permite también integrar todos los procesos logísticos en una organización.


DISEÑO E IMPLEMENTACIÓN DE UN SISTEMA PARA INSPECCIÓN DE TUBERÍAS BASADO EN TÉCNICAS DE ULTRASONIDO Por: John Jímenez39 Sandra Liliana Victoria40 Resumen. Este artículo presenta la descripción de un anteproyecto para diseñar un sistema de inspección de tuberías utilizando la técnica de inmersión en tanque por medio del ultrasonido, detallando las partes que conforman este sistema y la importancia de inspeccionar estos componentes. En este proceso se manejará la implementación de protocolos de comunicación y programación con LabVIEW que constituye la interfaz gráfica del usuario para monitorear la inspección a tuberías. Palabras claves: Ensayos no destructivos (END), Ultrasonido, método de Inmersión, Pulso-eco, Haz Angular, Adquisición de señales, Procesamiento de señales, LabVIEW. Abstract. This article presents the description of a preliminary design to outline a system of inspection of pipes using the immersion technique in tank by means of the ultrasonic, detailing the parts that conform this system and the importance of inspecting these components. In this process it was managed the implementation of communication protocols and programming with LabVIEW that constitutes the user's graphic interface for to explore the inspection to pipes. 39

Ingeniero Electricista, docente programa de Bioingeniería, Universidad Santiago de Cali. 40 Estudiante Programa de Bioingenieria, Universidad Santiago de Cali.

Keywords: Ultrasound immersion method, pulse-echo, angle beam, Signals Acquisition, Signal processing, LabVIEW. Introducción. Actualmente los ensayos no destructivos de materiales han sido desarrollados, convirtiéndose en herramientas básicas de uso cotidiano para cualificar la prestación de servicios en las industrias, y así mantenerse en el mercado con sus productos mediante la calidad de los mismos, evitando perdida de recursos económicos, humanos y ambientales Las pruebas no destructivas, como su nombre lo indica, no alteran las propiedades físicas, químicas, mecánicas o dimensiónales de un material [1]. Uno de las tecnologías más utilizadas en estas pruebas de ensayo no destructivos es el ultrasonido, que no requiere condiciones especiales de seguridad, permite detectar discontinuidades superficiales, subsuperficiales e internas, medir espesores, caracterizar materiales como metales, plásticos, compuestos y solo requiere una superficie de contacto para realizar la inspección. El ultrasonido tiene alta capacidad de penetración y los resultados de prueba son conocidos inmediatamente. Con base en esta tecnología se inspeccionan tuberías, debido a que son vulnerables a daños internos y externos por la corrosión, cavitación y defectos de fabricación [2]. Al analizar el resultado de la inspección se puede predecir cuando se debe realizar una renovación por desgaste del material, reduciendo gastos y riesgos que se puedan presentar para la industria, así como programar paradas de mantenimiento e inspección para el control de calidad. El alcance del proyecto se orientará en el diseño y la implementación de un sistema que obtendrá detección de discontinuidades


81 de tuberías y que se empleará como una prueba de laboratorio.

físicas a causa de pérdida de masa, por la corrosión o cavitación (ver figura 1).

Glosario.

El índice de deterioro de una tubería depende de la constitución química del fluido y del material de la tubería, al aumentar la rugosidad (que se da con la edad de la tubería) hay una reducción en la capacidad de conducción [3], por tanto cuando se proyecta un conducto con un fluido es prudente tener en cuenta las condiciones probables en que se encontrará después de un periodo, razón por la que se debe confirmar la integridad estructural de las tuberías en servicio para garantizar la confiabilidad de los procesos durante su operación normal.















Pulse-echo: Técnica de END por ultrasonido en el que el mismo transductor actúa como emisor y receptor de las señales ultrasónicas. Inmersión: Método en el cual objeto a y el transductor están sumergidos en un liquido donde se transmite el ultrasonido. En este caso el transductor no esta en contacto con la pieza a inspeccionar. Transductor: Dispositivo electrónico que transforma los impulsos eléctricos en ondas de presión (ultrasonido) y viceversa. Pulser/Receiver (P/R): Equipo electrónico que genera y recibe las señales de radiofrecuencia de los transductores. Osciloscopio Digital: Unidad electrónica que permite la visualización de las señales eléctricas de radio frecuencia. Procesamiento digital de señales (DSP): Permite entender de una forma más sencilla y dinámica el comportamiento de una señal. LabVIEW: Lenguaje de programación gráfico de alto nivel. Permite la realización del DSP.

Generalidades.

Cavitación

Corrosión Figura 1. Problemas en las tuberías. La mayor parte de las tuberías que han estado en servicio durante años sufren alguna reducción en sus propiedades

Cuando se construye una tubería el personal de inspección debe asegurarse del estado del material ya que en su elaboración, sea una tubería con costura41 o sin costura42, pueden presentarse imperfecciones (porosidades y grietas) y por tanto debe comprobarse mediante tecnologías que permiten conocer si estas pueden funcionar adecuadamente en forma confiable y segura de acuerdo a las normas, especificaciones o estándares aplicables. Actualmente, son pocas las industrias regionales y nacionales que incorporan en sus procesos sistemas de inspección en sus procesos y productos que apoyen los programas de calidad y aseguramiento. El desarrollo de este proyecto considera dar una respuesta a esta problemática, creando un prototipo de laboratorio que facilite el diagnostico mediante la información que se genera al monitorear el desgaste del material (pared del tubo) como fisuras, poros, discontinuidades, etc., contribuyendo a un mejoramiento de las condiciones de trabajo, 41

Tubería con costura: Producto tubular fabricado a partir del conformado en frío de lámina, placa, o rollo, con bordes unidos a temperatura de fusión por un proceso de soldadura, con o sin la aplicación de metal de aporte y, con o sin el empleo de presión 42 Tubería sin costura: Producto tubular fabricado mediante el conformado en caliente del acero sin el uso de algún proceso de soldadura

81


82 y proporcione al que realiza la inspección facilidades en la interpretación de la información, pues constituye un factor esencial para evitar fugas, pérdida o contaminación de producto y el ambiente. También pretende obtener una inspección acertada del material, y se estudiaran las variables que intervienen, como el tipo de tubería, el tipo de material, el tipo de fluido que conduce y el tiempo de servicio; igualmente se considerarán las señales eléctricas que se obtengan del osciloscopio que se analizarán para obtener información del estado del material. Con este prototipo se quiere proyectar una optimización de los recursos en la inspección de materiales que posteriormente se integrará a los desarrollos actuales del laboratorio de ultrasonido y trabajos futuros. Materiales y métodos. Un sistema de diagnóstico o medida de ultrasonidos consta de cuatro componentes básicos: 1. Sistema de emisión UT, que introduce las ondas acústicas en el medio explorado. Consta de un equipo que realice la prueba ultrasónica, en el proyecto se trabajará con el Pulser Receiver 5800PR, transductores que transforman la energía eléctrica en energía mecánica y el acoplante que realiza la transmisión de la energía desde el transductor hasta el medio explorado. 2. Medio explorado del cual se pretende obtener información física. En la transmisión del ultrasonido al explorar una superficie, influyen factores que se debe tener en cuenta el medio de acoplamiento, la condición de la superficie, frecuencia y diámetro del transductor, para el proyecto se utilizarán como probetas, tuberías metálicas con las que se validará el sistema (ver figura 2).

Figura 2. Propagación del sonido en la pared del tubo [4] 3. Sistema de recepción, que consta de un transductor capaz de convertir las ondas mecánicas en señales eléctricas (pueden ser el mismo transductor que realizan la emisión), un sistema de digitalización de señales eléctricas que se realiza por medio del osciloscopio Tektronix modelo TDS 2022 [5], con una velocidad de muestreo de 2 Gs/s y un ancho de banda de 200 Mhz; el sistema de adquisición de datos se realiza mediante el diseño de la configuración de la tarjeta GPIB(General-Purpose Interface Bus) de 8 bits que permite que instrumentos de medida, es decir el osciloscopio sean controlado desde un ordenador para enviar y recibir información[6]. En este sistema se incluyen todos los componentes, como cables y conectores. 4. Sistema de procesamiento de señales, el cual se realizará con un lenguaje de programación gráfica de alto nivel, LabVIEW en su versión 6.1, con el se podrán desarrollar todos los módulos que integran este desarrollo. El procesamiento digital de señales es, en sentido amplio, un término ingenieril que describe el uso de computadoras digitales, para convertir la señal en un rango extenso de información que puede ser usada en la solución de diversos problemas, entre ellos los de END. En ultrasonidos la línea fundamental del procesamiento digital de la señal está en los siguientes aspectos:   

Detección de defectos Inspección de materiales Caracterización del defecto

82


83   

Caracterización del transductor y el sistema ultrasónico Generar información acerca de las propiedades del material Generar información sobre procesos; por ejemplo: soldaduras, fundición y materiales compuestos

Las técnicas de procesamiento digital de señales (PDS) se usan para mejorar la información aportada por las señales de ultrasonido, y pueden ser aplicadas eficientemente para aumentar la calidad de señales, la precisión de las medidas, etc.[8] Para ello se trabajará en el acondicionamiento de la señal rectificándola, se le aplicara la envolvente, y para la disminución de ruido que contamine la señal se aplicará los filtros IIR y así preservar los detalles de la señal original, por ultimo se realizará un promediado, eliminación de rizado y correlación para suavizar la señal. Para interpretar la señal se ubicarán zonas de interés; estas zonas serán definidas por un operario que establecerá mediante un umbral, los picos máximos de la zona de interés y se compararan para realizar cálculos del tiempo de vuelo de la señal y dependiendo del material se define si existe discontinuidad y en que sitio se encuentra.

La medición de espesores para las tuberías será inspeccionada con la plataforma anteriormente desarrollada en el laboratorio. Para el desarrollo de este sistema se trabajará con el método de inmersión en tanque, en el cual el objeto a ensayar como el transductor está sumergido en un tanque con material acoplante (agua), el acoplante actúa como elemento transmisor (ver Figura 3). El modo de trabajo para obtener la información será pulso-eco (ver figura 4), y mediante tecnología digital, la información de las señales se procesara para una mejor interpretación.

Figura 4. Esquema básico para ensayos en modo pulso/eco en inmersión [7] Análisis de la señal en una tubería. Cuando se realiza una inspección a una tubería para hallar discontinuidades longitudinales es necesario evaluar la señal que proviene del material. La señal que se genera es de tipo de onda transversal y se crean al calcular una distancia offset, que corresponde a la ubicación del transductor desde el centro de la tubería como se observa en la figura 3, garantizando que el haz ultrasónico viaje a través de la tubería.

Figura 3. Método de ensayo por inmersión en el sistema de inmersión en tanque.

83


84

Donde K corresponde a un factor de corrección (Ver figura 6) y β el ángulo refractado.

Figura 5. Trayectoria del camino sónico Para obtener esta distancia offset (ver figura 5) se debe conocer el radio de la tubería y el ángulo de incidencia, calculándose de la siguiente forma:

d offset = R pipe ⋅ sin α water

Ecuación (1)

El ángulo de incidencia lo conocemos mediante la ley de snell:

sin β v pipe = sin α vwater

Ecuación (2)

En la ecuación 2, conocemos la velocidad de la tubería, velocidad del agua; por tanto desconocemos los ángulos β (ángulo de refracción) y α (ángulo de incidencia). El Angulo β óptimo se calcula:

 2t  sin β = 1 −   Ecuación (3)  OD  Donde t es el espesor de la tubería y OD corresponde al diámetro externo de esta. Por ultimo para conocer el camino sónico por el cual atraviesa la tubería tenemos:

UT =

2kt cos β

Ecuación (4)

Figura 6. Factor de corrección K del camino sónico para la inspección de una tubería con diferentes ángulos de refracción. Resultados esperados Las pruebas se validarán con diez tuberías metálicas de diferentes diámetros y tamaños de defectos. Inicialmente se espera capturar y analizar la señal que se genera al inspeccionar una tubería. Se espera que el sistema diseñado brinde las herramientas necesarias para la interpretación de estas señales capturadas sin y con defectos, que permita obtener cálculos de distancia del recorrido del haz ultrasónico y la ubicación de los defectos en la tubería. Bibliografía. [1] SIEEND. Los ensayos no destructivos (END). http://www.sieend.com.mx/pnd.htm. Consultada en abril 18 de 2005. [2] Rendón José Gregorio. Protección contra la corrosión en tuberías. http://www.gastraining.com/Articulos/St17v2.htm. Consultada en abril 5 de 2005.

84


85 [3] Amado Domingo. Olivares Fabiola. Calculo del coeficiente de perdida de fricción. http://tarwi.lamolina.edu.pe/~dsa/Factor.htm. Consultada en abril 5 de 2005 [4] American society for testing and materials (ASTM). E213-98 - Standard Practice for Ultrasonic Examination 01 Metal Pipe and Tubing. Volumen 03.03, 2001. 1152 p. [5] TEKTRONIX. Módulos de extensión de la serie TDS 200. www.desi.iteso.mx/elec/labs/equipo/ manuales/osciloscopio_modulo_tds200.pdf Página consultada en abril 29 de 2005. [6] Granja Fernando Seco. Conexión de instrumentos de medida con GPIB. http://www.iai.csic.es/users/fseco/teaching/gpib.pdf. Página consultada en abril 29 de 2005. [7] INSTRUCTION MANUAL. ULTRASONIC PULSER/RECEIVER MODEL 5800. PANAMETRICS. 33 p. [8] Ullate L.G. , Parrilla M. Procesamiento Digital De Señales Ultrasónicas En End. http://www.iai.csic.es/ritul/PubCartagena/Luis/pdsend. doc. Consultada en abril 14 de 2005.

85


CALIBRACIÓN EXPLÍCITA DE CÁMARAS DIGITALES CON DISTORSIÓN MEDIANTE REDES NEURONALES ARTIFICIALES Por: Eduardo Caicedo43 Humberto Loaiza1 Jesús Alfonso López44 Julio César Millán Barco45 Resumen. Este artículo presenta los resultados de una parte de una investigación que busca lograr la parametrización completa de una cámara digital con redes neuronales artificiales. En una primera parte se presenta el problema del modelo clásico, la arquitectura de la red y los algoritmos de entrenamiento utilizados y los resultados obtenidos comparados con un método clásico comúnmente usado. En una segunda parte, se presenta el modelo más completo que incluye dos parámetros de distorsión para ser resuelto con una red ADALINE y los resultados obtenidos. Además se hacen diferentes observaciones sobre el campo de la parametrización de modelos no lineales mediante redes neuronales artificiales que pueden ser de utilidad para futuras investigaciones en el campo. Palabras claves: calibración de cámaras, visión artificial, parametrización de modelos no lineales, Redes Neuronales Artificiales, corrección de distorsión radial. 1. Introducción El procedimiento de calibración explícita de cámaras digitales es un paso indispensable en las aplicaciones de visión artificial que requieren medidas de distancia. A lo largo de las investigaciones en el campo se han llegado a presentar distintos métodos de calibración basados generalmente en el modelo pinhole de las cámaras digitales. [HORAUD 95]

43

Ph D. M Sc. 45 Ingeniero 44

Las distintas alternativas van desde las soluciones en que se reduce el problema a un sistema lineal y se resuelve con una aproximación llamada de forma cerrada, hasta aquellas que utilizan algoritmos iterativos no lineales, especialmente si el modelo pinhole [TSAI 87] es ampliado para incluir un parámetro de distorsión que permita corregir esta aberración óptica propia de cada lente. [CHAUMETTE 89] En este artículo se presentan los resultados teóricos y experimentales de una investigación que cuyo objetivo es comparar estas técnicas ya conocidas con soluciones bio-inspiradas tales como Algoritmos genéticos o Redes Neuronales Artificiales. [JI 01] [DO 00] [ZHOU 92] [AHMED 99(1)] En este documento se depositan las investigaciones con respecto a las soluciones que pueden ofrecer las RNA's, al problema de la calibración de cámaras. 2. Marco Conceptual 2.1. Modelo Geométrico de una Cámara. El modelo geométrico de una cámara utilizado más ampliamente es el conocido como modelo pinhole [LENZ 88], que deriva su nombre de la aproximación física que se hace en el obturador de la cámara al suponer que este es del tamaño de un punto muy pequeño por el que pasan todos los rayos de luz del mundo exterior al interior de la cámara. Se puede entender más fácilmente a partir del dibujo de la figura 1. [HORAUD 95] En el modelo se asumen tres marcos referenciales de coordenadas cartesianas. El marco de la escena 3D donde se ubica un patrón de calibración, el marco de referencia de la cámara y que se dirferencia del anterior por una transformación rotacional y translacional, y finalmente el marco de referencia de la imagen, retina o plano CCD, donde se plasma la foto bidimensional. Lo que hace una cámara, geométricamente, es transformar unos puntos en coordenadas 3D desde una referencia exterior a unos puntos en


87 coordenadas 2D referenciados en un marco interno [HORAUD 95] Por lo tanto, se hacen dos transformaciones de coordenadas. La primera es conocida como Transformación escena/cámara, donde el punto de origen no es externo a la cámara sino que se asume interno, generalmente en el punto conocido como pinhole. El lector debe notar que el marco de referencia de la retina o plano CCD en realidad está detrás del marco de referencia de la cámara cuyo punto de origen es ese punto infinitesimalmente pequeño. [AZAR 99] En el dibujo se pone adelante, con el fin de facilitar el análisis matemático al eliminar el signo negativo [GONZALEZ 93] de lo que se llama distancia

focal, es decir, el segmento de línea recta que une el punto de origen del marco de referencia de la cámara al punto central del plano CCD de la imagen [AZAR 99] La segunda transformación de coordenadas se conoce como transformación cámara/imagen en que el punto B de coordenadas (x',y',z') con respecto al marco de referencia de la cámara, adquiere coordenadas (u,v) tomando como marco de referencia el plano CCD, cuyo origen se toma no en el punto central de la imagen, sino en la esquina superior izquierda de la imagen vista desde la pantalla del computador. Veamos en detalle estas dos transformaciones.


88 2.2. Transformación del marco referencia de la escena al marco referencia de la cámara.

En esta transformación se puede imaginar una esquina de la escena 3D en que se ubica el objeto a fotografiar, que realiza un viaje hasta el origen del marco de referencia de la cámara (el punto pihhole) haciendo que un determinado punto B del objeto pase de tener coordenadas (x,y,z), a verse desde la cámara como de coordenadas (x',y', z'). Esta transformación realiza pues una rotación y una translación de los ejes del marco de referencia y se puede visualizar en el dibujo como la línea punteada. Matemáticamente ésto se puede expresar como sigue [HORAUD 95]  x'     y'   z'   

 r11  =  r21 r  31

r12 r22 r32

r13   r23  r33 

 x    y + z  

tx    t y  t   z

(1)

Esta suma puede expresarse en una sóla matriz si definimos la matriz de transformación homogénea [GONZALEZ 93] r12 r22

r13 r23

r32

r33

0

0

tx   t y  R t   , = t z   0 1   1 

Ahora debemos ocuparnos de trasladar las coordenadas del punto B al marco de referencia de la imagen a partir del marco de referencia de la cámara, lo que se representa con la flecha a trazos. En el particular caso de la proyección perspectiva que hace el punto B sobre el plano de la imagen de la cámara se le denominará punto b de coordenadas (u,v). En la figura 1 pueden notarse dos triángulos, el triángulo FHB y el triángulo FOB, detallados en la siguiente figura y'

(2)

A las variable rij se les conoce como parámetros de rotación y a los componentes del vector (tx,ty,tz) , como parámetros de translación. A este conjunto de parámetros se le conoce como parámetros extrínsecos, ya que relacionan la transformación de coordenadas que hace la cámara en términos de su ubicación exterior. [HORAUD 95]

(punto B proyectado en el eje Y de las coordenadas de la cámara)

y* F

Pueden observarse los elementos de una matriz de rotación que multiplica a las coordenadas del punto según el marco escena, y luego le suma la translación efectiva

 r11  r D =  21 r  31  0 

2.3. Transformación del marco referencia de la cámara al marco referencia de la imagen.

Eje de la cámara O

H O

Figura 2. Semejanza de los triángulos formados por el eje de la cámara y una línea que une el punto B proyectado sobre el plano de la imagen en la coordenada X’

Se sigue el procedimiento geométrico necesario para despejar x*, y* y z* a partir de la figura 2 sin tener que poner explícitamente los ángulos de rotación, gracias a la semejanza de triángulos. [AZAR 99]. Si se extiende la semejanza de triángulos a los todos los ejes se obtiene que las coordenadas según el marco de referencia de la cámara del punto B proyectado en el plano de la imagen (punto b) son: x* = f ( x´/ z´) y* = f ( y ' / z´) z* = f

(3)

en este punto es necesario tener en cuenta el escalamiento producido por las características ópticas de la lente. Es decir, un objeto de determinada altura, obviamente, producirá sobre la retina o el plano CCD, una imagen de tamaño inferior cuyo factor de escala es propio de la lente. Llamamos a estos factores de escala ku, kv, le asignamos un signo negativo a ku, porque


89 como se sabe la imagen formada en la retina no es sólo más pequeña sino invertida. [HORAUD 95] Recordando que el punto de origen del marco de referencia de la imagen es el punto superior izquierdo, mientras que todos los cálculos hechos hasta ahora han sido suponiendo un eje óptico que atraviesa el punto central de la imagen, debemos tener en cuenta ese punto central al momento de expresar las coordenadas cartesianas según el marco de referencia de la imagen. Por lo que, en el plano de la imagen el punto b, tiene coordenadas (u,v) dadas por: [HORAUD 95] u = α u •x* + u0, v = α v •y* + v0, donde: αu = - ku f

y

con

αu

αv = kv f

< 0 , (4) (5) (6)

A los factores de escala y a las coordenadas del centro óptico, los llamamos parámetros intrínsecos ya que son propios de la cámara y no de su ubicación dentro del espacio de una escena. [HORAUD 95] El problema de la proyección perspectiva es que resulta en una correspondencia no lineal entre las coordenadas en el marco de referencia de la imagen y las coordenadas en el marco de referencia de la cámara [BALLARD 92], por lo que en general, el problema de la calibración de cámaras que es el de hallar los parámetros (extrínsecos e intrínsecos) se convierte se convierte en un problema no lineal, que como veremos más adelante introduce problemas serios a la hora de utilizar RNA para solucionarlo. Encaminados hacia las RNA es adecuado expresar las relaciones entre los diferentes marcos de referencia, en forma matricial. Para la transformación cámara/imagen, que es la introduce los elementos no lineales, es conveniente expresarla no en coordenadas cartesianas sino en coordenadas homogéneas de la siguiente manera: [GONZALEZ 90] [BALLARD 92]

 x'     su     y'  sv . A =    z'  s     1  

donde

α u  = 0  0 

se

(7)

puede

0

u0

αv

v0

0

1

decir

0  0 0 

que:

A

(8)

2.4. Calibración de la cámara La ecuación 1 puede expresarse como una multiplicación matricial:   r  x'   11    r21  y'  =   z'   r31    0 1  

r12 r22

r13 r23

r32

r33

0

0

tx   ty  tz   1 

   x    y  z   1 

(9)

Reemplazando la ecuación (8) y (9) en la ecuación (7) tenemos que [HORAUD 95]]:  su  α    u 0  sv  =  0 α v  s   0 0  

u0 v0 1

0 0

0

 r11 r  21  r31  0 

r12 r22 r32 0

r13 t x   r23 t y  r33 t z   0 1

   x    y  (10)  z   1 

Lo que, gracias a (2) y (8), se puede resumir    x  su      así:  sv  =A.D.  y   z s     1 

(11)

La ecuación (11) es una fórmula que expresa en términos lineales la correspondencia entre los puntos en la imagen y los puntos en la escena 3D. La mayoría de los métodos no utiliza esta expresión porque no es posible conocer el valor s antes de la calibración que es distinto para cada punto (siempre y cuando sean no


90 coplanares) es decir s es en realidad la tercera fila de la matriz producto A.D.[x,y,z,1]'. Este es una característica que limita enormemente la capacidad de las RNAs para atender el problema, ya que la ecuación (11) es un descripción lineal entre dos vectores: [s.u,s.v,s]' y [x,y,z,1]', pero no conocemos en realidad todos sus elementos. [AHMED 99(2)] Conocemos u y v porque son las coordenadas que nos da la imagen y conocemos x, y y z, porque para eso se construye un patrón de calibración cuyos puntos tienen coordenadas específicas. Si se desglosa la ecuación (10), se demuestra que s=z', es decir s es igual a la tercera coordenada del punto B según el marco de referencia de la cámara luego de realizar la translación y la rotación. s = z' = r31 . x + r32 . y + r33 . z + Tz

(12)

La coordenada en z, según el dibujo de la figura, está físicamente asociada a la profundidad. Sin embargo, no es posible conocer s antes de calibrar la cámara porque debemos conocer los parámetros r3j y Tz, lo cual es precisamente parte del objetivo de calibración. Generalmente los métodos de calibración lo que hacen es tomar las dos primeras elementos resultantes de la ecuación 11, dividiéndole entre el elemento s que aunque se desconoce se mete como incógnita en un sistema de ecuaciones. Si M= A.D y mij es un elemento de M, tenemos que la ecuación 11 se convierte en  su     sv  = s  

 m11 m12   m21 m 22 m  31 m32

m13 m23 m33

m14   m24  m34 

 x    y  z.   1  

(13)

Por lo que después de desplegar y dividir s en ambos lados de la ecuación: [GONZALEZ 93] [HORAUD 95] u=

m11 .x + m12 y + m13 z + m14 m31 x + m32 y + m33 z + m34

(14)

v=

m 21 .x + m 22 y + m 23 z + m 24 m 31 x + m32 y + m33 z + m34

(15)

Ya tenemos en (14) y (15) dos ecuaciones que nos relacionan de manera no lineal los puntos en la imagen con los puntos en la escena. En general, todos los métodos de calibración toman este camino para resolver el problema de la calibración aunque sea por diferentes técnicas como las de Tsai [TSAI 86], Hall [HALL 82], Ayaché [AYACHE 99], Fougerais Toscani [FAUGERAS 93] [TOSCANI 87], que utilizan la relación no lineal expresada en (14) y (15) para obtener soluciones a través de ciertas ecuaciones matriciales lineales que se resuelven por las técnicas de la pseudoinversa. A estos métodos se les conoce como métodos clásicos y de ellos se encuentran amplias referencias bibliográficas y que a lo largo de la investigación global que hemos hecho sobre calibración de cámaras, se han implementado y comparado sus distintos resultados. 3. La calibración explícita de cámaras digitales con RNAs En el estado actual del arte se encuentran varias propuestas de calibración de cámaras digitales con RNAs, utilizando principalmente redes multicapa de conexiones hacia delante, entrenadas con algoritmos de retropropagación [AHMED 99(2)]. Sin embargo, la mayoría no determina explícitamente los parámetros de la cámara y deja pocas posibilidades para una adecuada corrección de aberraciones ópticas como la distorsión [SHIH 95]. Una mayor profundización en la calibración implícita de cámaras digitales con RNAs puede ser vista en los trabajos de Do [DO 00] , Zhou [ZHOU 92], Wen [WEN 91], Choi [CHOI 94], Jun [JUN 99] y Mousavi [MOUSAVI 94], entre otros. Tan sólo un trabajo de doctorado cuyas investigaciones han sido publicados en algunos artículos, ha abordado el problema de determinar explícitamente los parámetros de la cámara usando para ello el modelo pinhole clásico y RNAs. Se trata de las investigaciones de Ahmed, Hemayed y Farag ([AHMED 99(1)], [AHMED 99(2)] [AHMED 01] ) y cuyas publicaciones han servido de base importante para el presente trabajo.


91 El adentrarse en esta investigación significa tomar una aplicación muy específica de un campo más global mejor conocido como parametrización de sistemas con RNAs. En este trabajo se presenta la manera en que se hizo la indagación en esta área y arroja conclusiones muy interesantes, sobre la conveniencia o no de utilizar las RNAs en un nuevo paradigma que reta la filosofía inicial con que se crearon. 3.1. Estrategia inicial para solucionar el problema Inicialmente se toma la ecuación matricial (10) para representarla mediante RNAs, cuya arquitectura depende de las dimensiones de las matrices A y D de la ecuaciones (2),(8) y (11). Lo primero es asumir cuatro neuronas de entrada que representan las coordenadas (x,y,z,1) de la parte derecha de la ecuación. Su relación con una siguiente capa también de cuatro neuronas, está determinada por los elementos de la matriz D, es decir por los parámetros extrínsecos de la cámara. ([AHMED 99(1)] ) La matriz de pesos que interconecta la capa oculta con la capa de salida es mapeada de tal manera que corresponde a la matriz A, la cual contiene los parámetros intrínsecos de la cámara. Esto se puede apreciar mejor en la figura 2. [AHMED 01] Por lo tanto, el proceso de entrenamiento de la red, debe hacer que los pesos de la red mapeen por completo los componentes de las matrices A y D, donde se encuentran los parámetros de la cámara. La calibración explícita de la cámara es, por lo tanto, el entrenamiento de la red neuronal cuya arquitectura pueda realizar la misma operación que realiza la ecuación (13). El problema mayor a vencer es el explicado en la sección anterior, el desconocimiento de la variable s, que es la que permite homogeneizar y linealizar la relación no lineal original que corresponde a las coordenadas (u,v) en función de las coordenadas (x,y,z), tal como hacen las ecuaciones (14) y (15).

El aspecto central es la alinealidad. Ahmed [AHMED 01], introduce una variable nueva a entrenar para rodear este problema. Se ha de notar que todas las neuronas de la capa oculta tienen función de transferencia lineal y = F(neta), donde F(x)=m.x, con m=1. La capa de salida debe también tener neuronas con funciones de transferencia lineales, con la diferencia de que para cada patrón existe una pendiente distinta en la relación F(x)=m.x. Es decir, m es obtenida de la tercera neurona de la capa oculta que corresponde a la tercera coordenada del patrón específico en el marco de referencia de la cámara, a la que hemos llamado z' según la ecuación (12). Para cada patrón m será igual al denominador común de las ecuaciones (14) y (15), desconocido antes de la calibración. A continuación explicamos porque se hace ésto. Para poder implementar un algoritmo de backpropagation, es necesario que la función del error total, sea derivable y pueda ser relacionada con variables que correspondan a pesos físicos de la red. El criterio de error proviene de restar de las ecuaciones (14) y (15), el verdadero valor de las coordenadas (u,v) o valor deseado . [AHMED 99(1)], [HORAUD 95] N

E=

∑ (u mod elo − uimagen ) 2 + (vmod elo − vimagen ) 2 (16) i =1

2     m11 .x i + m12 y i + m13 z i + m14  E=   m x + m y + m z + m − u i  32 i 33 i 34  i =1   31 i N

 m .x + m 22 y i + m 23 z i + m 24  +  21 i − v i   m31 xi + m32 y i + m33 z i + m34 

2

   , (17) 

oi1 = m11.xi + m12 yi + m13 zi + m14 ,

Si se define: oi 2 = m21.xi + m22 yi + m23zi + m24 ,

(18)

oi3 = m31.xi + m32 yi + m33 zi + m34 ,

Se

puede N 

E=

 o

∑   oii13 − ui  i =1 

convertir 2

2

o   +  i 2 − vi   o  i3  

(17) ,

(19)

en:


92 La expresión del error tal como se plantea en (19) complica el proceso de entrenamiento que busque minimizarlo. [AHMED 99(2)] Para facilitarlo se introduce una variable γ que puede ser vista como un peso nuevo que debe ser entrenado en el proceso de aprendizaje, aunque no esté físicamente asociado a ninguna interconexión de la RNA. No obstante, puede notarse que γi =1/oi3, es decir el inverso de la salida de la neurona tres de la capa oculta para cada patrón. [AHMED 99(2)]

función. El inconveniente que aparece aquí es que no sólo se deben entrenar los pesos relacionados a la interconexión entre neuronas (con excepción de los que permanecen iguales a 1 o 0), sino que también este nuevo vector debe ser entrenado. [AHMED 99(2)] Si se toman como muestras 120 puntos, deben entrenarse 120 pesos además de los 16 pesos que corresponden a los parámetros de la cámara colocados estratégicamente en la arquitectura de la RNA.

Al tener que entrenar el vector γi, implícitamente se está relacionando el error de entrada con la fila tres de la matriz de rotación, para hacerlos adaptables a esta particular

r11 r12 r13 tx

x

.

F(neta)= m neta, donde m=(1/z')

Salida=x'

αu

y

r22 r23

z

r33

αv

ty

0 0

0

Salida=z'

tz

0

1

0

v

v0

r31

1 Matriz de pesos D Parámetros extrínsecos

0

Salida=y'

r32

u

0

u0

r21

1 0

0 Salida=1

Matriz de pesos A Parámetros

0

1 Capa de neuronas de salida, con función de transferencia lineal y pendiente variable

Figura 2. Arquitectura de la red utilizada para parametrizar el modelo clásico


93 Para el entrenamiento se utiliza un algoritmo clásico de retropropagación del error, con una técnica de gradiente descendente que permite actualizar los pesos en cada iteración. En general, los valores esperados para los elementos de las matrices A y D, son valores muy heterogéneos por los que se hace necesario colocarlos a escala para que la RNA pueda entrenarse más fácil. El procedimiento es multiplicar las entradas y las salidas por una matriz de escalamiento. Partiendo de las entradas y salidas de la figura 2, se puede describir la red como lo hace la ecuación (20) teniendo en cuenta que la división entre la z' se hace implícitamente dentro de la red, gracias a la peculiar función de transferencia lineal de pendiente variable que adoptamos en este caso. A la tercera componente de la coordenada z' la llamaremos de ahora en adelante la presalida oi3. [AHMED 99(2)] 0 0  su  1 / S1     0 1 / S1 0  sv  =  0 0 1  s  

0 1 / S1 0    0 1 / S1 0  A·D  0 0 1  

 x    y  z   1  

( S2 )

0 0 1 / S 2  1/ S 2 0  0 = 0 0 1/ S 2   0 0 0 

0  0 0  1 

(25)

Con lo que la ecuación 24 queda así:  su    ( S1 ).  sv  = s  

-1

W D ( S2 ) S2

 x    y  z   1  

(26)

Si se hace: Vini = D( S 2 )-1 -1

( S1 ) .

 su     sv  = s  

W Vini

 x   y ( S 2 )   z   1  

Como ya se sabe que s= oi3 y ( S 1 )-1 .

γi

(28)

γi =1/oi3

 xi    y W Vini ( S 2 )  i  z  i 1    xi S 2    y S2 W Vini  i  z S2  i   1   

 ui oi3     vi oi3  =  o   i3 

 ui S1    vi S1  =  1   

(27)

(29)

(30)

(20)  S1 

0

0 

0

0 

Reemplazando: S1 =  0 S1 0  1 

(21)

y recordando las propiedades de las inversas de las matrices diagonales:

( S1 )-1

 su     sv  = s  

( S1 )-1

 x   y ·A·D·   z   1  

Ahora se hace: W = ( S1 )-1 ·A  (22) queda: ( S 1 )-1

 su    .  sv  = s  

W

 x   y D·   z   1  

(22)

(23) (24)

De igual manera se puede normalizar el vector entrada al multiplicar y dividir por la siguiente matriz

Aquí hay que anotar que en nuestra investigación descubrimos que ante parámetros esperados muy heterogeneos en magnitud (por ejemplo un tz = 1400 y un r11=0.06), es necesario un factor de escala adicional, especialmente para la salida deseada ya que esta misma puede presentar diferencias grandes entre u y v si la fotografía es muy rectangular. En este caso, introducimos un factor de escala diferente que no disminuya más el patrón de entrada, por eso no se pone en la matriz S2 que sería la primera opción porque va al lado de la matriz V que es la que incluye al parámetro tz. Si se pusiera como parte de la matriz S2 afectaría el comportamiento del aprendizaje de la red tal como se comprobó en las innumerables exploraciones. Por lo que (30) se puede expresar


94  ui ( S1 × FESC )     vi ( S1 × FESC )  =   1 FESC  

γi W

 xi S 2     yi S 2  (Vini /FESC)  z S2  i   1   

(31)

La solución de este factor independiente es que afecta específicamente a aquellos parámetros de la cámara que esperamos altos como el tz, ya que está relacionado con la profundidad de la escena o la distancia de la cámara al patrón de calibración. Teniendo ya claro, la representación matricial adaptada para poder entrenar la red, retomamos la función de error. Ahora podemos cambiar la ecuación (19) por ([AHMED 99(1)] ) : N

E=

∑ (γ ioi1 − ui )2 + (γ ioi2 − vi )2 + (γ ioi3 − 1)2 (32)

expresión matricial para la salida deseada de la red [AHMED 99(1)] . di = γ iW3 x 4V4 x 4 Zi

(34)

La idea del entrenamiento de la red es encontrar los valores de γ i , W3x 4 y V4x 4 , que satisfagan las ecuaciones (33) y (34). Para eso hay que encontrar las ecuaciones que permitan variar los pesos de acuerdo a las reglas del gradiente descendente. [AHMED 99(1)] Empezamos formulando la expresión para las salidas de las neuronas de la capa oculta: 4

Yj =

∑V jl Zil

(35)

l =1

i =1

Ya se tiene como relacionar la nueva variable γi con el error final de las neuronas en la capa de salida. Llamando di a cada patrón deseado di

 ui ( S1 × FESC )    =  vi ( S1 × FESC )    1 FESC  

(33)

y a Oi=γioi, como la salida real de la red para cada patrón i luego de pasar por las dos capas y por la función de transferencia lineal de pendiente variable de las neuronas de la capa de salida. Es interesante aquí anotar otra vez que esa pendiente varía de acuerdo a cada patrón y es la variable nueva introducida para parametrizar el modelo no lineal que describe a la cámara digital. La innovación propuesta por Ahmed [AHMED 99(1)] es pues que debemos entrenar la función de transferencia de las neuronas de la capa de salida, para poder adaptar la RNA al modelo no lineal, con lo que se hace un aporte muy interesante al campo de la parametrización con RNAs. Si llamamos Zi a los patrones de entrada y a Vini/FESC, (xi/S2,yi/S2,zi/S2,1)' simplemente V, por supuesto sin olvidar que está escalada, podemos formular una

donde j es el índice para las neuronas de la capa oculta y l es el índice para las neuronas de la capa de entrada. La capa de salida, primero efectuará, una suma de los productos según las interconexiones a las salidas de la capa oculta, lo que hemos llamado oi oi =

4

∑WkjYj

(36)

j =1

donde k es el índice para las neuronas de salida. Al aplicar la función de transferencia lineal de pendiente variable γi, las neuronas de la capa de salida arrojan un resultado final dado por: Oi=γioi (37) Oi =

4

∑γ iWkjYj

(38)

j =1

De esta manera la función de error puede ser 3

escrita así: Ei =

1 ( dik − Oik ) 2 2 k =1

(39)

El factor de 0.5 se introduce por simple conveniencia, para eliminar el 2 en el proceso de derivación. La ecuación (39) debe ser


95 derivada parcialmente con respecto a cada peso a entrenar. Luego de un proceso, que aquí no se consigna, pero el lector puede verificar, se obtienen las siguientes expresiones para el cambio que debe tener cada peso en cada iteración del aprendizaje: [AHMED 99(1)] ∆W kj = α 1 (d ik − Oik )γ i Y j

(40)

3

∆Vij = α 1γ i

(d ik − Oik )W kj Z il

(41)

k =1

 3  ∆γ i = α 2  (d ik − Oik )     k =1 

  Wkj Y j   j =1  4

(42)

donde α1 y α2 son constantes de aprendizaje, sobre las cuales se deben efectuar algunos comentarios más adelante. Debe resaltarse, según las ecuaciones (8) y (23), que para la matriz de pesos W, en cada iteración deben conservarse constantes todos sus elementos, menos los que corresponden a los parámetros intrínsecos: W11, W22, W13 y W23. Así mismo la matriz V, según las ecuaciones (2) y (27), debe conservar constantes los elementos de la fila 4, mientras varía los que corresponden a los parámetros extrínsecos según la regla de gradiente descendente de la ecuación (41). Sin embargo, aún hay que introducir una nueva regla para asegurar que la submatriz de la matriz V que corresponde a la matriz de rotación de la ecuación 1, cumpla con las características de ortonormalidad. [GROSSMAN 87] Para eso la matriz R debe satisfacer dos condiciones:

R21R21 + R22R22 + R23R23 = 1, fila 2 R31R31 + R32R32 + R33R33 = 1, fila 3 (44) debido a que R está escalada con respecto a V, al aplicar esta condición 2 directamente a la matriz V se elige un factor de escala apropiado para que se cumpla que V11V11 + V12V12 + V13V13 = a, fila 1 V21V21 + V22V22 + V23V23 = a, fila 2 V31V31 + V32V32 + V33V33 = a, fila 3 (45) Donde a es nominalmente 1, si no existe escalamiento, pero como generalmente si lo hay para poder entrenar la red, debe elegirse de acuerdo a la siguiente ecuación:  FESC  a=   S2 

2

(46)

Para cumplir estas dos condiciones de ortonormalidad es necesario que la red se entrene teniendo en cuenta, además del error en (39), el error de ortonormalidad, que puede ser expresado así: Eort = Eort1 + Eort2

(47)

Donde: Eort1 = (V11V21 + V12V22 + V13V23)2 + (V11V31 + V12V32 + V13V33)2 + (V21V31 + V22V32 + 2 (48) 23V33) , por la primera condición y Eort2 = (V11V11 + V12V12 + V13V13 - a)2 + (V21V21 + V22V22 + V23V23 - a)2 + (V31V31 + V32V32 + V33V33 - a)2

3

=

∑ (Vl12 + Vl 2 2 + Vl 3 2 − a 2 )

2

l =1

1. El producto escalar entre filas distintas de la matriz R (submatriz de V) debe ser igual a cero V11V21 + V12V22 + V13V23 =0, filas 1 y 2 V11V31 + V12V32 + V13V33 =0, filas 1 y 3 V21V31 + V22V32 + V23V33 =0, filas 2 y 3 (43) 2. El producto escalar de cada fila por sí misma debe ser igual a uno. R11R11 + R12R12 + R13R13 = 1, fila 1

(49) por la segunda condición. De esta manera el error total será igual a: Etotal =

1 2

3

∑ (d ik − Oik ) 2 +

Eort

(50)

k =1

De la ecuación (50) es necesario deducir una nueva regla de cambio para los pesos de acuerdo al criterio de gradiente descendente. Las ecuaciones de cambios de pesos (40) y (42) permanecen iguales, mientras que (41), que es precisamente la que hace cumplir las


96 condiciones de ortonormalidad, se ve modificada de la siguiente manera [AHMED 99(1)] [GROSSMAN 87] : 3

∆Vij = α 1γ i

(

∑ (d ik − Oik )Wkj Z il k =1

)

− 4α 1 β Vl1 + Vl 2 + Vl 3 2 − a Vij − 2α 1 βδv lj (51) 2

2

donde

en MATLAB a la calibración de tres cámaras distintas, una de ellas escogida con un parámetro de distorsión relativamente grande y cuya definición e influencia se explicará en la segunda parte de este informe. Previamente se obtuvo un estimativo de los parámetros a través del método de Fougerais-Toscani (F-T), [FAUGERAS 93] [TOSCANI 87] y se tomó el error relativo con respecto a este estimativo. Los resultados fueron los siguientes:

 (V 2 j )(V11V 21 + V12V 22 + V13V 23 )  + V (V V + V V + V V ), 3j 11 31 12 32 13 33   para : l = 1   V1 j (V11V 21 + V12V 22 + V13V 23 )  δv lj =  + V 3 j (V 21V 31 + V 22 V32 + V 23V 33 ) (52)  para : l = 2   V1 j (V11V 31 + V12V 32 + V13V 33 )  + V 2 j (V 21V 31 + V 22 V 32 + V 23V 33 )  para : l = 3

Cámara 1:

( )

( ) ( )

( ) ( )

Las ecuaciones (51) y (52) permiten entrenar específicamente los elementos de la matriz V que deben cumplir con las condiciones de ortonormalidad, indispensable para darle una solución exacta al problema de la calibración de cámaras. [AHMED 99(2)] Como puede apreciarse por la complejidad del cálculo matemático que soporte la RNA, por aquí se inicia por un camino más difícil que la solución por el metodo clásico. Debe tenerse en cuenta para el análisis de resultados, que la minimización del entrenamiento de la RNA es una minimización multiobjetivo, pues deben cumplirse las condiciones del error cuadrático medio y además las de las condiciones de la ortonormalidad, porque si se hiciera la minimización cumpliendo sólo el objetivo de reducir el error cuadrático medio, lo más seguro es que se llegaría a una solución en donde la submatriz 3x3 de V, no correspondería realmente a una matriz de rotación y no habría, por tanto, calibración explícita. 4. Resultados clásico con RNA

experimentales

modelo

Se implementó el algoritmo explicado en las secciones anteriores. Se aplicó el programa

Condición casi ideal para tomar muestras −0.7427 −0.002855 25.04   0.67007    − 0.037852 − 0.031982 − 0.99932 211.85  Desperada =  0.05242 1449   − 0.74049 − 0.67001  0 0 0 1  

 0.67585  − 0.038765 Dfinal =   − 0.73602  0 

− 0.73704 − 0.00247 24.623   − 0.032201 − 0.99873 211.65  − 0.67509 0.050335 1526.3  0

Error relativo promedio extrínsecos: 0.019876

0

1

en

 

parámetros

0 176 0   − 739.58   Aespe =  0 799.89 144 0   0 0 1 0  

 − 783.47 0 176 0    Afinal =  0 846 144 0   0 0 1 0  


97 Error relativo promedio intrínsecos: 0.0097503

en

parámetros

Error relativo promedio intrínsecos: 0.0342

en

parámetros

Error de reconstrucción para la cámara 1 con RNA: 0.1

Error de reconstrucción para la cámara 2 con RNA: 0.7895

Error de reconstrucción para la cámara 1 con F-T 0.3128

Error de reconstrucción para la cámara 2 con F-T: 0.7940

Cámara 2

Cámara 3.

Puede observarse la distorsión en esta cámara

Puede observarse una mayor distancia de la cámara al patrón

 0.68811 − 0.6236 − 0.37112 68.211    − 0.2854 0.24249 0.92787 208.94 Desperada=  − 0.66773 − 0.7443 0.012342 796.95    0 0 0 1  

0.83 − 0.051812 − 39.293  − 0.52618   0.13641 0.92031 7.302   0.3063 Despe=  − 0.78092 − 0.47551 − 0.40503 1827.9     0 0 0 1  

 0.68555 − 0.62506 − 0.37325 68.8     − 0.26972 0.25816 − 0.92769 190.78 Dfinal =  − 0.67622 − 0.7366 − 0.008391 935.96    0 0 0 1  

0.82 − 0.059 − 34.4   − 0.56    0.312 0.14718 0.938 7.463  Dfinal =  − 0.764 − 0.550 − 0.332 1632.2     0 0 0 1  

Error relativo promedio extrínsecos: 0.0466

en

parámetros

Error relativo promedio extrínsecos: 0.059351

en

parámetros

0 160 0   − 265.61   Aespe =  0 259.03 120 0   0 0 1 0  

0 320 0   − 811.18   Aespe =  0 812.31 240 0   0 0 1 0  

 − 300 0 160 0    Afinal =  0 290 120 0   0 0 1 0  

0 320 0   − 700   Afinal =  0 709.25 240 0   0 0 1 0  


98 Error relativo Promedio intrínsecos: 0.022102

en

parámetros

Error de reconstrucción para la cámara 3 con RNA: 0.83881 Error de reconstrucción para la cámara 3 con F-T: 0.3325 5. Análisis de los resultados para el modelo clásico En este punto se debe tener en cuenta que la prueba de Fougerais_Toscani fue hecha con la totalidad de los puntos que fue posible obtener del patrón de calibración. Para la prueba con RNA se tomó una muestra de esos puntos (aproximadamente el 70%) con el objetivo principal de reducir el tiempo de convergencia de la red, porque tal como está diseñada la red cada patrón es un peso a entrenar, por lo que entre más patrones talvez se obtenga más precisión a costa de un tiempo de convergencia más alto. En la foto número 1 se puede apreciar un error de reconstrucción suficientemente bueno y que avala la poca diferencia entre los parámetros esperados y los parámetros obtenidos con la RNA. Sin embargo, quedan dudas con respecto al parámetro que define la profundidad de la escena: Tz, el de mayor error relativo en la prueba. De esta foto número 1 hay que destacar que es una foto óptima para realizar la acumulación de datos que conforman patrones de entrada y de salida, buena iluminación, cercanía al patrón, poca distorsión de la lente y simetría de la ubicación de la cámara. Es una condición ideal, no siempre alcanzable. En la foto número 2, es de destacar la distorsión que aporta la lente de la cámara, aunque en general se cuentan con buenas condiciones para acumulación de datos de patronaje. El error de reconstrucción es prácticamente el mismo que para FougeraisToscani. Sin embargo la RNA diseñada sólo ofrece solución a los parámetros del modelo clásico sin contar con el parámetro de

distorsión. Es necesario un segundo paso para hallar un parámetro de distorsión. [SHIH 95] En la tercera toma, se cuenta con un posicionamiento de la cámara más alejado que en las dos anteriores y peores condiciones de iluminación. En este caso se nota el mejor comportamiento del método clásico para arrojar un error de reconstrucción menor que el de la RNA. En cualquier caso, si se desea un menor error de reconstrucción debe prolongarse el tiempo de entrenamiento de la RNA. El carácter heurístico de las redes neuronales hace que sea muy importante la elección de los parámetros de aprendizaje, para asegurar un tiempo de convergencia razonable sin correr el riesgo de que la red no converja. A lo largo de muchos meses esta investigación trató diferentes métodos para mejorar este aspecto, ensayando con técnicas como gradiente conjugado o LM que sin embargo, no dieron los resultados esperados. [HAYKIN] El elemento clave que permitió obtener un tiempo de convergencia aceptable, fue descubrir que el elemento gamma γ al aparecer en las ecuaciones (40) y (41), provoca pasos muy pequeños en los cambios de los pesos V y W, que son finalmente los que tienen una relación directa con los parámetros de la cámara. Para ésto, fue necesario contrarrestar esa influencia con el crecimiento de la rata de aprendizaje. Los resultados obtenidos fueron, de inmediato, mucho mejores, al asegurar tiempos de convergencia de 10 a 40 minutos, comparados con las varias horas que requerían ratas de aprendizaje fijas o de un crecimiento que no atenuara la influencia de γ. Esta variabilidad de α1 con respecto a γ, se puede explicar por el hecho de que el elemento γ no representa un peso de conexión real entre las capas de las neuronas entrada-oculta y oculta-salida, sino más bien una función de activación que variaba según cada patrón, por lo que su influencia en la retropropagación del error no era del todo conveniente para la convergencia de los pesos principales: V y W. Además el tamaño del elemento γ depende del número de puntos obtenidos del patrón de calibración,


99 que a su vez influye significativamente en la precisión de la calibración, pues entre más puntos de calibración más precisión, especialmente para este proyecto con RNAs, ya que comparando con el método clásico de Fougerais-Toscani, el número de puntos no influye tanto en la precisión de calibración, siempre y cuando éste sea mayor a 12. [HORAUD 95] Los tiempos de convergencia alcanzados son, sin embargo, cuestionables especialmente para aplicaciones de tiempo real en que hay que hacer varias calibraciones en un proceso. El argumento más contundente para explicar el tiempo de convergencia alto de la RNA aplicada en la calibración, es la enorme diferencia entre el número de neuronas y el número de pesos a entrenar. Se deben encontrar 16 parámetros de la cámara, pero además se deben encontrar los elementos del vector γ cuyo tamaño, como ya dijimos, depende del número de puntos del patrón de calibración. Se utilizó un patrón de calibración de 260 puntos, por lo que el número total de pesos a entrenar es de 276 con tan sólo 11 neuronas en toda la red. El tiempo de convergencia, es pues, el precio a pagar por querer identificar explícitamente los parámetros de una cámara digital con RNAs. La calibración implícita de cámaras digitales con RNAs, deja de lado el problema de tener que averiguar cada parámetro y se limita a hacer de la red neuronal entrenada, una especie de caja negra que imita el comportamiento de la cámara digital, con lo que en el proceso de diseño de la arquitectura de la red se puede jugar con el número de neuronas en la capa oculta. Este calibración implícita asegura buenos resultados en las aplicaciones de reconstrucción de imágenes, con unos tiempos de entrenamiento breves, pero pueden tener problemas para las aplicaciones estereométricas o de corrección de distorsión. 6. El modelo con distorsión El modelo pinhole de la cámara es un modelo ideal que no tiene en cuenta varias aberraciones ópticas propias de los lentes. Entre ellas la más destacada es la llamada

distorsión radial en la que de todas formas hay una relación punto a punto entre la escena y la imagen, pero en el que el correspondiente de cada punto se desvía de su proyección en una magnitud proporcional a su distancia al eje óptico. Se puede observar la figura 3 para analizar la distorsión radial mediante un círculo que describe la situación. En este caso se sigue que (u, v) son las coordenadas de un punto determinado en el marco de referencia del plano de la imagen tal como se ven en la pantalla del computador, mientras que (uideal, videal) son las coordenadas del mismo punto pero aquellas que se obtienen al asumir el modelo pinhole ideal sin distorsión. [CHAUMETTE 89].

Entre más alejado esté el punto del centro de la imagen mayor será su alejamiento del punto ideal, es decir el desplazamiento que ocasiona la distorsión (que es visto como un error), es más grande, entre más alejado esté el punto del centro de la imagen. Por eso se llama distorsión radial, depende del radio de un círculo cuyo centro es el centro de la imagen. [HORAUD 95] Podemos verlo más detalladamente en la figura 4. Se puede expresar el desplazamiento del punto Mp al punto Md como la suma de una distancia positiva. Eso es porque se toma al punto Md como el punto que da la imagen (distorsionado) y al punto Mp como el ideal. [HORN 86]


100 Se tiene que: u Kd. αu.. v

Tomando esto como referencia más adelante se verá que si se hace así, la constante de distorsión debe dar negativa en caso de que el punto Md esté más cerca del centro óptico que el punto Mp. Ese desplazamiento se puede expresar de la siguiente manera u = uideal + ∆u, v = videal + ∆v, donde ∆u = Kd . r2 . (uideal - u), ∆v = Kd. r2. (videal - v),

(27) (28) (29) (30)

siendo Kd el parámetro de distorsión radial (parámetro que deseamos averiguar) y r2 según la fórmula: 

2

2

 x'   y'  r2 =  α u .  + α v .   ,  

 z '  

 z' 

(31)

Donde αu y αv son los parámetros intrínsecos de la ecuación (4) y donde x',y' y z' son las coordenadas del punto del patrón de calibración, pero según las coordenadas de referencia de la cámara. Mejor dicho las coordenadas que se obtienen luego de para el sistema por los parámetros extrínsecos de Rotación y Translación. Tomando que idealmente, según la ecuación (4): uideal = αu . videal = αv .

x' z' y' z'

+

u0,

(32)

+

v0 ,

(33)

=

x' z'

αu .

+

u0 +

2   x'  2  α .  + α . y '   (34) v  u  z'   z '    y' = αv . + v0 + Kd.. αv. . z' 2   x'  2  y'   y'  α u .  + α v .   (35) z'  z'  z '     

x' z'

Con este modelo ampliado para incluir la distorsión radial los parámetros intrínsecos que deben ser identificados en el proceso de calibración son: centro óptico (u0,v0), αu, αv, y Kd. Este modelo es en realidad una simplificación de uno más completo en el que se tienen en cuenta más parámetros de distorsión que, teóricamente ayudan a la exactitud mientras aumentan el orden de la ecuación del sistema. Las ecuaciones (34) y (35) son fácilmente extendibles a un modelo más completo con un segundo parámetro de distorsión. u = αu.

x' + u0 + Kd1. αu.. z'

v = αv.

y' z'

(36) + v0 + Kd.. αv. .

x' 2 r z'

y' z'

+ Kd2. αu..

x' z'

r4

r2 + Kd2. αu..

x' z'

r4

(37) Remplazando las ecuaciones (32) y (33) en las ecuaciones (36) y (37) respectivamente: u = uideal + (uideal - u0) (Kd1. r2 + Kd2. r4 ) (38) v = videal + (videal - v0) (Kd1. r2 + Kd2. r4 ) (39) Siguiendo el tratamiento matemático adoptado por Zhang [ZHANG 99], en pos de una linealización del modelo, podemos expresar (38) y (39) en forma matricial: (uideal − u0 )r 2  2 (videal − v0 )r

(uideal − u0 )r 4  ⋅  Kd1  = (u − uideal ) (40) (videal − v0 )r 4  Kd2  (v − videal )


101 Esta ecuación puede ser descrita como: Dk = d (41) (uideal − u 0 )r 2

donde: D = 

 (videal − v0 )r

k = [Kd1

d = [u − uideal

2

(uideal − u0 )r 4  (videal − v0 )r 4 

(42)

La red neuronal tendrá dos neuronas de entrada y una sóla neurona de salida, donde los patrones de entrada de cada neurona son:

(43)

Kd 2 ]T v − videal ]

T

(44)

[PAT _ ENT1]

7. Asumiendo el problema de la distorsión radial mediante RNAs

[PAT _ ENT 2]

7.1. Diseño El diseño de la arquitectura de la red se basó en las siguientes definiciones: INP1= (uideal − u0 )r 2 , INP2 = (uideal − u 0 )r 4 , INP3= (videal − v0 )r 2 , INP4 = (videal − v0 )r 4 , OUT1= (u − uideal )

y OUT2= (v − videal ) (45)

Por lo que los elementos de la ecuación (40) se renombran:  INP1 INP 2  Kd1   OUT 1  INP3 INP3 ⋅  Kd  = OUT 2    2  

(46)

En términos de patrones de entrada y patrones de salida para una red Adalina:

[PAT _ ENT1

 Kd  PAT _ ENT 2] ⋅  1  = [PAT _ SAL] (47)  Kd 2 

(48)

 INP2   INP4

(49)

Para la neurona 2: [PAT _ ENT 2] = 

Si asumimos que hemos tomado un número de puntos del patrón igual a pp, de esta manera obtenemos un sistema de 2xpp ecuaciones.

Una vez obtenido el sistema de ecuaciones descrito por la ecuación (41) es posible encontrar la solución al sistema con una Red Neuronal Tipo Adalina. [MARTÍN 02]

 INP1   INP3

Para la neurona 1: [PAT _ ENT1] = 

Kd1

[PAT _ SAL] Kd2

Figura 5. Arquitectura red ADALINE para hallar parámetros de distorsión

7.2. Implementación Se implementó un algoritmo para hacer converger la red que resolviera este sistema de ecuaciones. Téngase en cuenta que el número de ecuaciones es igual a 2 veces el número de puntos tomados del patrón de calibración, aproximadamente 520 puntos, para encontrar tan sólo 2 incógnitas. En este caso, se utiliza la regla Widrow-Hoff o regla LMS, que puede considerarse como una versión iterativa aproximada de la basada en la pseudoinversa, necesaria para resolver el sistema descrito por (41) de tal manera que: (50) k = (DT D)−1 DT d Como el sistema tiene tantas ecuaciones es conveniente utilizar un parámetro de aprendizaje muy pequeño. Sin embargo, se obtienen mejores resultados si se aplica una técnica de segundo grado, como la del gradiente conjugado en la versión que expone Haykin, con minimización lineal que permita hallar la magnitud de paso más efectiva, sin tener que utilizar segundas derivadas


102 Debe observarse que la foto 3 de la figura 6, corrige el error de distorsión en buena medida comparable a la corrección ‘hecha a ojo’ de la segunda foto. Las mayores diferencias entre estas dos, es la distorsión que aún se presenta en las partes exteriores al patrón de calibración en la tercera fotografía. La razones para esto pueden estar en tres causas: la primera está relacionada con los puntos externos al patrón de calibración que la RNA no ha tenido en cuenta ni en el modelo clásico, ni en el modelo con distorsión, aunque este problema se presenta también para métodos clásicos. Figura 6. Resultados de la prueba de corrección de distorsión de imagen para red ADALINE

7.3. Resultados Se aplicó el programa implementado para la fotografía de la cámara 2, que es la de mayor distorsión en este conjunto de pruebas. Para el modelo clásico le sigue el procesamiento de la rde ADALINE para hallar los parámetros de distorsión. Es un proceso global constituido por dos subprocesos en serie. Sin embargo, no debe confundirse con el concepto de dos redes neuronales en serie, ya que, para este caso, las salidas de una no constituyen directamente las entradas de la otra. Al aplicar el algoritmo de la red ADALINA, sobre la foto de la cámara 2, se llega a la convergencia en casi un minuto. Inicialmente se tenía un error medio de reconstrucción 0.7895, al aplicar la ADALINA para 50 iteraciones, en 40 segundos se obtienen los siguientes resultados: Kd1_esperada=-6x10-6 Kd1=-3.3267x10-6 -10 Kd2=-3.6123x10 Kd2_esperada= 0 El error de reconstrucción se reduce a 0.7661, que parece no ser muy significativo pero a este nivel si lo es. En la figura 6, se pueden visualizar estos resultados. El máximo error presentado entre pixeles en la reconstrucción es de hasta 2 píxeles (con excepción de un pico espúreo de 3 píxeles).

La segunda razón tiene que ver con la linealización que se hace del modelo de distorsión no lineal, que aunque facilita el tratamiento matemático, obviamente introduce causas de error. Eso puede verse al comparar métodos disímiles entre sí. El contraste proviene de los diferentes métodos utilizados para corregir la fotografía original y llegar a la corrección de la foto 2 de la figura 6 y a la corrección de la foto 3 de la misma figura. Para la foto 2 se utilizan las herramientas del MATLAB de minimización de funciones con Levenberg-Marquardt, en que iterativamente se ponen a variar los parámetros del modelo clásico junto al nuevo parámetro de distorsión, con el objetivo de optimizar todo el conjunto de parámetros para minimizar la función de error. En cambio para la foto 3, los parámetros del modelo clásico permanecen constantes mientras se buscan los parámetros de distorsión, por lo que el conjunto total de parámetros no es optimizado. Además la función error es diferente. Puede pensarse que la optimización global de los parámetros podría hacerse poniendo a entrenar a las dos redes simultáneamente en cada iteración de aprendizaje simulando un funcionamiento en paralelo. Ese experimento se realizó y los resultados no fueron satisfactorios. La razón para esto es que no hay manera de asociar el error debido al parámetro de distorsión en el modelo clásico, de tal manera que los cambios en V y W (los pesos de interconectividad de las neuronas en la primera RNA), dependan específicamente del mismo. Esto sólo podría hacerse si


103 consideramos el modelo con distorsión, pero para hacerlo funcionar con una técnica de gradiente descendente sería necesario hallar la derivada de la función de error respectiva, lo que origina un aumento grande en la dificultad computacional del sistema. Además, es prácticamente imposible asociar las ecuaciones (36) y (37) directamente con una red neuronal. Para lograr un solo parámetro más (Kd1) la dificultad del problema aumenta de forma dramática y la disminución de la eficiencia computacional lo hace totalmente impráctico. 8. Conclusiones En esta investigación se ha logrado un interesante aporte al campo de la parametrización de modelos mediante Redes Neuronales Artificiales, al tiempo que se genera un nuevo método para la calibración explícita del modelo clásico y del modelo con distorsión de las cámaras digitales. Basándonos en un trabajo previo hemos formalizado el marco teórico de una forma más accesible y más interrelacionado al campo que enmarca a la aplicación: la visión artificial. Además se han introducido técnicas originales que pueden llegar a mejorar el algoritmo en que se basa nuestra implementación. De esta manera, se ha llegado a un código original en MATLAB, basado en RNA que calibra el modelo clásico de las cámaras digitales, arrojando resultados que pueden ser comparados con otros métodos también implementados en este programa tan ampliamente usado en ingeniería. Adicional a ésto, se ha introducido un algoritmo nuevo para detectar dos parámetros de distorsión con Redes Neuronales Artificiales basados en la linealización matemática que hace Zhang, [ZHANG 99]. En este código implementado en MATLAB, ha podido demostrarse la eficacia de la red ADALINE para parametrizar modelos lineales.

Sin embargo, también es importante señalar las limitaciones. La parametrización del modelo clásico con redes neuronales sufre de varios inconvenientes. El primero está unido a la dificultad para implementar el algoritmo, ya que hay que derivar la función de error por cada capa de la red y adicionarle un parámetro, que no puede relacionarse directamente con un peso de interconectividad entre neuronas. De allí, proviene el segundo inconveniente. Computacionalmente, hay que detectar más pesos que el número de neuronas de la red en una proporción inusual. Adicionalmente hay que arrastrar a la red hacia dos objetivos a la vez: cumplir que las salidas de la red sean iguales a los patrones de salida y además hacer que los pesos cumplan ciertas condiciones, entre ellas la más importante la condición de ortonormalidad de un subconjunto de los pesos. Si comparamos con FougeraisToscani, vemos que en este método la condición de ortonormalidad de la matriz de rotación se cumple a priori e incluso facilita encontrar los parámetros, ya que divide el vector de incógnitas en dos. Por el lado práctico, el tratamiento del problema con RNAs no ha demostrado hasta el momento, mejoras significativas con respecto a otros métodos, específicamente en cuanto a tiempo de convegencias. Por el contrario, adolece de una lentitud que en ciertas circunstancias se hace intolerable. En cuanto a precisión, cumple satisfactoriamente con los objetivos deseados. A lo largo de este informe se han presentado las diversas causas de error y de desventajas que este método presenta en la especificación del modelo clásico. Todas se originan del hecho de que la relación entrada salida no es completamente lineal. En cuanto a la parametrización del modelo con distorsión, se puede hacer más efectiva a posteriori de una linealización. Esto nos lleva a varias preguntas sobre la utilización de las RNAs en la parametrización de modelo lineales y no lineales. Si el modelo de un sistema es lineal, la RNA debe recurrir a algoritmos de segundo orden para ser más


104 rápida si se trata de sistemas de ecuaciones grandes, que en últimas son los mismos que se usan para resolver las seudoinversas originadas en los despejes normales de las ecuaciones matriciales. Si el modelo es no lineal, el problema es adaptar la arquitectura de alguna red conocida con la descripción dada por el modelo, de manera tal que el entrenamiento arroje pesos que mapeen los parámetros del sistema. Adicionalmente, los tiempos de convergencia limitan su efectividad en ciertas aplicaciones. En nuestro caso concreto es de notar la diferencia entre el método con RNA y algún método de iteración típico, ya implementado en las funciones cosntruidas en MATLAB, como Levenberg-Marquardt. El método con RNA introduce n pesos adicionales a entrenar correspondientes a n puntos del patrón de calibración, asunto que no es necesario en una iteración clásica. Es como rodear el río cuando hay un puente para cruzarlo. Rodear el río, lleva al caminante-investigador por pasajes hermosos de la matemática y su aplicación en las redes neuronales artificiales, lo somete a pruebas más intensas en cuanto a su estudio, pero se llega a un mismo punto luego de un largo tiempo. Si el proceso de cruzar el río, se debe realizar a menudo, la comodidad del puente es inevitablemente superior. Podemos afirmar con seguridad que la extensión de las RNA para parametrización de otros modelos no lineales, arrojará resultados parecidos en cuanto a la dificultad en la concepción de la arquitectura de la red, mayor intensidad computacional y lentitud de aprendizaje. Pretender utilizar las redes neuronales artificiales para un paradigma distinto para el que fueron hechas puede traer estos problemas. En general, las RNA funcionan muy bien como cajas negras con un contenido casi desconocido. Después de que aprenden con ciertos patrones de entrada a devolvernos unas salidas casi iguales a ciertos patrones de salida, lo importante es que lo hagan así por el resto de su aplicación. La efectividad de la aplicación se mide por la efectividad en el

funcionamiento de la red ya entrenada, no tanto por lo que se demore en aprender. En el caso de esta aplicación ocurre lo contrario. Primero debemos conocer cada una de las conexiones neuronales de la red para darles un significado matemático, y segundo, la efectividad del método se mide en el mismo proceso de aprendizaje, el que sea eficiente en su funcionamiento depende de que la cámara no cambie sus parámetros, especialmente su posición en el espacio. La característica de reorganización de una red neuronal, que tanta utilidad ha brindado hasta la actualidad en la ingeniería, tiene como precio la anarquía conceptual de una caja negra, que cuando se abre nos presenta una cantidad de conexiones, literalmente, muy enredadas. [KOSKO 99] 9. Referencias Bibliográficas [AHMED 99(1)] Ahmed Moumen, Hemayed ElSayed E. and Farag Aly A. “Neurocalibration: A Neural Network That Can Tell Camera Calibration Parameters” IEEE Trans. Patt. Anal. And Machine Intell. 1999 [AHMED 99(2)] Ahmed Moumen, Hemayed ElSayed E. and Farag Aly A. “A neural approach for single and multiimagen camera calibration”. IEEE Trans. Patt. Anal. And Machine Intell. 1999 [AHMED 01] Ahmed, M. Farag, A.; “Locked, unlocked and semi-locked network weights for four different camera calibration problems”. Proceedings. IJCNN '01. International Joint Conference on Neural Networks. Volume: 4 Pages:2826 - 2831. 2001 [AYACHE 99]. Ayache N. “Artificial Vision for Mobile Robots”. MIT Press, Cambridge, MA. 1999 [AZAR 99] Azar A., Musé P. Calibración monocular de cámaras. Instituto de Ingeniería Eléctrica, Facultad de Ingeniería. Universidad de la República. Uruguay. 1999 [BALLARD 92] H. Ballard, C. M. Vision” Prentice Hall Inc., 1992

Brown, “Computer

[BERTHOUZE 96] Berthouz L.; Chavand F.; Barret C.; “A camera neural model”. Systems, Man, and Cybernetics, 1996., IEEE International Conference on Pages:2124 - 2126, Volume: 3. 14-17 Oct. 1996 [CHAUMETTE 89] Chaumette F.; Rives P. “Realisation et calibration d’un systeme experimental de vision compose d’une camera mobile embarquee sur un robotmanipulateur” Rapports de Recherche. No. 994. Programme 6. INRIA. 1989


105 [CICHOCKI 94] A.Cichocki and R.Unbehauen, “Simplified neural networks for solving linear least squares and total least squares problems in real time,” IEEE Trans. Neural Networks, Vol.5, No.6, pp.910-923, 1994. [CHOI 94] D. Choi, S. Oh, H. Chang and K. Kim, “Nonlinear camera calibration using neural networks," Neural, parallel and scientific computations, Vol. 2, No. 1, March 1994. [DO 99] Do Yongtae. “Application of neural networks for stereo-camera calibration” IJCNN '99. International Joint Conference on Neural Networks Volume: 4. Pages:2719 – 2722. 10-16 July 1999 [DO 00] Do Y. “Application of Neural Networks for Stereo-Camera Calibration” School of Computer and Communication Engineering, Korea

[LYNCH 91] Lynch M. Dagli C. “Backpropagation neural net-work for stereoscopic vision calibration," Proc. SPIE. Int. Soc. Opt. Eng., Vol. 1615, Nov. 1991. [MARTÍN 02] Martín del Brío B. Sanz A. “Redes Neuronales y Sistemas Difusos 2ª edición ampliada y actualizada”. ALFAOMEGA Grupo Editor, S.A. 2002 [MITCHELL 96] M. Mitchell, An Introduction to Genetic Algorithms. Cambridge, MA: MIT Press, 1996. [MOUSAVI 94] Mousavi M.S. Schalkoff R.J. “ANN implementation of stereo vision using a multi-layer feedback architecture” Systems, Man and Cybernetics, IEEE Transactions on , Volume: 24 Pages:1220 – 1238, Issue: 8. 1994

[FAUGERAS 93] Faugeras O. Three-dimensional computer vision: a geometric viewpoint," MIT Press, 1993.

[ROBERT 94] L.Robert, "Camera Calibration without Feature Extraction," Rapport de recherche Nº 2204, INRIA, 1994.

[GONZALEZ 90] González R.C. y Lee C.S.G., “Robótica”, Mc Graw Hill. 1990

[TOU 81] T. Tou, R. C. González, “Pattern Recognition Principles”, Addison-Wesley.1981

[GONZALEZ 93] C. González, P.E. Woods, “Digital Image Processing” Third Edition. Addison-Wesley, 1993

[TSAI 86] RY.Tsai, "An efficient and accurate camera calibration technique for 3d machine vision, " Conference on Computer Vision and Pattern Recognition, pp. 364-374, Miami Beach, USA, June 1986.

[GROSSMAN 87] Grossman S. “Álgebra lineal. Segunda Edición.” Grupo Editorial Iberoamérica 1987 [HALL 82] Hall E.;. Tio J.; McPherson C. and . Sadjadi F., “Measuring curved surfaces for robot vision,” Computer Journal, vol. December, pp. 42–54. 1982. [HORN 86] Horn B. “Robot Vision” MIT Press, 1986 [HORAUD 95] Horaud R.,Monga O. Vison par ordinateur Outils Fondamentaux. Hermes. 2a. edición.1995 [JI 01] Ji Q. Zhang Y. “Camera Calibration with Genetic Algorithms”. IEEE Transactions On Systems, Man, And Cybernetics—Part A: Systems And Humans, Vol. 31, No. 2, March 2001

[WEI 89] Wei Q. He Z. and Ma S. D. “Camera calibration by vanishing point and cross ratio,” in International Conference on Acoustics, Speech and Signal Processing, vol. 3.4, pp. 1630–3. 1989. [WEN 91] J.Wen and G.Schweitzer, "Hybrid calibration of CCD cameras using artificial neural nets," Int. Joint Conf. Neural Networks, pp.337-342, 1991. [WENG 92] Weng J., Cohen P. and Herniou M. “Camera calibration with distortion models and accuracy evaluation,” IEEE Trans. Pattern Anal. Machine Intell., vol. 10, pp. 965–980, 1992.

[JUN 99] Jun J. Kim C. TENCON 99. Proceedings of the IEEE Region 10 Conference , Volume: 1 , 15-17 Sept. 1999 Pages:694 - 697 vol.1

[ZHANG 99] Zhang, Z. A Flexible New Technique for Camera Calibration. Microsoft Research, Technical Report MSR-TR-98-71 December 2, 1998 (last updated on March 25, 1999). http://research.microsoft.com/˜zhang

[KOSKO 99] Kosko B. “El futuro borroso o el cielo en un chip” Editorial Crítica. 1999

[ZHOU 92] Zhou Y. Chellappa R. “Artificial neural networks for computer vision", Springer-Verlag, 1992.

[LENZ 88] Lenz R.K. Tsai RY.. “Techniques for calibration of the scale factor and image center for high accuracy 3D machine vision metrology” IEEE Transaction on PAMI. Vol. 10. No. 5. September. 1988. [LUO 01] Luo A. Pang A. “A Variable Precision Hybrid Camera Calibration Method” Computer Science Department University of California. 2001. www.cse.ucsc.edu/~alison/Publications/camera.pdf


INVESTIGACIÓN DE OPERACIONES, FACTOR CLAVE EN EL MEJORAMIENTO DE LA GESTIÓN LOGÍSTICA Por: Jairo Arboleda Zúñiga46 Resumen Este artículo presenta algunas herramientas y técnicas de Investigación de Operaciones utilizadas en la optimización de la cadena de suministros (CS), así como algunos casos prácticos donde se aplican estas técnicas. En la mayoría de organizaciones de los países desarrollados se reconoce como una de las mejores prácticas para fidelización de los clientes, la optimización de la cadena de suministros, pero ellos también saben que diariamente es más difícil tomar decisiones debido a cambios del entorno organizacional, pronósticos de la demanda y requerimientos de los clientes; Lo anterior ha llevado a considerar la investigación de Operaciones como un factor clave para la mejora de competitividad, sincronización del sistema logístico y generación de valor agregado. Todo indica que los nuevos modelos matemáticos, más oportunos, mas detallados y más precisos son la herramienta de apoyo a las decisiones del futuro y precisamente es aquí donde entra en juego el sistema educativo colombiano ya que la reestructuración de los programas académicos relacionados con Investigación de Operaciones (I O.) es un paso que se debe dar para que nuestra sociedad pueda asimilar su valor agregado. El convencimiento del sector productivo y de servicios del valor aportado por estas técnicas será otro paso, ambos deben darse en paralelo para que este proceso tenga éxito en nuestro país. 46

Ingeniero Industrial. Especialista en Administración de Empresas y Administración Pública, Diplomado en Logistic System Management. 20 años de experiencia laboral en empresas multinacionales, consultor y asesor empresarial en las áreas de Gestión de Calidad y Logística. Docente del Programa de Ingeniería Industrial de la USC. Grupo LOMA.

Palabras Claves: Investigación de Operaciones, Simulación de sistemas, Lógica difusa, Administración de la cadena de suministros (SCM), Valor agregado, Administración del riesgo empresarial – ERM, Transporte multimodal, Centro de distribución, Modelo 3C, Administración del inventario por el proveedor – VMI, Sistema de planeación de la distribución en planta –SLP. Abstract This article presents some techniques and tools of Operations Research for optimizing the supply chain (SC) and shows cases where these techniques are applicated. Many organizations in developments countries acknowledge that the best way to fidelity the customers is through optimizing the supply chain but they know that every day is more hard to take decisions due to changes on organizational environmental , forecastings and customer requirements. Because of above Operations Research is considered key to better the competitive, logistic systems synchronization and to get aggregated value, it suggests that the new mathematics models , more timely , more accurate are the new tools for supporting to take decisions in the near future and exactly here is where intermediate the Colombian educative system through the academics programs restructuration referied to Operations Research as a step to reach the agreggated value. At the same time our productive and services organizations must be convinced of value supplied for these tools and techniques to become success on this process in our country . . Keywords: Operations Research, Simulation of systems , Diffuse Logic, Supply Chain Management (SCM), Aggregated value, Enterprises Rysk Management (ERM), Multimanners Transportation , Center of Distribution , 3C Model , Vendor Management Inventory (VMI) , System Layout Planning (SLP) ,


107 Introducción El nivel de complejidad actual y futuro de los sistemas productivos, de servicios, la utilización de conceptos nuevos como colaboración y/o integración de la cadena de suministros, mercados en línea, precios dinámicos, sistemas EDI, están relacionados de alguna manera con procesos matemáticos que pueden ser modelados para una toma de decisión óptima . Existen diversas técnicas de Investigación de Operaciones que ayudan a estudiar los problemas que se presentan en la función Logística y permiten disponer de bases sólidas para la toma de decisiones en las organizaciones, entre ellas: Programación Lineal, Método del Transporte, Programación de Objetivos Múltiples, Programación Dinámica, Simulación e Inteligencia Artificial. Las preguntas de fondo son: ¿Se escapa nuestro país a la anterior situación? ¿Son las técnicas analíticas de Investigación de Operaciones (IO) inductoras para generar valor agregado? Y por tanto su ausencia se traduce en falta de competitividad?, ¿Será que la carencia de la práctica de IO es un costo social importante? Se puede afirmar, sin temor a equivocación que las técnicas de IO son utilizadas intensamente como apoyo a los procesos de toma de decisiones en los países desarrollados y hacen parte de su cultura tecnológica, prueba de ello son los testimonios que permanentemente se publican en revistas técnicas como INFORMS (Institute for Operations Research and the Management Sciencies) y The Wall Street Journal. A continuación se describen algunas metodologías y herramientas de Investigación de Operaciones aplicadas actualmente en la Gestión Logística:

1. Investigación de Operaciones en la Gestión de Inventarios Entre los modelos de colaboración existen técnicas especificas de reabastecimiento, por ejemplo, la de respuesta rápida y al interior de éstas se encuentra el sistema VMI (Vendor Management Inventory), se trata de un modelo con estrategia tipo Push, en el cual el manejo del inventario de los puntos de venta corre por cuenta del proveedor. Esto significa que el proveedor monitorea los niveles de stock de cada uno de sus compradores, por medio de mensajes electrónicos o físicamente tomando decisiones periódicas de reabastecimiento ( ver figura 1). El VMI trata de mitigar un poco el efecto de la variabilidad de la demanda, cambiando la frecuencia de las órdenes para suavizar los picos y valles que ésta presenta, reduciendo la inversión en el inventario y posibilitando un mejor utilización de los recursos, ya sea para producción ó transporte.

Figura No. 1. Sistema de inventario de reabastecimiento opcional En cuanto al servicio el VMI le permite al proveedor balancear las necesidades de todos sus aliados, de tal forma que puede asegurar que las más críticas tendrán la mayor atención, priorizando las entregas al cliente de manera efectiva y así también le hace posible al proveedor mejorar su proceso de transporte. Sin embargo, estos modelos necesitan gran colaboración entre las partes, así como plataformas comunes de información; es decir, los sistemas de cada una de las empresas deben ser compatibles y estar concertadas para la transferencia de información y en ocasiones se debe compartir


108 información confidencial y es por ello que no se ha logrado un buen desarrollo de este modelo.

Uno de los modelos que ha tratado de integrar los principios Pull, originado en la teoría de manufactura integrada, la cual fue popular a comienzos de los años 90, es el modelo 3C; su nombre se refiere a los tres principios en los que se basa : Capacidad, Colaboración y Consumo ( Ver figura 2 )

El objetivo de este modelo es que todos los materiales que sean necesarios para las operaciones en los diferentes eslabones en la cadena de suministros (CS) deben de estar disponibles todo el tiempo. El modelo 3C satisface ese objetivo, manteniendo una baja inversión en inventario y una alta satisfacción del cliente, desde el punto de vista de disponibilidad del producto (fill rate). En el 3C los eslabones de una cadena de suministros son entendidos en términos de punto de consumo (POC) los cuales tienen la gran función de garantizar la disponibilidad de los productos que son necesitados por uno ó mas procesos de la cadena; se clasifican en tres categorías: puntos de stock (POS), puntos de orden (POO) y puntos de demanda ó consumo (POC).

Fijación de la capacidad de la cadena: determinación del volumen que va a fluir mediante los POC ( capacidad total de la cadena de suministros) Definición de la regla de control de flujo a través de la cadena: definición del elemento de control del flujo entre un POC y otro POC, dado por el consumo en el primero. La optimización de la cadena: minimización de la inversión de materiales a través de la cadena de suministros, explotando la colaboración.

A diferencia de los sistemas basados en MRP (Material Requirements Planning), el modelo 3C no es una actividad cíclica de planeación, una vez que la cadena de suministros ha sido definida, el negocio está preparado para una operación eficiente y de alto nivel de servicio. Los modelos puramente “Push” dejan a la luz muchos interrogantes sobre su efectividad cuando el pronóstico posee un error importante y así mismo cuando la demanda es altamente variable por su incremento en el stock de seguridad del sistema necesario para amortiguar dicha incertidumbre. A pesar de que la política “Pull” requiere de fuentes de abastecimientos continuas para su funcionamiento, estos modelos demuestran que es posible planear y lograr mejores resultados bajo estos esquemas partiendo de las restricciones naturales de la cadena y dejando que sean ellas quienes actúen como agentes reguladores del flujo del material 2. Técnicas de Simulación para modelar Sistemas Logísticos

Figura No. 2. Sistema de inventario, Modelo 3C El diseño de una cadena desde el punto de vista del 3C, considera 4 fases: •

Caracterización de la cadena: definición de todos los puntos de consumo, stock y de orden

Una técnica que ha ganado un importante espacio en procesos de soporte a las decisiones logísticas es la simulación de eventos discretos, llamada simulación discreta ó simplemente simulación. Se trata de una técnica especializada para modelar sistemas que cambian a lo largo de tiempo, representados a través de un conjunto de variables de estado (como inventarios, tamaños de colas, operación de equipos) que describen la situación del sistema en


109 cualquier momento del tiempo y que cambian (instantáneamente) en puntos discretos del tiempo por eventos que alteran su operación (como la ocurrencia de una falla ó la llegada de ordenes de producción). La simulación es una herramienta especialmente útil para modelar sistemas en los que la congestión, cuellos de botella, en operaciones, sumado a la alta dinámica y variabilidad en sus parámetros (como demandas, paradas, tamaños y tipos de pedidos) son críticos en el problema. Estos sistemas se encuentran en gran variedad de situaciones y operaciones tales como: -

Planificación de inventarios Diseño de centros de distribución Planeación de la distribución Identificación de cuellos de botella Líneas de manufactura Sistemas de control de producción Líneas de ensamble Adquisición de equipos ó recursos Sistemas de atención al publico Tomas de pedidos Rediseño de proceso

Algunas guías útiles al momento de desarrollar un análisis basado en simulación discreta son: -

Definir los objetivos claramente y su alcance Conocer aspectos metodológicos y de ingeniería Definir la estructura del modelo antes de comenzar a modelarlo Validar y verificar Simplificar e iniciar con un modelo sencillo Modelar la variabilidad de manera razonable Establecer medidas de desempeño adecuadas (indicadores) Construir un modelo base Tener en cuenta que los resultados en simulación, son estimaciones, no verdades absolutas Definir escenarios de mayor impacto

2.1 Simulación en el Análisis y Diseño de un Centro de Distribución. El diseño de plantas, como disciplina integradora de los diferentes campos de la ingeniería, se ha validado en el método científico como guía para la ejecución de proyectos de producción industrial y servicios. La evolución de las ciencias computacionales ha dado origen a nuevas estrategias y herramientas para apoyar el desarrollo de dicho método. Es importante enfatizar que ésta no es una herramienta prescriptiva, ya que, aunque permite al usuario introducir y evaluar varios diseños ó distribuciones, no genera estas facilidades por si misma. La simulación se usa, luego de tener un diseño preliminar razonablemente bueno, para detectar como algunos aspectos dinámicos y probabilísticos del problema afectan el rendimiento del diseño, con respecto a las medidas operacionales seleccionadas. Las metodologías desarrolladas mediante la simulación de sistemas para el diseño de centros de distribución están soportadas en la metodología Systematic Layout Planning (SLP) de Richard Muther , para la programación y visualización del modelo a estudiar se puede llevar a cabo con la herramienta computacional SIMUL8, donde inicialmente se desarrolla un modelo esquemático del sistema y posteriormente se incorporan los elementos requeridos para los efectos esperados; es decir, información, herramientas internas del software, diseño grafico deseado entre otras. ( Ver figura 3 ) La planificación de las instalaciones de un Centro de Distribución (Cendi.), según Richard Muther se lleva a cabo en cuatro fases: -

Localización del área donde ejecutará el proyecto Distribución general ó de conjunto

se


110 -

Plan detallado de distribución Instalación

En esta fase se deben hacer las siguientes consideraciones: -

Análisis de los productos inherentes al proceso Determinación de las cantidades de la operación Estudio de la ruta ó secuencia de operación Determinación de los servicios necesarios

Una vez definidas las características técnicas y de gestión para el nuevo centro de distribución (Cendi), se plantea el escenario para el caso estudiado. En consecuencia se desarrollará un modelo de simulación que pretende obtener en primera instancia, una idea de la operatividad del nuevo sistema, así como de sus factores claves.

La metodología presentada es de alta aceptación y aplicabilidad (utilizada en varias empresas nacionales entre las que se destaca Familia-Sancela para planificar las instalaciones de su nuevo Centro Nacional de Distribución – CND) ya que integra varios tópicos de suma importancia en la Logística actual: Distribución de Planta, Simulación de Sistemas, Logística de Centros de Distribución y Evaluación de Proyectos; además, representa un referente de metodología integral para la planeación de nuevos proyectos industriales que enfrenta la ingeniería colombiana, gremio que debe consolidarse como un actor dinámico en la dirección y desarrollo de nuestro país.

Para apoyar el análisis y modelamiento del nuevo sistema se deben establecer ciertos aspectos que hagan factible definir claramente el modelo: -

-

-

Definir claramente la procedencia de las entradas al sistema Especificar la cantidad de ítems a almacenar, la distinción del producto en categorías ABC y los inventarios de seguridad Caracterizar las salidas del sistema, según política de almacenamiento e inventarios Determinar los datos básicos sobre operación de los equipos de manejo y almacenamiento de materiales Definir el tipo de despachos a realizar, como las unidades de carga completas y(o mercancía suelta despachada desde el área de Picking Determinar la capacidad de los vehículos para cada tipo de despacho Realizar una programación para la operación del sistema.

Figura No. 3. Modelo en SIMUL8 para la operación de un Centro de Distribución 2.2 Aplicaciones de Simulación Logística con PROMODEL°.

en

La animación, por una parte y la inmensa capacidad de procesamiento de los equipos de computación actuales, unidas a la facilidad de uso de los programas de hoy, permiten el análisis y mejoramiento de sistemas complejos como los logísticos, que se pueden ir modelando con el paso a paso de la complejidad, agregando y mezclando uno a uno los distintos subsistemas. Promodel° es un software de simulación animada, especial para modelar procesos productivos y logísticos, con ayudas que permiten incluir la


111 variabilidad, siempre presente en los sistemas productivos, en los materiales, en los procesos y en los recursos. Promodel°, forma abreviada de Production Modeler, es un software de simulación animada diseñado especialmente para hacer aplicaciones en producción y en logística. El ambiente Windows y la facilidad de recursos gráficos (Ver figura 4). Además de su concepción por parte de expertos en simulación y programación, permite al inclusión de distribuciones estadísticas conocidas en los tiempos de llegada de los materiales, en los tiempos de operación y de parada de las máquinas y los operarios, haciendo de este programa una herramienta poderosa para el análisis de fácil uso.

importando los gráficos desde un software más especializado, por ejemplo el Autocad. Una vez se haya construido el layout, de acuerdo con las especificaciones de los planos, el mismo programa provee una variada colección de librerías gráficas con máquinas y equipos de uso común en las empresas manufactureras ó de operación logística, que se pueden distribuir convenientemente. (Ver figura 6) La herramienta provee también ayuda para registrar y calcular automáticamente la distancia entre ellas.

Entre las aplicaciones más frecuentes que se pueden hacer en los sistemas logísticos utilizando la simulación con Promodel°, están: o

o

o

o

o

o

Mejoramiento del layout , con el objeto de reducir las distancias a recorrer por operarios y materiales Simulación de operaciones de recolección ó picking de instalaciones de almacenamiento Simulación de la operación de muelles de intercambio rápido ó Cross-docking, en los cuales se logran economías de escala en su asignación y transporte hacia múltiples destinos nacionales y en el exterior Escogencia de buenas alternativas entre un conjunto de posibles rutas que deben seguir los vehículos de distribución Simular los flujos de materiales, personas y transporte en las operaciones de cargue/descargue ( Ver figura 5 ) Simulación de los flujos de información que se producen en el manejo de las órdenes ó pedidos ( call-centers) Simular la totalidad de flujos de información, transporte y control de la operación a lo largo de la cadena de abastecimientos.

La simulación hace posible reducir a escala los planos de la planta, mediante las herramientas gráficas del programa ó

Figura No. 4. Promodel° bajo ambiente Windows (Programa disponible en USC)

Figura No. 5. Simulación de operación cargue/descargue con Promodel°


112 En el campo de la Logística, las aplicaciones de simulación con Promodel° son muy variadas y solo tiene como limite la imaginación del usuario. La facilidad de uso y el costo relativamente bajo de este tipo de software, brinda a los empresarios y a los estudiosos una oportunidad interesante de mejorar sus sistemas logísticos, sin necesidad de grandes inversiones de capital y en tiempo.

el pronóstico de la demanda de viajes, soportado por una interfase de usuario consistente. Además esta plataforma informática permite simular desde un simple esquema hasta el más refinado de los modelos de demanda y su integración con los procedimientos de equilibrio multímodal, mediante el uso directo de funciones de demanda con las asignaciones viales y de transporte. Este software posee 50 módulos, divididos en 6 grupos: Utilidades/Editor de redes/Editor de matrices/Editor de funciones/ Procedimiento de asignación-ejecución/ Resultados y ha servido de soporte en la planificación de la red de transporte en la cadena de abastecimientos así como en la planificación de los proyectos de transporte masivo en las grandes ciudades del país. 4. Lógica difusa en el Análisis de Canales de Distribución

Figura No. 6. Distribución de máquinas, operarios y equipos con Promodel° 3. Planificación y Programación del Trasporte Multimodal No existen en el mercado muchos programas comerciales de modelación de la demanda de transporte , sin embargo en nuestro medio, específicamente entre los sistemas de información geográfica especializados en transporte disponibles, uno de los preferidos por los planificadores es el modelo EMME/2, un sistema gráfico interactivo para la planeación multimodal del transporte, avalado por el Banco Mundial y que ofrece un completo y comprensible grupo de herramientas para la modelación de la demanda y análisis multimodal de redes y para la implementación de procedimientos de evaluación. El EMME/2 posee un banco de datos estructurado para describir, analizar y comparar diferentes escenarios, proporciona un espacio de trabajo para la implementación de una gran variedad de procedimientos para

Uno de los aspectos de mayor influencia en el éxito comercial de toda empresa son los canales de distribución. Mediante ellos fluye la satisfacción y fidelidad del cliente, la participación en el mercado de la compañía, las utilidades, el grado de rotación de los inventarios; la imagen de la organización, y la marca. Las Mipymes carecen de estudios en estas áreas que les permita mejorar su competitividad y participación en el mercado. Existen diversas técnicas de Investigación de Operaciones que ayudan a estudiar este tipo de problemas, entre ellas se distinguen la Inteligencia Artificial y dentro de esta técnica encontramos la Lógica Difusa, que es empleada a la par con la programación Multi.objetivos como una excelente opción para la toma de decisiones orientadas a la distribución de los artículos de cada empresa. Ésta se amolda a la carencia de información precisa y al enfoque subjetivo de gran parte de las Mipymes haciendo posible tomar decisiones racionales y matemáticamente soportadas. El programa informático Fuzzy Eleccion V1.0, incorpora las técnicas anteriores para el análisis de situaciones reales que involucran


113 múltiples restricciones y objetivos. Mediante este programa se modelan algunas de las alternativas propuestas, con base en la información suministrada por los empresarios. Existen 3 categorías en estos estudios: La contextualización de la problemática; el planteamiento de la necesidad de estructurar mejor los canales de distribución y la presentación de los resultados de algunas aplicaciones elaboradas con el programa Fuzzy-Eleccion V1.0. Este programa es una herramienta que posibilita evaluar una alternativa, teniendo en cuenta la vaguedad e incertidumbres propias del lenguaje humano, mediante el uso de metodologías implementadas partiendo del estado del arte de la Lógica Difusa, aplicada a la administración y a los negocios; no obstante, su campo de acción puede extenderse a todas las ramas de la ingeniería, de la vida diaria y en general de todos aquellos ámbitos en los que las ciencias de decisión puedan ser empleadas.

ventajas comparativas de la localización de los diferentes eslabones de la cadena, sino que es determinado por la vulnerabilidad (probabilidad de falla) de los enlaces físicos entre los diferentes elementos.

5. Minimización de los Riesgos Financieros en la Administración de las Cadenas de Suministros

Las etapas del ERM son las convencionales de un proceso racional de toma de decisiones; inicialmente se deben conocer los riesgos, posteriormente se deben determinar planes que nos protejan de situaciones definitivamente no deseables (defensiva); simultáneamente, se deben explorar las posibilidades de tomar ventajas de los riesgos (ofensiva) y finalmente se debe cerrar el ciclo, supervisando el resultado de la decisión.

La globalización de la cadena de suministros amplia posibilidades de acción al administrador de la cadena, pero también aumenta los riesgos, ya que los flujos financieros pueden verse seriamente afectados por variables económicas como las tasa de cambio monetaria, cuya variabilidad es el reflejo de la estabilidad económica de los regiones involucradas. En nuestro medio, con ambientes socialmente inestables los riesgos son mayores y por tanto se requieren de mejores herramientas para manejarlos, los riesgos operacionales pasan a tomar una posición predominante. Por ejemplo, la ruptura de un enlace de transferencia de productos entre regiones puede poner a un proveedor ó a un consumidor en una posición privilegiada, Ante esta situación, el diseño optimo de la red de abastecimientos no solo depende de las

El nuevo ambiente de manejo de riesgos ha hecho popular la sigla ERM (Enterprises Risk Management), que es un enfoque riguroso para cuantificar y administrar los riesgos de todas las fuentes que amenazan el logro de los objetivos estratégicos de una organización; además ERM identifica aquellos riesgos que corresponden a oportunidades que permiten explotar ventajas competitivas. Bajo este concepto se integra todo el conjunto de metodologías matemáticas y de procesos funcionales que se requieren para manejar integralmente los riesgos que enfrenta una organización, que en definitiva se manifiestan a través del riesgo financiero.

La integración de la planificación de la cadena de suministros con la planificación financiera y la demanda ha generado una nueva familia de modelos de optimización que contemplan, simultáneamente las operaciones industriales y la suma de los riesgos financieros incluyendo los operacionales. Los modelos determinísticos, utilizados en el pasado para describir y optimizar las cadenas de suministros han servido como punto de partida para desarrollar nuevos modelos que optimicen la toma de decisiones en ambientes de


114 incertidumbre, como los que actualmente deben enfrentar nuestras organizaciones. Lo anterior implica, en el corto plazo, un doble reto para las organizaciones que no han incluido dentro de su cultura de toma de decisiones el uso de modelos matemáticos de planificación y programación de cadenas de suministro (Advanced Planning and Scheduling – APS) por un lado, deberán incorporar en sus procesos de toma de decisiones, los APS convencionales (modelos determinísticos) y simultáneamente deberán desarrollar una capacidad analítica para medir y controlar los riesgos, de tal forma que incluyan en los APS su posición con respecto al riesgo. La combinación de todos los riesgos hace que las herramientas tradicionales, orientadas a la solución de casos sencillos, no sean eficientes para enfrentar problemas cuya complejidad aumenta con la globalización de los mercados. Bibliografía BALLOU, R. H, Logística, administración de la cadena de suministro, 5ª. Edición, Prentice Hall, 2004 BANKS, J. Handbook of simulation, principles, methodology, advances, applications and practice, John Willey and sons. 2000 BLANCHARD, B, Logistics engineering and management, 4ª. Edición, Prentice hall,1992 BLANCO, L., FAJARDO , I. Simulación con promodel: casos de producción y logística. Editorial Escuela Colombiana de Ingeniería, 2003 BOWERSOX, D., CLOSS, D. Supply chain management. 2002 CHASE R., AQUILANO J., NICHOLAS I., Administración de la producción y de las operaciones. Mc Graw Hill, 8ª. Edición. 2002 GARCIA, A., Inventarios , Editorial Cantú . 5ª. Edición HARRELL,E. Promodel, Users Guide, Mc Graw Hill. 2002 LAW, A. KELTON,D. Simulation modeling analysis. Mc.Graw Hill, 2001 MEYER,F. STEPHENS, M. Manufacturing facilities design and material handling. 2a. Edición. Prentice hall, 2000 MUTHER, R. Systematic layout planning . Industrial education Institute, 1968 OEA.-ICETEX-CUAO., Curso internacional logistica , competitividad latinoamericana ,Octubre 2000 SHAPIRO, J.F., Optimizing the value chain, 1998

STERMAN,J,D. Learning in and about complex systems. System Dynamics review. Vol. 10 , 1994 VALDIVIA E., Logística en las organizaciones modernas. Icesi – Andi , Enero de 1998 ZONA LOGISTICA., Revista de logística de la comunidad andina de naciones . Revistas No. 8, 10, 15,17,19, 24, 25.


LA INGENIERÍA HUMANA. ASPECTOS EPISTEMOLÓGICOS. Por: Raúl Alberto García Delgado47 Resumen Este artículo describe el desarrollo de la ergonomía a través del tiempo, ventajas y aplicaciones. El ser humano llegó a estandarizar los métodos de trabajo con base a los ensayos y errores en el quehacer diario; fue así, como alimentó el concepto de ergonomía y desde entonces se empezó a estudiar e investigar la forma de ejecutar las tareas asignadas, obteniendo un ambiente apropiado para adaptarse a los procesos productivos. Es lógico, que una intervención ergonómica considera la optimización integral de sistemas hombres-máquinas, los que estarán siempre compuestos por uno o más seres humanos cumpliendo una tarea cualquiera con ayuda de una o más máquinas y por tanto es necesario adaptar el proceso de trabajo al hombre. Palabras Claves: Antropometría; Optimización Integral de Sistemas HombresMáquinas; Ambiente al Hombre; Proceso de Producción; Seguridad; Eficiencia; Comodidad; Bienestar. Abstract This article describes the development of ergonomics through time, its advantages and applications. Human beings arrived at the standardization of work methods based on trial and errors in their daily routine; it was thus that they started the concept of ergonomics and begun to study and research ways to perform assigned tasks, obtaining an appropriate environment to adapt it to productive processes. It is logical that an ergonomic intervention considers the integral optimization of man-machine systems, which will always be composed of one or more human beings performing a given task with 47

Ingeniero Industrial, MBA, Docente-Investigador de la Universidad Santiago de Cali.

the help of one or more machines. Therefore, it is necessary to adapt the work process to the human being. Keywords: Anthropometrics; Integral Optimization of Man-Machine systems; Environment to Man; Production Process; Safety; Efficiency; Comfort; Well-being. Introducción. Desde los comienzos de la revolución industrial, el hombre ha experimentado la mejor forma de hacer las tareas cotidianas en el lugar de trabajo teniendo en cuenta la comodidad, la simplificación de las tareas y la eficiencia en la manipulación de sus herramientas; todo esto con la finalidad de encontrar una mejor precisión, alcance, movilidad y con un mínimo esfuerzo realizar movimientos sin que se afecte ninguna de las partes de su cuerpo en el momento de desarrollar una determinada labor. El ser humano llegó a estandarizar los métodos de trabajo con base a los ensayos y errores en el quehacer diario; fue así, como alimentó el concepto de ergonomía y desde entonces se empezó a estudiar e investigar la forma de ejecutar las tareas asignadas, obteniendo un ambiente apropiado para adaptarse a los procesos productivos. Es lógico, que una intervención ergonómica considera la optimización integral de sistemas hombres-máquinas, los que estarán siempre compuestos por uno o más seres humanos cumpliendo una tarea cualquiera con ayuda de una o más máquinas y por tanto es necesario adaptar el proceso de trabajo al hombre. Definición de Ergonomía.48 Según Maurice de Montmollin, describen algunos aspectos en relación con la definición

48

Introducción a la ergonomía. Maurice de Montmollin. Ed. Limusa. México D.F. 1996.


116 de ergonomía, dependiendo el área a la cual vaya a ser aplicada: Aspecto técnico:” Es una tecnología de las comunicaciones entre el hombre y las máquinas que consiste en dar señales y obtener respuestas a dichas señales de entrada. Las comunicaciones entre el hombre y la máquina definen el trabajo”. Es decir, el aspecto técnico nos permite hacer estudios en el lugar de trabajo con el fin de mejorar la relación y/o el sistema hombremáquina. Aspecto laboral: “Es la disciplina que tiene como meta primordial la de medir las capacidades del hombre y ajustar el ambiente para ellas”. La ergonomía intenta ajustar el trabajo al hombre, pero no ajustar al hombre al trabajo. Aspecto metodológico:” Es un conjunto de estudios e investigaciones sobre la organización metódica del trabajo y el acondicionamiento del equipo en función de las posibilidades del hombre”. En otras palabras, considerar las capacidades físicas y mentales del hombre y conjugarlas mediante estudios previos a la actividad que desarrolla en su entorno laboral. Antecedentes. La palabra ergonomía fue tomada a partir de los términos griegos ergón: trabajo y nomos: leyes naturales. Algo desagradable como son las guerras, irónicamente han motivado al hombre para desarrollar ciencia, técnicas y tecnologías. El hombre por alcanzar el poder argumenta cualquier actividad productiva y por eso surge el interés por mejorar la relación existente entre el hombre y su vínculo con el ambiente laboral. El estudio de la ergonomía tiene sus comienzos a partir de la primera guerra mundial. En las fabricas de armas y municiones del comienzo del siglo XX se presentaban todo tipo de riesgos y accidentes de trabajo; estos hechos motivaron para que en 1915 se creara el Health of Munitions

Workers Committee (HMWC, Comité de Salud de Operarios de Municiones), que incluía a algunos investigadores con entrenamiento en fisiología y psicología, con el fin de llevar a cabo investigaciones acerca de los problemas de fatiga presentados en el trabajador. En 1929 este comité tomó el nombre de Industrial Health Research Board (IHRB, Junta Investigadora de salud), cuyo principal objetivo era abarcar la investigación de las condiciones generales del empleo industrial, particularmente en lo concerniente a la preservación de la salud entre los trabajadores y la eficiencia industrial. Dicha organización contaba con investigadores entrenados como psicólogos, fisiólogos, médicos e ingenieros y que trabajaban separados o juntos, en los problemas que incluían una gran área que era nueva y se requería aprender de ella tales como: la postura, movimiento y transporte de cargas, el físico de los trabajadores, tiempo de descanso, inspección, iluminación, calefacción, ventilación, música ambiental mientras se trabaja, la selección y el entrenamiento. Seguidamente vino la Segunda Guerra Mundial, la industria militar se interesó por fortalecer y optimizar los procesos de producción, los cuales se hacía más complejo y el ritmo de operación muy exigente en cortos plazos, presentándose mayores riesgos; como resultado de esto, hizo que los hombres fracasaran en obtener lo mejor de su equipo o sufrieran un desgaste físico y bajo rendimiento operacional. Basados en la experiencia obtenidas en la industria militar, las empresas manufactureras se interesaron por saber y conocer mucho más a cerca del desempeño humano en sus capacidades y limitaciones. Naturalmente, esto hizo que se diseñaran extensos programas de investigación, en áreas muy diversas. Es así, como surge la nueva


117 disciplina llamada ergonomía49, dando respuesta a las necesidades sentidas en relación con la seguridad, el bienestar del trabajador y la aplicación de métodos eficientes. Objetivo de la Ergonomía. El ser humano es el factor mas importante en toda activad empresarial, por tal razón se debe investigar su comportamiento, productividad y bienestar ya sea como parte de un equipo de trabajo o individualmente, esto con el fin de mejorar su calidad de vida; en cualquiera que sea el caso, la ergonomía tiene como objetivo de incrementar la calidad de vida del trabajador; garantizándole la seguridad, el bienestar y la eficiencia en el quehacer diario.

de su cuerpo (antropometría), que tanto puede levantar de peso, presiones físicas que puede soportar, etc. La fisiológica estudia el funcionamiento del cerebro y del sistema nervioso como determinantes de la conducta, mientras que los psicólogos experimentales intentan entender las formas básicas en que el individuo usa su cuerpo para captar, aprender, recordar, aprender y controlar los procesos; finalmente, la física y la ingeniería proporcionan información similar acerca de la máquina y el ambiente en donde el operario tiene que enfrentarse.

Es claro que la ergonómica no se limita solamente a identificar los factores de riesgo y las molestias que pueda sentir el ser humano, también, evalúa y plantea soluciones apropiadas que se adaptan al ritmo del trabajo efectivo de los operarios, y de la viabilidad económica en cualquier puesto de trabajo. El trabajador no se concibe como un objeto a proteger sino como una persona que adquiere responsabilidad y compromiso según con las exigencias del medio.

Los anteriores conceptos permiten aclarar y puntualizar que la ergonomía busca aumentar la seguridad y el bienestar del trabajador, lo cual debería dar como resultado la reducción de tiempo y movimientos innecesarios, además, evita que el operario adquiera alguna enfermedad profesional y que se presente un incremento en la producción como resultado a la eficiencia. El estudio de la ergonomía busca que el operario no solo sea rápido y eficiente, sino también confiable. En resumen, la labor de la ergonomía es primero determinar las capacidades del operario y después intentar construir un sistema de trabajo en el que se basen estas capacidades y en este aspecto, se estima que la ergonomía es la ciencia que ajusta el ambiente al hombre50

Alcances de la Ergonomía.

Ciencias afines con la Ergonomía.

Cuando se elabora un estudio en el puesto de trabajo, se deben combinar varias ciencias en relación con la ergonomía, por ejemplo: (1) fisiología, anatomía y medicina en una rama, (2) fisiología y psicología experimental en otra y (3) física e ingeniería en una tercera. Las ciencias biológicas proporcionan la información acerca de la capacidades y limitaciones físicas del operario, dimensiones

La investigación de operaciones, el estudio del trabajo y el estudio de tiempos y movimientos, son ciencias que están más relacionadas con el bienestar y la productividad del hombre. Quizás la ergonomía y estas ciencias tienen los mismos objetivos pero son marcadas las diferencias entre dichas disciplinas. Por ejemplo: En un proceso de producción, el estudio de tiempos y movimientos hace énfasis en el desempeño del trabajador en relación con el puesto de trabajo, esto con el fin de estandarizar los método de trabajo, la

49

. Ergonomía en Acción. David J. Oborne. Ed Trillas 1990

50

. Ergonomía. Enciclopedia Microsoft Encarta 2004


118 medición y la minimización del tiempo y movimientos; pero a la vez, estas mejoras implica un bienestar al trabajador y seguridad en las operaciones que va ha realizar; cumpliendo así, unos de los tantos objetivos que tiene la ergonomía. Es importante resaltar que los estudios que se realizan para estandarizar tiempos y movimientos, tiene como objetivo mejorar el proceso en si, pero esto no quiere decir que se llego al óptimo, porque siempre habrá un método más óptimo. Es decir, desde el mismo momento en que se implemente la mejora al proceso, este ya dejo de ser óptimo y pasa para posteriores estudios. Paras realizar estudios en el puesto de trabajo se pueden integrar varias ciencias en donde los ergonomitas deben considerarlas; en general podemos considerar las siguientes: a) Antropometría. La antropometría es una de las áreas que fundamentan la ergonomía, y trata con las medidas del cuerpo humano, es decir, se refieren al tamaño del cuerpo, formas, fuerza y capacidad del trabajador; por ejemplo: peso, estatura, y en general la estructura del cuerpo. En la ergonomía, los datos antropométricos son utilizados para diseñar los espacios de trabajo, herramientas, equipo de seguridad y protección personal, considerando las diferencias entre las características, capacidades y límites físicos del cuerpo humano. Sin embargo, las diferencias entre las proporciones y dimensiones de los seres humanos no permitieron encontrar un modelo preciso para describir el tamaño y proporciones de los humanos. Los estudios antropométricos que se han realizado se refieren a una población específica, como lo puede ser hombres o mujeres, y en diferentes rangos de edad. b) Ergonomía Biomecánica. La biomecánica es el área de la ergonomía que se dedica al estudio del cuerpo humano desde el punto de vista de la mecánica clásica y la biología, pero también se basa en el conjunto de

conocimientos de la medicina del trabajo, la fisiología, la antropometría. y la antropología. Su objetivo principal es el estudio del cuerpo con el fin de obtener un rendimiento máximo, resolver algún tipo de discapacidad, o diseñar tareas y actividades para que la mayoría de las personas puedan realizarlas sin riesgo de sufrir daños o lesiones. Algunos de los problemas en los que la biomecánica ha intensificado su investigación han sido el movimiento manual de cargas, y los micros traumatismos repetitivos o trastornos por traumas acumulados. Una de las áreas donde es importante la participación de los especialistas en biomecánica es en la evaluación y rediseño de tareas y puestos de trabajo para personas que han sufrido lesiones o han presentado problemas por micortraumatismos repetitivos, ya que una persona que ha estado incapacitada por este tipo de problemas no debe de regresar al mismo puesto de trabajo sin haber realizado una evaluación y las modificaciones pertinentes, pues es muy probable que el daño que sufrió sea irreversible y se resentirá en poco tiempo. De la misma forma, es conveniente evaluar la tarea y el puesto donde se presentó la lesión, ya que en caso de que otra persona lo ocupe existe una alta posibilidad de que sufra el mismo daño después de transcurrir un tiempo en la actividad. c) Ergonomía Ambiental. La ergonomía ambiental es el área de la ergonomía que se encarga del estudio de las condiciones físicas que rodean al ser humano y que influyen en su desempeño al realizar diversas actividades, tales como el ambiente térmico, nivel de ruido, nivel de iluminación y vibraciones. La aplicación de los conocimientos de la ergonomía ambiental ayuda al diseño y evaluación de puestos y estaciones de trabajo, con el fin de incrementar el desempeño, seguridad y confort de quienes laboran en ellos. d) Ergonomía Cognitiva. Los ergonomistas del área cognoscitiva tratan con temas tales como el proceso de recepción de señales e


119 información, la habilidad para procesarla y actuar con base en la información obtenida, conocimientos y experiencia previa. La interacción entre el humano y las máquinas o los sistemas depende de un intercambio de información en ambas direcciones entre el operador y el sistema ya que el operador controla las acciones del sistema o de la máquina por medio de la información que introduce y las acciones que realiza sobre este, pero también es necesario considerar que el sistema alimenta de cierta información al usuario por medio de señales, para indicar el estado del proceso o las condiciones del sistema. El estudio de los problemas de recepción e interpretación de señales adquirieron importancia durante la Segunda Guerra Mundial, por ser la época en que se desarrollaron equipos más complejos comparados con los conocidos hasta el momento. Esta área de la ergonomía tiene gran aplicación en el diseño y evaluación de software, tableros de control, y material didáctico. e) Ergonomía de Diseño y Evaluación. Los ergonomistas del área de diseño y evaluación deben participar durante el diseño y la evaluación de equipos, sistemas y espacios de trabajo; sus aportes están relacionados con datos obtenidos en mediciones antropométricas, evaluaciones biomecánicas, características sociológicas y costumbres de la población a la que está dirigida el diseño. Al diseñar o evaluar un lugar de trabajo, es importante considerar que una persona puede requerir de utilizar más de una estación de trabajo para realizar su actividad, de igual forma, varias persona puede utilizar un mismo espacio de trabajo en diferentes períodos de tiempo, por lo que es necesario tener en cuenta las diferencias entre los operarios en cuanto a su contextura, distancias de alcance, fuerza y capacidad visual, para que todos ellos puedan efectuar su trabajo en forma segura y eficiente.

El ser humano puede cubrir las deficiencias del equipo, pero esto requiere de tiempo, atención e ingenio, con lo que disminuye su eficiencia y productividad, además de que pueden presentasen lesiones físicas o algún otro tipo de problema, después de un período de tiempo de estar supliendo dichas deficiencias. En forma general, podemos decir que el desempeño del trabajador es mejor cuando se le libera de elementos distractores que compiten por su atención con la tarea principal, ya que cuando se requiere dedicar parte del esfuerzo mental o físico para manejar los distractores ambientales, hay menos energía disponible para el trabajo productivo. f) Ergonomía de Necesidades Específicas. El área de la ergonomía de necesidades específicas se enfoca principalmente al diseño y desarrollo de equipo para personas que presentan alguna discapacidad física, para la población infantil y escolar, y el diseño de micro ambientes autónomos. La diferencia que presentan estos grupos específicos radica principalmente en que sus miembros no pueden tratarse en forma "general", ya que las características y condiciones para cada uno son diferentes, o son diseños que se hacen para una situación única y un usuario específico. g) Ergonomía Preventiva. La Ergonomía Preventiva es el área de la ergonomía que trabaja en íntima relación con las disciplinas encargadas de la seguridad e higiene en las áreas de trabajo. Dentro de sus principales actividades se encuentra el estudio y análisis de las condiciones de seguridad, salud y confort laboral. Los especialistas en el área de ergonomía preventiva también colaboran con las otras especialidades de la ergonomía en el análisis de las tareas, como es el caso de la biomecánica y fisiología para la evaluación del esfuerzo y la fatiga muscular, determinación del tiempo de trabajo y descanso, etcétera. El estudio del puesto de trabajo evolucionó a partir del estudio de


120 tiempos y movimientos, haciendo hincapié en los métodos de trabajo y en menor grado en la derivación de los estándares de tiempo. Se puede decir, que el estudio del puesto de trabajo ofrece una semejanza con la ergonomía, pues ambos consideran al hombre en su ambiente laboral, ambos analizan los procesos y procedimientos para optimizar el desempeño, y ambos a su vez estandarizan los métodos y procedimientos, además, de tener en cuenta el bienestar del trabajador; no obstante es importante resaltar que el estudio del puesto de trabajo, ausculta los métodos y procedimientos con pocas observaciones hacia el operario, ya que el lugar de trabajo debe ser diseñado para el común de las personas considerando algunas aptitudes para el desempeño. Se podría decir que en cualquier puesto de trabajo, “La salud es el bienestar físico, psíquico y social de las personas” 51. Sistema Hombre - Máquina. El propósito de la tecnología industrial es de garantizar la seguridad, la eficiencia y la comodidad del trabajador, para que esto suceda se debe integrar las exigencias de la máquina con las capacidades del operario. Si el hombre se adapta a los requerimientos de su máquina, se establecerá una relación entre ambos, de tal manera que la máquina dará información al hombre por medio de su aparato sensorial, el cual puede responder de alguna manera, tal vez si se altera el estado de la máquina mediante sus diversos controles; el hombre podrá corregirlos gracias a sus sentidos. De esta forma, la información pasará de la máquina al hombre y otra vez de éste a la máquina, en un circuito cerrado de información-control. Cabe destacar que el común de las maquinas no vienen ajustadas a las características del hombre.

51

. Sociedad de Ergonomistas de México A.C. http:// www.semac.org.mx

Costos y Recompensas de la Ergonomía. Es muy relativo hablar de costos ergonómicos; los estudios e investigaciones para el diseño de un puesto de trabajo se vuelven complejos. El autor Alphonse Chapanis (1917-2002) considerado como el padre de la ergonomía, señala que es muy difícil planear una ecuación costo-beneficio completa, puesto que son muchos los factores a considerar y algunos de ellos son intangibles que intervienen en la evaluación de un sistema hombre - maquina. En este punto resulta pertinente considerar los costos ergonómicos cuando se someten a algún análisis de costo-beneficio (estudios de tiempos y movimientos, métodos, diseño del puesto de trabajo etc.). La tecnología y su adopción a través de los procesos industriales es costosa, y el tratar de adoptarla tal y como funciona en otras culturas nos lleva al problema de invertir en capacitación e implementación para proveerse de los mecanismos que permitirán obtener beneficios económicos. La introducción de nuevas tecnologías tiene en las personas y en la empresa algunos impactos buscados, deseados y otros que no lo son. El empresario que adelanta una investigación en un sistema diseñado de acuerdo con los principios ergonómicos, debe justificar el costo en relación con los beneficios. El costo-beneficio incluye costos de equipo, mantenimiento, implementación, operación, equipo auxiliar y herramientas, selección del personal, entrenamiento, salarios, accidentes, errores y sociales Muchos de estos costos pueden expresarse en términos monetarios tangibles, sin embargo otros (por ejemplo, el costo de la contaminación, de la selección, de accidentes, etc.) son menos cuantificables. Invertir en estudios ergonómicos, se hacen contribuciones importantes para incrementar la eficacia y la productividad de un sistema de producción..


121 Conclusiones.  La ergonomía se ocupa del diseño de las condiciones y medio ambiente del trabajo, de acuerdo a las características del ser humano.  El propósito de utilizar la ergonomía como una ciencia, permite fortalecer la filosofía del mejoramiento continuo y esto radica principalmente en aprovechar el bienestar, la seguridad y la eficiencia humana para aumentar la productividad empresarial y a la vez minimizar los riesgos en el puesto de trabajo.  La ergonomía es una ciencia que cuenta con bastantes áreas de aplicación como se mencionó anteriormente, y con enfoques distintos, buscando la adaptación del medio. Se observa que la ergonomía no solo puede ser aplicada en aquellos procesos de trabajo dentro de una industria, sino también en cualquier espacio o actividad en nuestros hogares, todo esto con la finalidad de lograr un mejor desempeño y evitar posibles errores.  Con el apoyo de instituciones gubernamentales se han reglamentado ciertas actividades para mejorar las necesidades de los trabajadores y como resultado de esto, la ergonomía ha entrado como un requisito más para ciertas industrias. Referencias Bibliográficas. Introducción a la Ergonomía. Maurice de Montmollin. Ed. Limusa., México D.F. 1996. Ergonomía en Acción. David J. Oborne. Ed. Trillas 1990. Ergonomía. Enciclopedia Microsoft Encarta 2004. Sociedad de Ergonomistas de México A.C. http://www.semac.org.mx


122 PRINCIPIOS Y ELEMENTOS DE SEGURIDAD INFORMÁTICA Edgar Valdés Castro52 Resumen Cada día los aspectos de seguridad son más cercanos a todos los usuarios. Este documento tiene como propósito facilitar a gerentes, auditores y usuarios finales, que no tienen conocimiento sobre una temática tan amplia como es la seguridad informática, los principios y elementos sobre los cuales deben fundamentarse el inicio del camino para obtener este conocimiento fundamental en la cultura de la nueva de la nueva organización. La evaluación sobre las competencias en aspectos de seguridad, ya no es solo de responsabilidad de los técnicos en informática, es claro que la demandas de información y los requerimientos de control como resultado de las constantes amenazas y las latentes vulnerabilidades hacen necesario que esta cultura trascienda de lo técnico a todo el contexto organizacional. Adicionalmente se hace un detalle de los principales activos informáticos que se deben proteger, además de las amenazas y vulnerabilidades comunes en los ambientes informáticos que la Auditoria a la seguridad incluye dentro de sus propósitos y que establece en sus normas. Palabras Claves: Amenaza, vulnerabilidad, integridad, confidencialidad, disponibilidad, seguridad, Mainframe, Hacking Abstrac Every day the security aspects are nearer all the users. This document must like intention facilitate managers, auditors and end users, who do not have thematic knowledge on a as ample one as it is the computer science 52

Magíster Administración de Empresas Universidad del Valle, Especialista en Sistemas de Información Eafit-Icesi. Profesor Facultad de Ingeniaría USC. edgar.valdes00@usc.edu.co

security, the principles and elements on which they must be based to initiate the way to obtain this fundamental knowledge in the culture of the new one of the new organization. The evaluation on the competitions in security aspects, no longer is single of responsibility of the technicians in computer science, is clear that it demands of information and the control requirements as result of the constant threats and the latent vulnerabilities makes necessary that this culture goes beyond the technician to all the organizacional context. Additionally a detail is made of the main computer science assets that are due to protect, in addition to the threats and vulnerabilities common in computer science atmospheres. 1. Introducción Garantizar que los recursos informáticos de una compañía estén disponibles para cumplir sus propósitos, es decir, que no presenten dañas o sean alterados por circunstancias o factores externos, es una definición útil para conocer lo que implica el concepto de seguridad informática. En términos generales, la seguridad puede entenderse como aquellas reglas técnicas y/o actividades destinadas a prevenir, proteger y resguardar lo que es considerado como susceptible de robo, pérdida o daño, ya sea de manera personal, grupal o empresarial. En este sentido, es la información el elemento principal a proteger, resguardar y recuperar dentro de las redes empresariales. La seguridad de la Información es una temática amplia y fascinante, cubre múltiples áreas como la seguridad Física, Seguridad de la Red Informática, Seguridad de la Plataforma de Tecnología, Seguridad de las Aplicaciones entre otras. Cada una de estas áreas tiene sus propios riesgos, amenazas y soluciones. Sin embargo, en la actualidad las discusiones sobre seguridad de la Información son usualmente acerca de hackers, y vulnerabilidades de los sistemas operativos. Aunque son grandes partes del

122


123 concepto de seguridad, son solo dos componentes dentro del gran océano de temas que le componen. Hacking es lo más notorio, porque es lo que aparece en las noticias y en los titulares, el tema de Hacking es llamativo, pero no es lo más importante. Lo verdaderamente determinante se encuentra cuando se estudian todos los factores involucrados en la seguridad global de la empresa. 2. Seguridad Informática No existe una definición única y exacta de seguridad informática; sin embargo, una buena aproximación podría ser que seguridad informática es el conjunto de recursos encaminados a lograr que los activos de una organización, sean accedidos única y exclusivamente por quienes tienen la autorización para hacerlo y que estos sean confidenciales, íntegros y estén disponibles. 2.1 Tendencias En Seguridad En décadas pasadas las compañías llegaron a depender del poder de la computación de los Mainframes, aunque la funcionalidad de los sistemas creció y múltiples aplicaciones fueron desarrolladas, era claro que los usuarios solo disponían de cortos espacios de acceso al Mainframe, lo cual no fue tan productivo como debía ser. El poder de procesamiento y computación se acercó a los usuarios, se capacitaron y se les permitió correr trabajos pequeños desde su equipo de escritorio, mientras lo grandes trabajos se procesaban y aun se continúan procesando en el equipo corporativo. Esta tendencia continua y los Pc han llegado a ser más independientes y autónomos, solo se necesita acceder el Mainframe para funcionalidades especificas. Como los computadores personales han llegado a ser más eficientes, continuamente cubren más tareas y responsabilidades. Se demostró que el acceso de varios usuarios al Mainframe era ineficiente y que el equipo corporativo necesitaba estar disponible a los usuarios para ejecutar sus tareas en forma eficiente y efectiva. Este pensamiento llevó al

nacimiento del modelo cliente servidor. Aun cuando muchos de los computadores personales tienen el poder para computar sus propios cálculos y operaciones, no tiene sentido que cada uno de estos computadores maneje la información que no es compartida por todos los PC. Programas y datos fueron centralizados sobre servidores con computadores personales, accesando al Mainframe solo cuando es necesario. Aquí hay que tener en cuenta que en la estructura de equipos de computación entre los PC y los Mainframes se incluyeron los llamados servidores. Los PC acceden a los Servidores y estos a su vez al equipo Corporativo. Con el acercamiento de la computación y el procesamiento a los usuarios finales, se generalizó su aprendizaje mejorando de esta forma la capacidad de utilización para los usuarios y de otro lado el aprovechamiento de la tecnología para la organización. Sin embargo, llevar la tecnología del dominio de los Mainframe a muchas manos a través de microcomputadores trajo una serie de eventos que nunca se registraron en los días de los Mainframes. Ahora hay millones de personas sin formación ni experiencia en computación que tiene acceso a importantes datos y procesos. Lo grave de la situación es que al no existir una cultura del control Informático, no se diseñaron e implantaron controles para proteger empleados y sistemas de las amenazas latentes en un ambiente organizacional, así datos importantes fueron corrompidos accidentalmente y errores de un sistema afectaron a otros sistemas. . 3. Diferentes Áreas de da Seguridad La seguridad tiene una amplia base que toca áreas diferentes en una organización. Afectando las unas a las otras, la Seguridad Física se considera en la Seguridad de la Información, la Seguridad de Bases de Datos se apoya sobre la seguridad de Sistemas Operativos, la recuperación de desastres tiene que ver con situaciones de emergencia en los sistemas, de Información.

123


124 No hay duda que la computación, las redes, y por lo tanto, las áreas de Seguridad Informática que ya se mencionaron tocan cada fase de la vida moderna. Esta carrera, al parecer sin limites, aumenta con el incremento diario y la dependencia de tecnologías de Información para soportar comunicaciones, transferencia de fondos, administración de empresas de servicios públicos, servicios gubernamentales, acciones militares y mantenimiento confidencial de información. Entonces de manera positiva se usa la tecnología para proporcionar energía, agua, servicios de emergencia, sistemas de defensa, banca electrónica, y servicios de salud pública. Lo negativo es que al mismo tiempo esta tecnología esta siendo usada para robo de números de tarjetas de crédito, uso fraudulento de sistemas telefónicos, transmisión ilegal de secretos de propiedad comercial e intelectual, desconfiguración de sitios Web por razones políticas, interrupción de comunicaciones, divulgación de secretos y estrategias empresariales y mas recientemente, como medio para hacer extorsiones. A todo lo anterior, los expertos en el tema, lo han denominado con el termino ‘guerra de información’, que cubre diferentes actividades que pertenecen a individuos, organizaciones y naciones. Los gobiernos han usado guerra de la información para recoger información táctica por años, Las organizaciones han robado secretos comerciales y planes de nuevos productos de la competencia. Los individuos han usado computadoras para robar dinero, conseguir información financiera de otras personas, robar la identidad personal, desconfigurar sitios Web con ánimo de afectar la imagen de una organización o para llamar la atención sobre una causa particular. 4. Principios Fundamentales de Seguridad Existen muchos objetivos de un programa de seguridad, pero los principales tres principios en todos los programas son confidencialidad, integridad y disponibilidad. Estos son

referidos como la triada CIA. El nivel de seguridad requerido para mejorar estos principios difiere por compañía, porque sus objetivos de seguridad y sus requerimientos pueden ser distintos. Todos los controles de seguridad, mecanismos y salvaguardas son implementados para proporcionar uno o mas de esos principios y los riesgos, amenazas y vulnerabilidades son medidas de su potencial capacidad para lograr uno o todos los principios de la CIA 4.1 Confidencialidad La confidencialidad proporciona la habilidad para asegurar que el necesario nivel de privacidad y de prevención en las revelaciones de información no autorizada se logra en cada función de procesamiento. Este nivel de confidencialidad debe prevalecer mientras los datos residan en el sistema, operen sobre la red, mientras se transmiten y también una vez han llegado a su destino. Los atacantes pueden impedir la efectividad de mecanismos de confidencialidad, por monitoreo de redes, mediante shoulder surfing(Observar sobre el Hombro), robo de archivos de contraseñas e Ingeniería Social. Shoulder Surfing sucede cuando una persona observa por encima del hombro de otra persona y espera obtener claves o datos cuando estos aparecen sobre la pantalla. Ingeniería Social es engañar a otra persona para que comparta información confidencial para luego pasar como un usuario autorizado de esa información. La confidencialidad de la información se ve afectada intencional o accidentalmente, cuando los usuarios revelan información sensitiva; por ejemplo al no encriptarla antes de enviarla; facilitando el botín para un ataque de ingeniería social, o al compartir secretos comerciales de la compañía. Otras amenazas a la confidencialidad se pueden materializar cuando en el procesamiento de información en un sistema de información en producción no se establecen los controles adecuados.

124


125 La confidencialidad puede ser proporcionada por encriptación de datos cuando se almacén o se transmiten, rellenado de trafico de la red, estricto control de acceso, clasificación de datos, y entrenamiento del personal sobre los procedimientos. 4.2 Integridad La Integridad se logra cuando se proporciona la exactitud y confiabilidad de la información y los sistemas, y además la modificación no autorizada de los datos es prevenida. Sin embargo el hardware, el software y los mecanismos de comunicación deben trabajar de manera concertada para mantener y procesar y transmitir datos sin alteraciones. Los sistemas y las redes deben estar protegidos contra las interferencias y la contaminación externas. Los ambientes informáticos que logran y proporcionan este atributo de seguridad aseguran que los ataques o errores por usuarios no comprometen la integridad de los sistemas o de los datos. Cuando un atacante inserta un virus, bomba lógica o puerta trasera dentro de un sistema, compromete su integridad. Esto puede de hecho afectar negativamente la integridad de la información manejada en el sistema por corrupción, modificación maliciosa o reemplazo de datos con datos incorrectos. Estricto control de acceso, detección de intrusos, y encriptación pueden combatir los amenazas que afectan la integridad. Los usuarios normalmente afectan un sistema o la integridad de sus datos por errores involuntarios, aunque también ser responsables de hechos malintencionados. Los usuarios pueden accidentalmente borrar archivos de configuración porque su disco duro está lleno y no recuerdan haber usado un archivo de inicialización (boot.ini) o pueden insertar valores incorrectos por errores en la lógica de una aplicación y terminan cargando a un cliente un valor que no le corresponde. La Modificación incorrecta de los datos de la base de datos es otro de las formas populares de corrupción de datos

hechos por usuarios, que pueden tener efectos adversos duraderos para una organización. 4.3 Disponibilidad Los sistemas y las redes deben proporcionar adecuada capacidad para que puedan ser ejecutados de una manera predecible con un aceptable nivel de ejecución. Debe existir la capacidad para recuperar una interrupción de una manera segura y rápida de tal forma que la productividad no se vea afectada negativamente. Puntos simples de falla deben ser evitados, medidas de backup deben ser establecidas, mecanismos de redundancia deben ser tomados en cuenta cuando sea necesario, y los efectos negativos de los componentes del ambiente deben ser prevenidos. Mecanismos necesarios de protección deben establecerse para proteger contra amenazas internas y externas que puedan afectar la disponibilidad y productividad de la red, los sistemas y la información. La disponibilidad asegura la confiabilidad y oportunidad de acceso a los datos y recursos a los usuarios debidamente autorizados. La disponibilidad del sistema puede ser afectada por fallas en unidades o en el software. Las unidades de backup deben estar listas y disponibles para rápidamente remplazar sistemas críticos, o empleados deben estar capacitados y disponibles para hacer los ajustes necesarios y lograr el sistema de respaldo en línea. Temas de ambiente como ruido, frió, humedad, estática y contaminantes pueden afectar la disponibilidad del sistema. Los sistemas deben ser protegidos de los elementos mencionados anteriormente, con apropiada conexión eléctrica a tierra y monitoreados permanentemente. La negación del servicio, como ataque, es el método popular de los hackers para interrumpir la disponibilidad y productividad el sistema en una organización. Estos ataques son usados para reducir la capacidad de los usuarios para acceder los recursos del

125


126 sistema de Información. Para proteger contra estos ataques, solo los puertos y servicios necesarios deben estar disponibles, y un sistema de detección de intrusos debe monitorear el tráfico de la red y las actividades del Servidort. Un cortafuego seguro, y la configuración del enrutadores pueden reducir la amenaza de ataque por negación del servicio y posiblemente detenerla cuando ya ha ocurrido.

Clase de vulnerabilidad

Vulnerabilidad

Física

Construcción deficiente edificios

Física

Materiales inflamables empleados en la construcción

Física

Materiales inflamables empleados en el acabado

5.1 Vulnerabilidad

Física

Ventanas cerrojo

Una vulnerabilidad es un software o hardware, o debilidad procedimental que puede proporcionar a un atacante una puerta abierta para entrar a un computador o red y tener un no autorizado acceso a los recursos dentro del ambiente informático. Una vulnerabilidad se caracteriza por la ausencia o debilidad de un control que puede ser explotada. Esa vulnerabilidad puede ser un servicio corriendo sobre un servidor, marcación no restringida en un MODEM, un puerto abierto en un corta fuego, seguridad física débil o una inadecuada administración de contraseñas sobre servidores y estaciones de trabajo.

Física

Paredes que se pueden asaltar físicamente

Física

Paredes interiores que no sellan la sala por completo tanto en el techo como en el suelo

Natural

Instalación situada sobre una línea de error

Natural

Instalación situada en una zona de inundaciones

Natural

Instalación situada en área avalanchas

Hardware

Faltan revisiones

Hardware

Firmware obsoleto

Hardware

Sistemas configurados incorrectamente

Hardware

Sistemas proteger físicamente

Hardware

Protocolos de administración permitidos en interfaces públicas

5. Elementos de Seguridad Informática en las Organizaciones

Clase de vulnerabilidad

Vulnerabilidad

Ejemplo

Clase de vulnerabilidad de alto nivel

Breve descripción de la vulnerabilidad

Ejemplo específico (si es aplicable)

Física Física

Física

Física

Puertas cerrojo

sin

Acceso no protegido a las instalaciones informáticas Sistemas contra incendios insuficientes Diseño deficiente de edificios

Ejemplo

de

sin

un de

sin

126


127 Clase de vulnerabilidad

Vulnerabilidad

Ejemplo

Clase de vulnerabilidad

Software

Software antivirus obsoleto

Software

Faltan revisiones

Software

Aplicaciones escritas deficientemente

Secuencias de comandos entre sitios

Software

Aplicaciones escritas deficientemente

Inserción SQL

Software

Aplicaciones escritas deficientemente

Vulnerabilidades de código como desbordamientos de búfer

Software

Vulnerabilidades colocadas deliberadamente

Puertas traseras del proveedor para la administración o la recuperación del sistema

de

Vulnerabilidades colocadas deliberadamente

Programas espía como aplicaciones de captura de teclado

Software

Vulnerabilidades colocadas deliberadamente

Troyanos

Software

Vulnerabilidades colocadas deliberadamente Errores de Creación manual configuración que provoca configuraciones incoherentes

Software

Errores de Sistemas configuración protegidos

no

Software

Errores de Sistemas configuración auditados

no

Software

Errores de Sistemas no configuración supervisados

Medios

Interferencia eléctrica

a

Comunicaciones Sin filtrado entre segmentos de red Humana

Procedimientos definidos deficientemente

Preparación insuficiente para la respuesta a incidencias

Humana

Procedimientos definidos deficientemente

Creación manual

Humana

Procedimientos definidos deficientemente

Planes de recuperación de desastres insuficientes

Humana

Procedimientos definidos deficientemente

Pruebas sistemas producción

Humana

Procedimientos definidos deficientemente

Infracciones no comunicadas

Humana

Procedimientos definidos deficientemente

Control cambios deficiente

en de

de

5.2 Amenaza

Software

Comunicaciones Conexiones varias redes

Ejemplo

Comunicaciones Se permiten protocolos innecesarios

Software

Comunicaciones Protocolos de red sin cifrar

Vulnerabilidad

Una amenaza es cualquier daño potencial sobre la información o sobre los sistemas. Otras definiciones son: • Evento que puede desencadenar un incidente en la organización, produciendo daños materiales o pérdidas inmateriales en sus activos. • Acción o acontecimiento que puede atentar contra la seguridad • Violación potencial de la seguridad del sistema. Las amenazas pueden ser: Amenaza activa. La constituyen una amenaza de un cambio no autorizado y deliberado del estado del sistema. Las amenazas activas suponen, de

127


128 materializarse, la intrusión y posterior interacción con un sistema de información.

Persona malintencionada

Pirata informático

Amenaza pasiva. La amenaza de revelación no autorizada de información sin cambiar el estado del sistema. La amenaza de la confidencialidad de la información que, de materializarse, no cambia el estado del sistema, son por ello más difíciles de detectar que las activas y la recuperación del daño frecuentemente es imposible.

Persona malintencionada

Criminal informático

Persona malintencionada

Espionaje industrial

Persona malintencionada

Espionaje gobierno

Persona malintencionada

Ingeniería social

Amenaza

Persona malintencionada

Empleado actual descontento

Descripción de Ejemplo específico alto nivel de la amenaza

Persona malintencionada

Empleado antiguo descontento

Incidencia catastrófica

Incendio

Persona malintencionada

Terrorista

Incidencia catastrófica

Inundación

Persona malintencionada

Empleado negligente

Incidencia catastrófica

Terremoto

Persona malintencionada

Empleado deshonesto (sobornado o víctima de chantaje)

Incidencia catastrófica

Tormenta intensa

Persona malintencionada

Código móvil malintencionado

Incidencia catastrófica

Ataque terrorista

Incidencia catastrófica

Altercados/disturbios civiles

Incidencia catastrófica

Corrimiento de tierras

Incidencia catastrófica

Avalancha

Incidencia catastrófica

Accidente industrial

Error mecánico

Corte del suministro eléctrico

Error mecánico

Error de hardware

Error mecánico

Interrupción de la red

Error mecánico

Error de los medioambientales

Error mecánico

Accidente de construcción

Persona benigna

Empleado desinformado

Persona benigna

Usuario desinformado

Ejemplo

patrocinado

por

el

5.3 Agente Amenazante

controles

Un agente amenazante puede ser un intruso accediendo a la red a través de un puerto o cortafuegos, un proceso accediendo los datos en una forma que viola las políticas de seguridad o un empleado cometiendo un error no intencional que puede exponer información confidencial o destruir la integridad de los archivos. Agente Amenazante Virus Hackers Usuario Fuego Empleado Contratista Atacante Intruso Empleado

128


129 5.4 Riesgo Un riesgo el la probabilidad de que un agente amenazante tome ventaja de una vulnerabilidad. Un riesgo es la perdida potencial, o probabilidad de que una amenaza pueda explotar un vulnerabilidad. Si un cortafuego tiene varios puertos abiertos, hay un alto riesgo que un intruso pueda usar uno para acceder la red con un método no autorizado. Si los usuarios no están entrenados sobre los procesos y procedimientos, existe una alta probabilidad de que los usuarios puedan cometer errores intencionales o no intencionales que destruyan los datos. Si un sistema de detección de intrusos no está implementado sobre una red, existe un alto riesgo que un atacante pueda pasar inadvertido hasta cuando ya es demasiado tarde. Reduciendo las vulnerabilidades o los agentes amenazantes se reduce el riesgo. RIESGOS Infección por Virus Acceso no autorizado a información confidencial Mal funcionamiento del sistema Daños en insumos para computación y posibles perdidas de vida Perjuicios en información de misión critica Robo de secreto comercial Perdida de unidades Alteración de entradas y salidas

Una contramedida o salvaguarda, mitiga el riesgo potencial. Una contramedida es un software, configuración, hardware o procedimiento que elimina una vulnerabilidad o reduce el riesgo de un agente amenazante de ser capaz de explotar una vulnerabilidad. Una contramedida puede ser una fuerte administración de contraseñas, un guardia de seguridad, mecanismos de control de acceso dentro de un sistema operativo, la implementación de contraseña en el sistema básico input/output (BIOS), y entrenamiento en conocimientos sobre seguridad. Si una compañía tiene software antivirus solo en los servidores y este no es actualizado oportunamente, esto es una vulnerabilidad. La compañía es vulnerable a ataques de virus. La amenaza es un virus latente en el ambiente y el daño causado es el riesgo. Debido a que hay una posibilidad de pérdida o corrupción de datos por el ataque de un virus, la compañía ahora tiene una exposición. La contramedida es la actualización de la licencia y la instalación del software antivirus en todos los computadores. Las relaciones entre riesgos vulnerabilidades y contramedidas se muestran en la figura No. 1

5.5 Exposición Una exposición es la debilidad que presenta un activo y que puede ser explotado por un agente amenazante. Una vulnerabilidad puede causar a una organización estar expuesta a posibles daños. Si la administración de contraseñas es débil y las reglas sobre contraseñas no se cumplen, la compañía puede estar expuesta a la posibilidad de tener contraseñas de usuarios capturadas y usadas de manera no autorizada. Si una compañía no hace examinar su cableado y no tiene prevención contra el fuego, puede estar expuesta potencialmente a ser destruida por el fuego.

Figura No. 1. Relaciones entre las diferentes componentes de seguridad Aplicando la correcta contramedida puede eliminarse la vulnerabilidad y la exposición y reducir el riesgo. La compañía no puede

129


130 eliminar la amenaza, pero puede protegerse por si misma y prevenir que las amenazas exploten vulnerabilidades dentro del ambiente. 5.6Activos Informáticos La explosión de las TI en los últimos tres años ha posibilitado la renovación de la mayor parte de los sistemas informáticos y de comunicaciones de las empresas, para adaptarse a los requerimientos de un mercado más competitivo y a las exigencias dictadas por Internet. Los activos Informáticos son los recursos del sistema de información o relacionados con éste, necesarios para que la organización funcione correctamente y alcance los objetivos propuestos por su dirección. Se pueden estructurar las siguientes categorías: • • • • • • •

ACTIVOS INFORMATICOS TANGIBLES –INFRAESTRUCTURA FISICA ACTIVOS INFORMATICOS TANGIBLES –DATOS EN LA INTRANET ACTIVOS INFORMATICOS TANGIBLES –DATOS DE LA EXTRANET ACTIVOS INFORMATICOS TANGIBLESDATOS DE INTERNET ACTIVOS INFORMATICOS – INTANGIBLES ACTIVOS INFORMATICOS –SERVICIOS DE TI ACTIVOS INFORMATICOS – SERVICIOS DE TI – INFRAESTRUCTURA BASICA

La modernización de estas infraestructuras se ha realizado en demasiadas ocasiones con un cierto descontrol, lo que ha provocado que hoy en día la mayoría de las empresas desconozcan la cantidad, características y estado de sus activos informáticos, situación que propicia un grave y sustancial desaprovechamiento de los mismos. La seguridad Informática propende por que estos activos, dispongan de controles efectivos para evitar que los agentes amenazantes puedan explotar

vulnerabilidades presentar.

que

estos

puedan

5.6.1ACTIVOS INFORMATICOS TANGIBLES –INFRAESTRUCTURA FISICA Nombre del activo Centros de datos Servidores Equipos de escritorio Equipos móviles PDA Teléfonos móviles Software de aplicación de servidor Software de aplicación de usuario final Herramientas de desarrollo Enrutadores Conmutadores de red Equipos de fax PBX Medios extraíbles (por ejemplo, cintas, disquetes, CD-ROM, DVD, discos duros portátiles, dispositivos de almacenamiento PC Card, dispositivos de almacenamiento USB, etc.) Fuentes de alimentación Sistemas de alimentación ininterrumpida Sistemas contra incendios Sistemas de aire acondicionado Sistemas de filtrado de aire Otos sistemas de control medioambiental 5.6.2ACTIVOS INFORMATICOS TANGIBLES – DATOS EN LA INTRANET Nombre del Activo Código fuente Datos recursos humanos Datos financieros Datos de publicidad Contraseñas de empleados Claves de cifrado privadas de empleado Claves de cifrado de sistema informático Tarjetas inteligentes Propiedad intelectual Números de seguridad social de empleados Números de licencia de conducir de empleados Planes estratégicos Informes de crédito al consumo de los clientes Registros médicos de los clientes identificadores biométricos de los empleados Datos de contacto de negocios de empleados Datos de contacto personales de empleados Datos de pedidos Diseño de infraestructura de red Sitios Web internos Datos etnográficos de empleados

130


131 5.6.3ACTIVOS INFORMATICOS TANGIBLES – DATOS DE LA EXTRANET Nombre del Activo Datos de contratos con socios Datos financieros de socios Datos de contacto de socios Aplicación de colaboración con socios Claves de cifrado de socios Informes de crédito de socios Datos de pedidos de socios Datos de contratos con proveedores Datos financieros de proveedores Datos de contacto de proveedores Aplicación de colaboración con proveedores Claves de cifrado de proveedores Informes de crédito de proveedores Datos de pedidos de proveedores 5.6.4ACTIVOS INFORMATICOS TANGIBLESDATOS DE INTERNET Nombre del Activo Aplicación de ventas de sitio Web Datos de publicidad de sitio Web Datos de tarjeta de crédito de clientes Datos de contacto de clientes Claves de cifrado públicas Notas de prensa Notas del producto Documentación de producto Materiales de cursos

5.6.5ACTIVOS INFORMATICOS INTANGIBLES Nombre del Activo Reputación Buena voluntad Moral de empleados Productividad de empleados

5.6.6ACTIVOS INFORMATICOS – SERVICIOS DE TI Correo electrónico/programación (por ejemplo, Microsoft® Exchange) Mensajería instantánea Microsoft Outlook® Web Access (OWA) 5.6.7ACTIVOS INFORMATICOS –SERVICIOS DE TI –INFRAESTRUCTURA BASICA Nombre del Activo Microsoft Active Directory® Sistema de nombres de dominio (DNS) Protocolo de configuración dinámica de host

(DHCP) Herramientas de administración empresarial Uso compartido de archivos Almacenamiento de datos Acceso telefónico remoto Telefonía Acceso a red privada virtual (VPN) Servicio de nombres de Internet de Microsoft Windows® (WINS) Servicios de colaboración (por ejemplo, Microsoft SharePoint™)

6. Auditoria de Seguridad Una auditoria es un examen crítico realizado con el fin de evaluar la fiabilidad, eficacia y eficiencia de un sistema. Es un examen crítico, pero no mecánico, que no implica la preexistencia de fallos y que pretende evaluar y mejorar la fiabilidad y eficacia de la entidad auditada. La función auditora no tiene carácter ejecutivo, ni son vinculantes sus decisiones. Queda a cargo de la empresa tomar las decisiones pertinentes. La auditoria simplemente refleja en su informe final sugerencias y planes de acción para eliminar las disfunciones y debilidades detectadas. El principal reto de los departamentos de TI es asegurar, procesar y administrar de manera efectiva la información que se suministra a los procesos de negocio de la compañía, siendo ésta el activo más importante de cualquier organización. Debe por tanto, asegurarse su protección ante una amplia gama de amenazas, garantizando una información Confidencial, Íntegra y Disponible, y para ello es conveniente proveerse de un servicio externo de auditoria y consultoría de seguridad. 6.1 Auditoria de Seguridad basada en la Norma ISO17799 6.1.1 Definición de las políticas de seguridad. La razón de la Norma ISO/UNE 17799 es contar con un sistema de gestión que permita, partiendo de la base de que la seguridad absoluta no existe, ofrecer a

131


132 empresas y organizaciones, instrumentos para garantizar al máximo posible la seguridad de su información. Una buena definición de las políticas de seguridad es necesaria para disponer de unas líneas de actuación específicas en el marco de la seguridad relativa a las TI en el futuro. 6.1.2 Norma ISO/UNE17799. La información es el recurso más importante de cualquier compañía, por ser el único que no se puede o es muy difícil reemplazarlo. Al mismo tiempo, es el recurso que está sujeto a mayores vulnerabilidades. La seguridad de la información pretende proteger a la información de amenazas, garantizando la continuidad del negocio, así como minimizar los posibles daños y maximizar el rendimiento de las inversiones y las oportunidades de negocio. Es importante subrayar que la seguridad de la información no es sinónimo de seguridad informática. La seguridad de la información efectivamente incluye aspectos técnicos, pero se extiende también al ámbito de la organización.

“debería hacer” para contar con una gestión de la seguridad de la información eficaz. 6.1.6 Estructura para los estándares de seguridad. La estructura de los estándares define lo que se debe hacer para proteger la información y respaldar los requerimientos de la política de seguridad de la información. Las normas ISO-17799 y BS-7799 soportan la misma estructura de estándares así: •

6.1.3 Estructura de la norma ISO17799. Actualmente está únicamente aprobada la primera de las dos partes de la que consta, que hace referencia únicamente a las buenas prácticas en materia de seguridad de los sistemas de información. La segunda parte, que constituye el cuerpo certificador, se basa en el estándar BS7799-2:2002.

6.1.4 Factores críticos de despliegue de las buenas prácticas recogidas en la norma ISO17799. La política de seguridad debe adecuarse a los objetivos de la organización; el enfoque de seguridad de la información debe ser coherente con la cultura de la organización, siendo necesarios el compromiso y el apoyo visible de la dirección. 6.1.5 Ámbito de la norma ISO17799. Actualmente la parte aprobada de la norma es una guía para empresas y organizaciones, cuyo contenido es eminentemente de orientación. Establece lo que la empresa

Política de Seguridad de la Información Seguridad organizacional Infraestructura Acceso externo Outsourcing Clasificación y control de activos Clasificación de la información Responsabilidad de acceso Seguridad del personal Funciones y responsabilidades de la seguridad de la información Capacitación al usuario Respuesta a incidentes Seguridad física y del entorno Áreas protegidas Seguridad del equipo Controles generales Comunicaciones y administración de operaciones Procedimientos operativos y responsabilidades Planeación y aceptación de sistemas Protección contra software malicioso Tareas de reorganización organización y administración de sistemas Administración de redes Manejo de los medios y la seguridad Intercambio de información y software Control de acceso Requerimientos de la empresa Administración de acceso al usuario Responsabilidades del usuario Control de acceso a la red

132


133

Control de acceso al sistema operativo Control de acceso a las aplicaciones Acceso al sistema de monitoreo y su uso Computación móvil y tele trabajo Desarrollo y mantenimientos de los sistemas Requerimientos de seguridad de los sistemas Seguridad de las aplicaciones Controles criptográficos Seguridad de los archivos de sistemas Seguridad en los procesos de desarrollo y soporte Administración de la continuidad de la empresa Sistemas, redes, aplicaciones, personal, instalaciones y comunicaciones Cumplimiento Cumplimiento con los requerimientos jurídicos Cumplimiento de la seguridad e informes de cumplimiento técnico Aspectos de la auditoria de sistemas

Esta lista representa un completo paquete de documentación que las organizaciones deben desarrollar y cumplir si desean proteger su información. Se incluyen áreas más extensas que deben tratar las nueve áreas de estándares listadas. Más de 40 secciones, capítulos o documentos de estándares individuales, que se deben tener en cuenta para su desarrollo, están representados en la lista anterior. La creación de esta cantidad de documentación no es una tarea trivial. Afortunadamente, la tarea inicial mayor de poblar la estructura se debe hacer solamente una vez. Después, la documentación sólo debe cambiarse si se introduce un sistema, red, aplicación, ley o reglamentación nuevos o se cambian. La estructura de los estándares suministrada puede aplicarse a cualquier organización. Algunos elementos de la estructura podrían

no aplicar a su organización y requerirían documentación extensiva.

otros

6.1.7 El estándar BS7799-2:2002. La segunda parte del estándar BS7799 especifica la forma de implementar los controles seleccionados de la norma ISO17799. Está desarrollada siguiendo el ciclo PDCA del modelo Deming, por lo que tiene procesos comunes, presentando una interesante sinergia con la implementación Turnbull de Gestión de Riesgos de Negocio. Por último es importante destacar su gran interrelación con otras normas de gestión como la conocida ISO9001 de Calidad y la ISO 14001 de Medio Ambiente. 6.2 Auditoria de Seguridad del Centro de Cómputo. 6.2.1 Auditoria de las condiciones físicas y ambientales. El objetivo de una Auditoria de Seguridad en un Centro de cómputo es conocer las vulnerabilidades existentes a fin de asegurar la integridad, confidencialidad y disponibilidad de la información. Los Centros de Procesos de Datos constituyen las dependencias en las que se hallan los activos más importantes de las compañías: la información. La auditoria de seguridad del Centro de cómputo permite asegurar que las condiciones ambientales y físicas son las adecuadas para albergar los sistemas que contienen la información y detectar las deficiencias a corregir. La cada vez más difundida idea de Servicio TI como concepto extremo a extremo y la necesaria dependencia de los Procesos de Negocio de estos servicios hace que cada vez más se incremente la percepción de la importancia que adquiere el buen funcionamiento de los Centros de Proceso de Datos como lugares repositorios del principal activo de las compañías: la información. Partiendo de esta visión, se plantean las Auditorias de Seguridad de Centro de cómputo bajo tres enfoques. 6.2.2 Enfoque de la auditoria. Se audita visualmente que el Centro de cómputo

133


134 cumple con los criterios de implementación que definen las buenas prácticas en términos de volumen, disposición y situación. Se auditan mediante dispositivos de medida específicos, y durante un periodo de tiempo definido, diferentes parámetros ambientales y eléctricos, para detectar deficiencias en el servicio ofrecido por el propio Centro de computo. Se audita que el diseño eléctrico cumple con los criterios de alta disponibilidad que definen las buenas prácticas. Es muy importante destacar el hecho de que se auditan los parámetros a lo largo de un periodo continuado de tiempo utilizando dispositivos de medición que almacenan los valores recogidos. 6.2.3 Parámetros auditados. categorizarán tres tipos de medidas:

Se

Energía Eléctrica. Para poder extraer deducciones y proponer mejoras en la infraestructura actual se instalan analizadores de red eléctrica en cada una de las fases de salida de los SAI’s mediante pinzas toroidales pinchadas a cada cable de fuerza R-S-T, Neutro y Tierra, midiendo durante 7 días: o o o o o o o o o o o

Tensión entre fases. Tensión entre fase y neutro (si lo hay). Tensión entre fase y tierra. Sobretensiones. Variaciones de tensión. Amperaje por fase. Potencia por fase. Frecuencia. Variaciones de frecuencia. Harmónicos T. Energía Eléctrica

Para realizar las medidas necesarias referentes a los equipos de climatización, se utilizará un registrador que recogerá la temperatura y la humedad en diferentes puntos durante 7 días. En relación a las condiciones de humedad y temperatura, se trabajan los conceptos de electricidad estática y de diferencia psicométrica.

Inspección ocular. Se realizan inspecciones oculares de todos los equipos de energía, temperatura, seguridad, etc. que hay en el Centro de cómputo, con la intención de poder establecer una relación de deficiencias o propuestas de mejoras. En este caso se auditarán: o

o o o o

Red eléctrica (Revisión de cuadros eléctricos, equipos de protección, cableado, puntos de conexión, puntos de iluminación y luces de emergencia). Situación y estado de las máquinas. Estado del mantenimiento de las máquinas. Detección y extinción de incendios. Conductos y conductos de retorno de ventilación.

Esta parte del análisis es la más importante, dado que se visualiza en la misma el impacto sobre los procesos de negocio que se derivan del uso de tecnologías Auditoria de Seguridad basada en la Norma ISO17799. Definición de las políticas de seguridad 6.2.4 Auditoria de seguridad basada en test de intrusión

de red

Hacking Ético. El objetivo de la penetración exterior es intentar el acceso a la red del cliente de forma no autorizada de la misma manera que podría hacerlo un hipotético hacker desde Internet. A partir del análisis y evaluación de riesgos la empresa conocerá los riesgos que afectan a sus sistemas de información, permitiendo adoptar medidas y técnicas que los prevengan, impidan o controlen. Por otra parte, permitirá auditar el grado de seguridad del sistema y adaptar los mecanismos de control según avancen las técnicas o se descubran nuevos riesgos. Análisis de Penetración. Los tests de intrusión, también conocidos como “Análisis de Penetración” o “Hacking Ético”, son actualmente una práctica habitual para conocer el nivel de seguridad que tiene una organización. Se encargan de evaluar el tipo

134


135 y extensión de las vulnerabilidades de sistemas y redes en términos de confidencialidad e integridad. Comprueban la seguridad de la red y verifican empíricamente la resistencia de las aplicaciones y servicios de usos indebidos. El test de intrusión es una evaluación de la seguridad, en la que el analista trata realmente de comprometer las máquinas o redes objetivo. En el ataque al hardware o al software, el analista puede utilizar material de laboratorio para probar suposiciones y revisar planes de ataque cuando así lo necesite. El proceso es empírico y está sometido a una metodología definida. o o o o o o o

El éxito del ataque El éxito del ataque se consigue al: Ver información secreta. Obtener acceso “de escritura” a un dispositivo no seguro. Evitar un control de autorización. Anular cualquier característica de seguridad. Alterar el funcionamiento normal de algún dispositivo, introduciendo un riesgo en la seguridad.

La metodología utilizada ha sido diseñada de acuerdo con la legislación de protección personal de datos y seguridad de la información. Las pruebas realizadas aportan información sobre aspectos de la privacidad de la información contemplados en la mayoría de las legislaciones. La ejecución de estos tests no supone el cumplimiento de las legislaciones preceptivas pero pueden aportar información sobre aspectos de incumplimiento de éstas. Test de Intrusión Real. Mediante métodos manuales y herramientas propias se intenta acceder a la red interna y a la DMZ sobrepasando las barreras de seguridad, hasta llegar a los puntos vitales. Se explotan las vulnerabilidades existentes con el fin de obtener un análisis veraz y exhaustivo. De ésta forma, se dispondrá de una primera visión de las vulnerabilidades existentes en ella para intentar corregirlas al máximo.

Esta primera aproximación permite comprobar si la red es segura frente a posibles ataques. Como resultado el cliente recibe un informe detallado acerca del estado actual de la seguridad perimetral de la red, es decir: si existe posibilidad de acceso a los servidores de la DMZ o la red interna. Asimismo, se le proporcionará un informe con las soluciones de seguridad a corto y medio plazo, concebidas para eliminar los problemas de seguridad encontrados. Test de Intrusión simulado desde la DMZ. Estando conectados a la DMZ en las instalaciones del cliente, se intenta obtener acceso y privilegios en las máquinas que hay en ella. Test de Intrusión simulado desde la Red Interna. Se comprueba que el nivel de seguridad de la red interna sea el óptimo. Para ello, es necesario estar conectados directamente a ella, de forma que se disponga de la misma visibilidad que tendría un atacante externo que hubiese obtenido acceso gracias a alguna vulnerabilidad. El resultado es un incremento del campo de visión sobre los posibles problemas que pudiesen existir. 7. Conclusiones Son muchas las permanentes inquietudes de los usuarios en las organizaciones, Auditores, Gerentes Operativos, gerentes de proyectos, sobre el tema de la seguridad Informática. Los Auditores en el compromiso de aclarar sobre los aspecto de tecnología informática relacionados, con el fin de planear y ejecutar sus auditorias con programas lo mas ajustados a la realidad de las organizaciones y los gerentes en el afán de disminuir la incertidumbre sobre las potenciales amenazas que pueden aprovechar las debilidades del ambiente y colocar a la organización en estado de exposición. El enfoque de desarrollo organizacional soportando en tecnologías de información apoyadas en Internet, es otra de las grandes

135


136 preocupaciones de los directores, gerentes y usuarios internos y externos de las organizaciones. Estos últimos aun tienen grandes reservas cuando manifiestan La función de control en las organizaciones con las directrices de agremiaciones internacionales que trabajan en el tema, han comenzado a desarrollar estrategias para abordar la evaluación del desarrollo e implantación de estas tecnologías en las organizaciones. Las instituciones que lideran estos avances han generado estándares y metodologías que día a día se están utilizando a través del mundo. Respecto a estándares para resaltar, Cobit constituye actualmente el esfuerzo organizado más importante como lineamiento para el establecimiento de políticas de control y detalla un proceso sobre la seguridad a los Sistemas de Información y Tecnologías relacionadas. De otro lado el desarrollo de una auditoria de seguridad basada la Norma ISO17799 permitirá conocer el nivel de seguridad existente en la información de la compañía, así como tener suficientes elementos para abordar inversiones futuras siguiendo no sólo criterios de capacidad sino de seguridad 8. Bibliografía (1)http://www.symantec.com/region/mx/enterprise security/content/expert/LAM_1179.html#3www. (2) Harris Shon , “Cissp Certification ” McGrawHill (3)abast.es/integrityit/servicios.html (4)http://www.pcnews.com/detalle.asp?sid=&id=11&Ida=1255 (5)http://www.microsoft.com/spain/technet/recurso s/articulos/srappb.mspx (6) www.igalia.com (7)http://www.afina.com.mx/download/docs/iss/Pr esentacion%20ISS.ppt (8)http://www.ccee.edu.uy/ensenian/catcomp/mat erial/SEGURIDAD2.pdf

136


137 DISEÑO Y ELABORACIÓN DE MATERIALES DIDÁCTICOS CON TECNOLOGÍAS INFORMÁTICAS PARA EL CONTROL ESTADÍSTICO DE CALIDAD

Palabras Claves: Control de Calidad, Control Estadístico de Calidad, Calidad Total, Estadística, Nuevas tecnologías de la información y las comunicaciones, Software educativo. Abstract

53

Por: Pedro Joaquín Díaz Plata Luis Alberto Rincón Abril54 Marco Aurelio Tabares Barreto55 Resumen Este artículo presenta una propuesta de investigación para el desarrollo de materiales didácticos con tecnologías informáticas para el Control Estadístico de Calidad. Se busca que estos materiales suplan las exigencias derivadas de las nuevas metodologías del trabajo académico que comprometan al estudiante a asumir progresivamente un papel cada vez más activo para garantizar una buena formación, dejando de ser un receptor pasivo de información. Por eso, se pretende elaborar unos materiales didácticos completos, que no solamente sirvan de apoyo para los cursos de Control de Calidad, sino que puedan ser usados como laboratorios y materiales de autoaprendizaje.

53

Ingeniero Químico, Magíster. en Administración. de Empresas, Docente Investigador del grupo IDEAS, Programa de Ingeniería Industrial de la Facultad de Ingeniería de la Universidad Santiago de Cali. 54

Ingeniero Electricista, Magíster en Ingeniería de Sistemas. Docente Investigador del grupo GIO, Programa de Ingeniería de Sistemas de la Facultad de Ingeniería y Coordinador del Centro de Estudios e Investigaciones de Ingeniería (CEII) de la Universidad Santiago de Cali. 55

Ingeniero Civil. Especialización en Edumática. Docente Investigador del grupo GIO del Centro de Estudios e Investigaciones de Ingeniería (CEII) de la Universidad Santiago de Cali.

This article presents an investigation proposal for the development of didactic materials with computer technologies for the Statistical Control of Quality. It is looked for that these materials replace the derived demands of the new methodologies of the academic work that commit the student to assume a more and more active paper progressively to guarantee a good formation, stopping to be a passive receiver of information. For that reason, it is sought to elaborate some complete didactic materials that serve not only as support for the courses of Control of Quality, but rather they can be used as laboratories and autonomous learning materials. Keywords: Control of Quality, Statistical Control of Quality, Statistic, New technologies of the information and the communications, educational Software. 0 Introducción Este Proyecto de Investigación es una propuesta del Centro de Estudios e Investigación de Ingeniería de la Universidad Santiago de Cali, que desarrollarán los Grupos de estudios e investigación en Investigación de Operaciones (GIO), que hace parte de la línea de investigación de Desarrollo de Software y Bases de Datos, y de Mejoramiento de la Calidad (IDEAS), que hace parte de la línea de investigación Calidad, Productividad y Competitividad. El diseño de materiales didácticos para las diferentes áreas del conocimiento de los programas de Pregrado y Postgrado de Ingeniería de la Universidad Santiago de Cali, resulta ser una muy buena posibilidad de investigación; por cuanto se hace un aporte a la Institución y a los estudiantes y se realiza un procedimiento investigativo que garantiza una

137


138 profundización en determinada temática por parte de los responsables del Proyecto. Además de esto, la elaboración de materiales para el apoyo de los diferentes cursos, debe ser una constante del profesor universitario para garantizar un proceso de enseñanzaaprendizaje eficiente y de alta calidad académica. El área de Control de Calidad utiliza técnicas estadísticas para los controles de un proceso tecnológico de fabricación en serie, tales como: análisis estadístico de recepción de materias primas por muestreo de lotes, estudio de fiabilidad y mantenimiento de un sistema, descripción y análisis de la variabilidad de datos, construcción de modelos de regresión a partir de datos reales, inferencia a partir de datos, construcción de modelos fundamentados en procesos estocásticos, organización y análisis de datos numéricos para resolver problemas con el diseño de experimentos y la toma de decisiones. Estas razones exigen que el área de Control de Calidad de la Facultad de Ingeniería, disponga un conjunto de materiales didácticos sobre la Estadística aplicada al Control de Calidad. Por lo tanto, mediante esta investigación se pretende elaborar unos materiales didácticos completos, que no solamente sirvan de apoyo para los cursos de Control de Calidad, sino que puedan ser usados como laboratorios y materiales de autoaprendizaje. Constará de un libro y un Software de carácter didáctico que permita al estudiante conocer, ampliar, reforzar y profundizar sobre los conceptos teóricos, el análisis de un conjunto de laboratorios virtuales y la consecución de resultados para los problemas prácticos que deba resolver. Igualmente, el grupo investigador espera que los resultados de esta investigación, no solamente sirvan de apoyo a los estudiantes de los programas de Ingeniería de la Universidad Santiago de Cali, sino que trascienda a los programas afines de las demás instituciones de educación superior en Colombia; constituyéndose en un elemento de aporte en el ámbito nacional.

1. El Problema de Investigación 1.1 Descripción Del Problema Inequívocamente se puede asegurar que hoy en día la tecnología de la Informática ha pasado a formar parte de la actual sociedad. Por lo tanto los estudiantes de cursos de Estadística, se ven abocados al uso de paquetes Estadísticos, tales como, SAS, SPPS, STATICS; diseñados con el propósito de que sean utilizados por usuarios de la Estadística, sin que contribuyan formal y metódicamente en la formación donde se debe profundizar para luego aplicar la concepción teórica. Como complemento a este tipo de aplicaciones es necesario diseñar software educativo que aporte a la formación de los alumnos que se fundamentan en el área de Control de Calidad. Además, aunque existen diversos textos que trabajan los temas del Control de Calidad; muchos de ellos no ofrecen una orientación directa hacia la Ingeniería; por el contrario se centran en el trabajo de la aplicación hacia otras disciplinas, convirtiéndolos en textos no apreciados por los estudiantes de Ingeniería. Igualmente, muchos de los textos sobre otras materias que hacen uso del Control Estadístico de Calidad recurren a anexos donde se ilustran los conceptos con ejemplos, pero lamentablemente dejan muchas dudas sobre la utilización de los mismos. Tampoco hay materiales didácticos que hagan uso de las tecnologías informáticas para que los alumnos de las carreras de Ingenierías estudien y profundicen en los diversos temas del Control Estadístico de Calidad; solo existen aplicaciones de Software que como SAS, SPSS o STATICS pueden ser más útiles en el campo de la práctica o uso de la Estadística que en el aprendizaje de las mismas.

138


139 1.2 Formulación del Problema ¿Cómo se deben usar las tecnologías informáticas para el desarrollo de unos materiales didácticos, que le sirvan a los estudiantes de Ingeniería para el estudio y profundización de los temas del Control Estadístico de Calidad? 1.3 Sistematización de la Solución  ¿Cómo se debe diseñar un conjunto de laboratorios virtuales para precisar los conceptos esenciales del Control Estadístico de Calidad?  ¿Cómo se deben diseñar un conjunto de módulos para la consecución de resultados en los problemas prácticos que se deban resolver?  ¿Cómo se deben diseñar un conjunto de módulos para presentar los conceptos teóricos esenciales del Control Estadístico de Calidad?  ¿Cómo deben utilizarse los modelos didácticos, para la elaboración de materiales virtuales?  ¿Cómo se debe utilizar la metodología propuesta en la Ingeniería de Software para la elaboración de un Software didáctico sobre Control Estadístico de Calidad orientado a la Ingeniería?

Realizar un análisis para determinar el uso del Control Estadístico de Calidad en Ingeniería. Elaborar un texto sobre Control Estadístico de Calidad aplicado a la Ingeniería. Elaborar un software didáctico que sirva de Laboratorio para los cursos de Control Estadístico de Calidad en Ingeniería. Elaborar un software didáctico que permita el estudio y profundización de Control Estadístico de Calidad en Ingeniería.

3. Justificación De parte de las Universidades siempre ha existido la preocupación y apoyo para la producción de materiales didácticos que refuercen el trabajo académico de los estudiantes y estimule el “quehacer investigativo” de los profesores. La producción de materiales para el trabajo docente, como resultado de la investigación, siempre será una tarea de responsabilidad de los profesores que generará como resultados, entre otros, los siguientes: •

2 Objetivos 2.1 Objetivo General. Diseño y elaboración de unos materiales didácticos mediante las tecnologías informáticas, que apoyen a los estudiantes de Ingeniería en el estudio y profundización de los temas del Control Estadístico de Calidad. 2.2 Objetivos Específicos. • •

Aplicar una metodología adecuada para la elaboración de documentos didácticos. Aplicar una metodología adecuada para la elaboración de software didáctico.

Especialización y profundización en determinados temas (en este caso el Control Estadístico de Calidad) para los profesores que participan como investigadores. Las nuevas metodologías del trabajo académico exigen la elaboración de materiales que comprometan al estudiante a asumir progresivamente un papel cada vez más activo para garantizar una buena formación, dejando de ser un receptor pasivo de información. Porque para conseguir los objetivos reseñados, será necesario diseñar actividades que aborden no sólo el área cognitiva, sino también las áreas motora y afectiva para trabajar las habilidades y actitudes del estudiante.

139


140 •

Estímulo para que otros profesores se decidan a investigar con el ánimo de generar materiales académicos.

4. Marco Referencial 4.1 Marco Teórico. 4.1.1 Estadística y Probabilidad. Godofredo Achenwall, profesor y economista alemán (1719 a 1772) es considerado por algunos investigadores el fundador de la Estadística. Siendo profesor de la Universidad de Leipzig, escribió un artículo sobre el descubrimiento de una nueva ciencia que llamó Estadística y que definió como “el conocimiento profundo de la situación respectiva y comparativa de cada estado”. Achenwall y sus seguidores estructuraron los métodos estadísticos que se orientaron a investigar, medir y comparar las riquezas de las naciones a partir de los conceptos de inventarios y censos que ya se realizaban desde la antigüedad. Los juegos de azar dieron origen a la teoría de las probabilidades desarrollada por Pascal y Fermat a mediados del siglo XVII. La curva Normal de mucha importancia en el desarrollo de la Estadística fue publicada originalmente en 1733 por De Moivre, quien no supo como aplicar sus resultados a observaciones experimentales. Su escrito permaneció desconocido hasta que Karl Pearson lo encontró en 1924. Sin embargo, al mismo resultado llegaron los astrónomos y matemáticos Laplace (1749 a 1827) y Gauss (1777 a 1855), independientemente el uno del otro. En el siglo XIX, se hizo necesaria una base más sólida para la estadística. Karl Pearson (1857 a 1936) aplicó las matemáticas a la evolución, como resultado del entusiasmo que generó Darwin en la Biología y construyó durante medio siglo una investigación estadística rigurosa, fundó la revista Biometrika y una escuela de estadística. Gosset (1876 a 1937), consideraba insuficientes los desarrollos matemáticos para encontrar distribuciones exactas de la desviación estándar y otros parámetros; sus escritos sobre sus

resultados aparecieron con el seudónimo de Student en la revista Biometrika; Hoy, la distribución t-Student es instrumento fundamental de la estadística. R. A. Fisher (1890 a 1962) recibió influencias de Pearson y de Student e hizo numerosas e importantes contribuciones a la Estadística, entre las que se destaca la teoría sobre la verificación o prueba de hipótesis estadística, presentada en 1936 con J. Neuman. La Estadística es un área de las matemáticas que se ocupa de reunir, organizar y analizar datos numéricos y que ayuda a resolver problemas como el diseño de experimentos y la toma de decisiones. Es un método efectivo para describir, relacionar y analizar los valores de los datos económicos, políticos, sociales, psicológicos, biológicos y físicos. El trabajo del experto estadístico ya no sólo consiste en reunir y tabular los datos, sino en el proceso de interpretación de esa información. Los avances en la teoría de la probabilidad han aumentado el alcance de las aplicaciones de la Estadística. Muchos conjuntos de datos se pueden aproximar con gran exactitud, mediante el uso de determinadas distribuciones probabilísticas y los resultados de éstas se utilizan para analizar los datos. La probabilidad es útil para comprobar la confiabilidad de las inferencias Estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio Estadístico. La Estadística es una Ciencia que facilita la solución de problemas en los cuales se necesitan conocer algunas características sobre el comportamiento de algún suceso o evento. Estas características permiten conocer o mejorar el conocimiento de ese suceso o inferir el comportamiento de sucesos iguales o similares sin que estos ocurran. Con esto, se tiene la posibilidad de tomar decisiones acertadas y a tiempo, así como realizar proyecciones del comportamiento de algún suceso. De acuerdo con esto, la Estadística tiene aplicación en cualquier campo.

140


141 En las aplicaciones prácticas es importante poder describir los rasgos principales de una distribución, es decir, caracterizar los resultados del experimento aleatorio mediante unos parámetros. Llegando así al estudio de las características asociadas a una variable aleatoria introduciendo los conceptos de esperanza y varianza matemática, relacionándolos con los conceptos de media y varianza de una variable estadística. 4.1.2 Control Estadístico de Calidad. De acuerdo con Bounds56, la calidad ha evolucionado a través de cuatro eras: la de inspección (siglo XIX), que se caracterizó por la detección y solución de los problemas generados por la falta de uniformidad del producto; la era del control estadístico del proceso (década de los treinta), enfocada al control de los procesos y la aparición de métodos estadísticos para el mismo fin y para la reducción de los niveles de inspección; la del aseguramiento de la calidad (década de los cincuenta), en la cual se ve la necesidad de involucrar a todos los departamentos de la organización en el diseño, planeación y ejecución de políticas de calidad; y la era de la administración estratégica por la calidad total (década de los noventa), donde se hace hincapié en el mercado y en las necesidades del consumidor, reconociendo el efecto estratégico de la calidad en el proceso de la competitividad.

área de muestreos de aceptación como sustituto a la inspección al 100% del producto obtenido. El control estadístico de procesos de Shewhart se fundamenta en tres postulados que él mismo elaboró, que giran alrededor de la idea de que los sistemas, aún los naturales, no se comportan de acuerdo con un patrón exacto, sino más bien probable, esto es, tienen que ser explicados en términos estadísticos. Dichos postulados son: 1. Las causas que condicionan el funcionamiento de un sistema son variables, por lo cual no sirven para predecir exactamente el futuro. 2. Los sistemas constantes existen únicamente en la naturaleza, no así en el ámbito de la producción industrial, en donde las causas de variación siempre están presentes en la calidad de las materias primas, en los equipos de producción, en los métodos de trabajo, etc. 3. Las causas de variación pueden ser detectadas y eliminadas. Shewhart57 entendía la calidad como un problema de variación que puede ser controlado y prevenido mediante la eliminación a tiempo de las causas que lo provocan, de tal forma que la producción pudiese cumplir con la tolerancia de especificación de su diseño.

Aunque la historia del control de calidad es tan antigua como la industria misma, el inicio del empleo de la estadística para controlar la calidad puede ubicarse en el año de 1924, cuando Walter W. A. Shewhart de Bell Telephone laboratories diseñó una gráfica de estadísticas para controlar las variables de un producto. Más adelante, en esa misma década, H. F. Dodge y H. G. Roming, ambos de Bell Telephone Laboratories, crearon el

En 1950 W. Edwards Deming ofreció una serie de conferencias a ingenieros japoneses sobre métodos estadísticos y sobre la responsabilidad de la calidad a personal gerencial de alto nivel. Joseph. M. Jurán visitó por primera vez Japón en 1954 y contribuyó a destacar la importancia del compromiso gerencial para el logro de la calidad. Valiéndose de estos conceptos, los japoneses fijaron normas de calidad que después se adoptaron en todo el mundo.

56

57

BOUNDS, Greg, Yorks, Lyle, Adams, Mel, Ranney y Gipsie, Beyond Total Quality Management; Toward the Emerging Paradigm, McGraw-Hill, 1994.

SHEWHART, Walter, Economic Control of Quality of Manufactured Product, 50th. Anniversary Commemorative Reissue, ASQ Quality Press, 1980

141


142 Deming58, quien fuera un gran impulsor de las ideas de Shewhart, definía el control de calidad como “la aplicación de principios y técnicas estadísticas en todas las etapas de producción para lograr una manufactura económica con máxima utilidad del producto por parte del usuario”. Hasta la etapa del control estadístico, el enfoque de calidad se había orientado hacia el proceso de manufactura: no existía la idea de la calidad en los servicios de soporte, y menos de la calidad de la calidad en el servicio al consumidor. A comienzos de los años cincuenta Juran59 impulsó el concepto del aseguramiento de la calidad que se fundamenta en que el proceso de manufactura requiere de servicios de soporte de calidad, por lo que se debían coordinar esfuerzos entre las áreas de producción y diseño de producto, ingeniería de proceso, abastecimiento, laboratorio, etc. Juran también trató de manera amplia el tema de los costos asociados a la calidad. Para este autor la calidad consiste en “adecuar las características de un producto al uso que le va a dar el consumidor”. En 1956 Armand Feigenbaum sugirió el concepto de Control total de la calidad, basado en el enfoque total de sistemas. Bajo esta consideración, Feigenbaum60 hizo notar que la calidad no se puede concretar si el proceso de manufactura se trata de controlar en forma aislada. Esta percepción reforzó la idea que ya había sido introducida por Juran acerca de la responsabilidad de la administración y las áreas de servicio en relación con la calidad del producto. De esta forma, se empezaron tanto a analizar como a derivar listas de las actividades de soporte para tener un proceso de manufactura de

calidad. Se comprendió que áreas como finanzas, ventas y mercadeo, compras, etc., anteriormente no asociadas a la responsabilidad por la calidad, en realidad sí lo estaban, ya sea en forma principal o requiriendo de su contribución. Para Feigenbaum era muy importante que las compañías contaran con procesos bien planeados y documentados para: • • • •

De esta forma, Feigenbaum definió el control total de calidad como “un sistema efectivo para la integración de los esfuerzos de desarrollo, mantenimiento y mejoramiento que los diferentes grupos de una organización realizan para poder proporcionar un producto o servicio en los niveles más económicos para la satisfacción de las necesidades del usuario”. Por esta misma época aparecía la confiabilidad como una técnica para asegurar el funcionamiento correcto de un producto durante un determinado tiempo y bajo ciertas condiciones de uso. Relacionado con la confiabilidad aparece el término disponibilidad, que representa la probabilidad de que un producto esté disponible para su uso cuando el usuario lo requiera. Este término tiene relación con las probabilidades de falla y las condiciones de facilidad de manutención para su restablecimiento. Algunas técnicas para mensurar la confiabilidad son: • •

58

DEMING, W. Edwards, Out of the Crisis, MIT Center for Advanced Engineering Studies, 1986. 59 JURAN, J. M. y Gryna, F. M. Análisis y planeación de la calidad, 3ª. ed., McGraww-Hill, México, 1995. 60 FEIGENBAUM, ARMAND V., Total Quality Control, 4a ed., McGraw-Hill, 1990.

El control de diseños nuevos. El control de adquisición de materiales. El control del producto. La realización de estudios especiales del proceso.

El análisis de modo y efecto de falla. El análisis de vida de componentes individuales. El uso de redundancia. El monitoreo de fallas en campo.

En 1960 se formaron los primeros círculos del control de calidad a fin de lograr el mejoramiento de la calidad. Los empleados

142


143 japoneses aprendieron y aplicaron técnicas estadísticas sencillas. Si embargo, sus principios eran realmente algo más profundo, producto de la introducción de las ideas de Deming y Juran. De entre los muchos japoneses que contribuyeron al desarrollo de la teoría de calidad en ese país de destacan Kaoru Ishikawa y Shigeru Mizuno. Para Ishikawa61 el control de calidad consiste en “desarrollar, diseñar, elaborar y mantener un producto de calidad que sea el más económico, el más útil y siempre satisfactorio para el consumidor”. Este autor impulsó la idea de que el mejoramiento de las operaciones de la empresa puede provenir de los propios trabajadores, quienes bien entrenados para trabajar en equipo y mediante el uso de procedimientos y técnicas apropiados para la solución de problemas, podrían contribuir al mejoramiento de la calidad y la productividad. Es así como surgen los círculos de control de calidad, las siete herramientas básicas y una metodología para la solución de problemas que se apoya en estas herramientas usando el ciclo PHVA. Por otro lado, las aportaciones de Mizuno62 y el cocepto kaizen (que significa mejoramiento en todos los aspectos de la vida) de Masaaki Imai63 (1989) se fundamentan en el uso constante y permanente, en todas las actividades de la organización, del ciclo de control que Deming había utilizado para explicar en forma amplia la teoría del control de procesos de Shewhart. Hacia finales de los ochenta y comienzos de los noventa se desarrollaron una gran cantidad de conceptos, técnicas y procedimientos orientados a dar un enfoque estratégico y competitividad de negocios a la 61

ISHIKAWA, Kaoru, What is Total Quality Control: The Japanese Way, Prentice-Hall, 1985. 62 MIZUNO, Shigeru, Company-Wide Total Quality Control, Asian Productivity Organization, 1988. Management for Quality Improvement, Productivity Press, 1988. 63 IMAI, Masaaki, KAIZEN: La clave de la ventaja competitiva japonesa, CECSA, 1989

calidad total. Entre estos se puede mencionar mencionar a la manufactura de clase mundial, el justo-a-tiempo, la función de despliegue de la calidad, el método Taguchi, el benchmarking, la reingeniería de procesos de negocios, los equipos de trabajo autoadministrados, la organización que aprende, la calidad de vida en el trabajo, la calidad en el servicio, la cadena de valor económico agregado al cliente, la dirección estratégica de negocios con base en una visión y una misión fundamentadas en la calidad, las normas ISO 9000 y Seis Sigma. El Control Estadístico de Calidad es una rama del control de la calidad. Consiste en el acopio, análisis e interpretación de datos para su uso en el control de la calidad. Aunque esta investigación centra su atención en el empleo de la estadística en el control de calidad, este método es solo uno de los tantos que sirve para tal propósito. El control estadístico de proceso y el muestreo de aceptación son dos de los más importantes elementos del control estadístico de la calidad. 4.1.3 Las nuevas tecnologías en el proceso de enseñanza aprendizaje. La introducción de las nuevas tecnologías de la Información al proceso educativo no debe tener como objetivo principal enseñar a los alumnos el manejo y uso del computador, sino la utilización que haga de él para mejorar su aprendizaje en cualquiera de las Áreas del conocimiento. Así que debe observarse al computador como una herramienta tecnológica avanzada, capaz de aportar en el quehacer del Profesor, las bases necesarias para la elaboración de nuevas estrategias que aporten en el desarrollo pedagógico propio del Área en que labora. El objetivo de la aplicación de la Tecnología de la Información en la Educación no es conectar a los estudiantes o darles acceso a las herramientas de informática. Tampoco brindarles correo electrónico o página web propia. O brindarles material educativo en línea y herramientas interactivas. Ni lograr que usen el Internet para realizar sus tareas e

143


144 investigaciones. Ni siquiera el desarrollo de competencias laborales e informáticas. El objetivo último es el desarrollo sostenible de los pueblos a través de una economía más competitiva, interrelacionada y dinámica, abierta y lista al cambio, la innovación y la renovación permanente, sustentada por una sociedad más articulada, participativa y abierta, construida por individuos mejor preparados para el trabajo, la colaboración, la participación, la comunicación y el aprendizaje permanente. A través de las TIC se puede dotar a los actores del Sector Educativo de las herramientas, habilidades y el potencial de producir un impacto significativo en el proceso educativo, su propio futuro y nivel de vida y en sus comunidades mismas. El uso de las TIC en la Educación permite formar individuos mejor preparados para el trabajo, la colaboración, la participación, la comunicación y el aprendizaje permanente que construyan una sociedad más articulada, participativa y abierta capaz de sustentar una economía más competitiva, interrelacionada y dinámica, abierta y lista al cambio, la innovación y la renovación permanente y que haga posible el desarrollo sostenible de los pueblos. De manera general el uso de las TIC en la educación permiten: •

Mejorar la calidad de la educación: Por que permite a profesores y estudiantes disponer, dentro y fuera del ámbito escolar, del acceso a recursos educativos y de comunicación entre los actores, para que desarrollen habilidades investigativas, de razonamiento crítico, creativas, comunicativas, colaborativas, participativas y de aprendizaje permanente. El desarrollo de estas habilidades a través del conocimiento y uso adecuado de la Tecnología de la Información dotará a los individuos el poder necesario para transformar sus vidas y mejorar la calidad de la educación y la formación y habilidades de nuestra gente.

Acceso a la Sociedad de la Información: Con infraestructura que garantice el acceso a los jóvenes de todas las clases socioeconómicas a las redes de información, nuevas tecnologías y el desarrollo de habilidades en torno a ellas. Mejorar la gestión de los servicios educativos: Para que se disponga de una Administración más eficiente, efectiva, transparente, informada, evaluada, monitoreada, con retroalimentación de los participantes y conforme a los objetivos educativos y sociales de cada institución educativa.

4.1.4 Desarrollo de Software Educativo. Es el desarrollo de aplicaciones de software que tienen como objetivo facilitar y apoyar la construcción de conocimientos en algún tema, materia o área específica. Por lo tanto, deben cumplir con unas características mínimas en cuanto a su estructura, contenido y presentación, sobre todo dirigido para el nivel educativo al que se pretenda llegar; por ejemplo, el desarrollo de un Software Educativo para reforzar los conceptos sobre los números fraccionarios tiene diferencias cuando se dirige para niños de primaria que para jóvenes de secundaria. Esto implica que se debe tener cuidado con el diseño de los contenidos, la presentación y muy especialmente, se debe poner atención en el modo de interacción que este software tendrá con el usuario final. En el desarrollo de software educativo, deben cumplirse los requisitos básicos de Ingeniería de Software para que el producto terminado sea considerado de calidad. La importancia en la realización de Software Educativo radica precisamente en seguir una Ingeniería de Software bien estructurada, que muestre un plan de trabajo definido, siguiendo los planteamientos didácticos y pedagógicos, que permitan la creación de productos de software de calidad que serán empleados para apoyos didácticos de las áreas de estudio para las cuales sean desarrollados.

144


145 La Ingeniería de Software Educativo, es un área de investigación importante de la inteligencia artificial, debido al uso de algunas técnicas, empleadas para desarrollar software educativo, tales como representación del conocimiento, sistemas expertos, redes neuronales y procesamiento de lenguaje natural. En la metodología para el desarrollo de software educativo, se deben conservar los grandes pasos o etapas de un proceso sistemático para desarrollo de materiales, esto es, análisis, diseño, desarrollo, prueba, ajuste e implementación. Pero debe darse especial énfasis en los siguientes aspectos:  La solidez del análisis, como punto de partida.  El dominio de teorías sobre el aprendizaje y la comunicación humanas, como fundamento para el diseño de los ambientes educativos computarizados.  La evaluación permanente y bajo criterios predefinidos, a lo largo de todas las etapas del proceso, como medio de perfeccionamiento continuo del material.  La documentación adecuada y suficiente de lo que se realiza en cada etapa, como base para el mantenimiento que requerirá el material a lo largo de su vida útil. En general se habla de dos tipos estrategias para el diseño de Software Educativo:  Materiales Algorítmicos. Predomina el aprendizaje por transmisión del conocimiento entre quien sabe y quien lo desea aprender. En este diseño, se planea secuencias de actividades para conducir al estudiante; el rol de alumno es asimilar el máximo de lo que se le transmite.  Materiales Heurísticos. Predomina el aprendizaje por experimentación y descubrimiento. En este diseño, se crean ambientes ricos en situaciones que el alumno debe explorar; para que llegue al conocimiento a partir de la experiencia, creando sus propios

modelos de pensamiento interpretaciones del mundo.

e

Para el desarrollo de estas estrategias se puede recurrir al diseño de:  Sistemas Tutoriales. En estos se pueden usar las fases del aprendizaje. Son muy útiles cuando se necesita alta motivación, retroalimentación inmediata, ritmo propio y control de la secuencia parcial o totalmente, por parte del usuario.  Sistemas de Ejercitación y Práctica. Permiten reforzar los procesos de aplicación y retroalimentación con ejercicios tradicionales.  Sistemas de simulación experimental. Apoyan el aprendizaje por medio de experimentos virtuales para que el estudiante reconozca conceptos sobre una situación real.  Juegos Educativos. Igual que en los simuladores, semejan situaciones, para reforzar el aprendizaje; pero se diferencian porque en la simulación se modelan situaciones, mientras que esto no ocurre en los juegos, en los cuales se diseñan situaciones excitantes o entretenidas.  Micromundos Exploratorios. emplean una programación sintónica, esto es, no hay que aprender, se está sintonizado con sus instrucciones y se emplea para interactuar en un micromundo. A diferencia de los simuladores, exige la solución de problemas y una forma estructurada, que conlleve división de problemas en subproblemas.  Sistemas Expertos. Representan y razonan en algún dominio de conocimientos, para resolver problemas y dar asesoría a quienes no son expertos en algún tema. Pueden tener gran capacidad de desempeño en términos de velocidad, precisión y exactitud, cuentan con una base de conocimientos construida a partir de la experiencia humana. Con la base de conocimientos y

145

M

S


146 con reglas de alto nivel es capaz de hallar o juzgar la solución a algo, explicando o justificando lo que halla o lo que juzga, de modo que es capaz de convencer al usuario de que su razonamiento es correcto. Un sistema Tutorial Inteligente adapta el tratamiento educativo en función de aquello que se desea aprender y de las características y desempeño del alumno. Además de tener los componentes típicos de un sistema experto (base de conocimiento, motor de inferencia, hechos e interfaz con usuario) hay un "modelo de estudiantes" donde se plasman sus conocimientos, habilidades y destrezas y un "modulo de interfaz" capaz de ofrecer distintos tipos de ambiente de aprendizaje a partir de las cuales se puede llegar al conocimiento buscado. 4.1.5 Construcción de sociedades de aprendizaje. “El dominio de una habilidad, destreza o conocimiento por parte de un estudiante, suele estar considerablemente determinado por las técnicas particulares usadas para enseñarle. Lo importante no es que los profesores enseñen sino que los alumnos aprendan. La diferencia entre los métodos tradicionales y los métodos actuales viene dada por el cambio de énfasis en la didáctica, que ha venido pasando de estar centrada en el acto de enseñar a estar centrada en el acto de aprender” 64. Actualmente se aceptan una serie de aspectos del constructivismo aplicados en el aula, que conducen al aprendizaje significativo. En este caso, la enseñanza debe ser:  Inductiva, esto es, que lo descubra el propio alumno.  Gráfica, es decir, que interiorice desde el exterior.

Gutiérrez, A., Area de conocimiento Didáctica de la Matemática. Madrid. Síntesis. 1991 64

 Participativa, para que comunique lo aprendido.  Relacional, para que con lo que ya sabe, pueda avanzar.  Enseñanza, tan activa como sea posible.  Relación de los contenidos de aprendizaje con el entorno.  Interdisciplinariedad.  Importancia del uso del material. El futuro de la enseñanza utilizando el recurso de las nuevas tecnologías, especialmente las que tienen que ver con Internet, puede analizarse en cuatro planos: •

La Universidad, no debe limitarse a las cuatro paredes del aula. Debe abrir sus puertas al mundo y estar en permanente interacción con otras Universidades y con la sociedad. La enseñanza_aprendizaje, debe centrarse en el alumno, no en el profesor. Preferiblemente deberá basarse en proyectos. Tendrá que ser multidisciplinaria e interdisciplinaria. Internet tendrá, para este caso, un papel fundamental. El Alumno, tendrá que asumir progresivamente un papel cada vez más activo para garantizar una buena formación, dejando de ser un receptor pasivo de información. Trabajará en colaboración con otros compañeros. El Profesor, deberá ser un guía del aprendizaje en vez de un transmisor de conocimientos. Podrá igualmente, proponer ideas y problemas para estimular la colaboración y participación de otros colegas y de los alumnos.

5 Metodología 5.1 Análisis y Reconocimiento. 5.1.1 Análisis sobre metodologías didácticas. Se hará una investigación bibliográfica que permita reconocer los diferentes enfoques para la elaboración de materiales didácticos y se consultará con

146


147 profesores expertos en la temática de metodologías didácticas.

problemas de laboratorio que deba manejar el software.

5.1.2 Análisis sobre los temas. Se hará una investigación bibliográfica para profundizar sobre la temática del Control Estadística de Calidad.

5.3. 3 Fase de Codificación. Inicialmente se ha decidido que la elaboración del software debe hacerse en un lenguaje visual, por ejemplo Visual Basic 6.0, por el alto contenido de aspectos de graficación, manejo de tablas, desarrollos matemáticos, modelos de simulación, interfaz amigable y fácil de operar. Es deseable que el Lenguaje a usar tenga incorporado un potente generador de números aleatorios.

5.1.3 Definición de contenidos. Se revisarán los programas de las carreras de Pregrado y Postgrado de la Facultad de Ingeniería de la Universidad Santiago de Cali y de otras Universidades en el ámbito nacional e internacional en lo que respecta directamente al Control Estadístico de Calidad. Se consultará con los profesores del área y con los profesores de otras materias que requieren de esta área. 5.1.4 Diseño de materiales. Se definirá una estructura básica del texto y se diseñarán los laboratorios ajustados a los contenidos del texto. Todo esto se hará de conformidad con los elementos obtenidos de los puntos anteriores. 5.2 Elaboración Del Texto. Se procederá en la elaboración de conformidad con el punto 5.1.4 y progresivamente se someterán los avances al estudio y análisis de otros profesores 5.3 Elaboración del Software. 5.3.1 Fase de Análisis. Se reconocerán los requerimientos del software de conformidad con el diseño de laboratorios en el punto 5.1.4 y se definirán los módulos y las funciones del mismo, de tal manera que resulte totalmente ajustado a las necesidades de los futuros usuarios; esto es, los estudiantes y profesores de los programas de Ingeniería. 5.3.2 Fase de Diseño. Se elaborará un diseño modular conforme a las funciones y módulos definidos a partir del trabajo propuesto en el punto 5.3.1 y se elaborarán los algoritmos correspondientes. Igualmente, se diseñará una base de datos que permita el manejo de los datos en los diferentes

Para cada uno de los módulos se elaborará el código fuente correspondiente, a los cuales se tendrá acceso desde una barra de menú o desde una barra de herramientas.

5.3.4 Fase de Validación y Pruebas. Se recurrirá a la ejecución experimental con un grupo de estudiantes que en el momento estén cursando la materia y de algunos profesores del área respectiva. Los cuales evaluarán la calidad del producto y realizarán las sugerencias de modificaciones necesarias. 5.3.5 Fase de Producción o Implementación. Consistirá en la instalación en las salas de computadores de la Universidad y en la alternativa que la Universidad disponga para que otras instituciones puedan tener acceso al software. 5.3.6 Facilidades de Mantenimiento. Para lograr la facilidad de mantenimiento se elaborarán los siguientes materiales para su posterior reingeniería, si es necesario:   

Documento del diseño del software. Documento de especificaciones. Documento de código fuente documentado.

BIBLIOGRAFÍA. BESTERFIELD Dale H. Control de calidad. Editorial Prentice Hill, México 1994.

147


148 BOUNDS, Greg, Yorks, Lyle, Adams, Mel, Ranney y Gipsie, Beyond Total Quality Management; Toward the Emerging Paradigm, McGraw-Hill, 1994. BROWNLEE K. A., Statistical Theory and Methodology. Segunda edición. Editorial John Willey. 1965. CANAVOS G. C., Probabilidad y Estadística. Editorial Mc Graw Hill. México 2000.

KEEPING E. S., Introduction to Statistical Inference. Editorial Princeton. New Jersey. 1962. KENDALL Kenneth y KENDALL Julie, Análisis y diseño de Sistemas. Editorial Prentice Hall. México. 1995. McCONNELL Steve, Desarrollo y gestión de Proyectos Informáticos. Editorial Mc Graw Hill. Madrid 1996.

CANTÚ Humberto. El desarrollo de una cultura de calidad. Editorial Mc-grawhill, Unam México 1999

MIZUNO, Shigeru, Company-Wide Total Quality Control, Asian Productivity Organization, 1988. Management for Quality Improvement, Productivity Press, 1988.

CERRADA José y COLLADO Manuel, Introducción a la Ingeniería de Software, Universidad Nacional de Educación a distancia de España. Madrid. 1997.

NETER J. y WASSERMANN W., Fundamentos de Estadística para Economía y Administración. Sexta edición. Editorial Allyn and Bacon. Boston 1978.

CHOU Y. L., Análisis Estadístico. Interaméricana. México 1986.

Editorial

PORTUS L., Curso práctico de Estadística. Editorial Mc Graw Hill. Bogotá 1992.

COBO Héctor L., Normas técnicas, Glosario de metodología. Presentación de trabajos escritos. 8a. Edición. Editorial Impretec. Guadalajara de Buga. 1998.

PRESSMAN Roger, Ingeniería de Software, un enfoque práctico. Editorial Mc Graw Hill. Madrid. 1998.

CORNEL Gary, Manual de referencia Visual Basic 6.0. Editorial Osborne Mc Graw Hill. Madrid. 1999. CRAIG John Clark and WEBB Jeff . Microsoft Visual Basic 6.0 Developers Worshop, Microsoft press, editorial Mc Graw Hill, 1999. DEMING, W. Edwards, Out of the Crisis, MIT Center for Advanced Engineering Studies, 1986. DOMÍNGUEZ A., José, Superutilidades Visual Basic. Editorial Mc Graw Hill. Madrid. 1999. FEIGENBAUM, ARMAND V., Total Control, 4a ed., McGraw-Hill, 1990.

Quality

GONZÁLEZ Alfonso, Visual Basic programación cliente servidor. Editorial Alfaomega. México. 1999. INCE D. C., Ingeniería de Software. Editorial Addison Wesley. Madrid. 1995. ISHIKAWA, Kaoru, What is Total Quality Control: The Japanese Way, Prentice-Hall, 1985. IMAI, Masaaki, KAIZEN: La clave de la ventaja competitiva japonesa, CECSA, 1989

RINCÓN Luis A., Modelos de Regresión, desarrollo y aplicación con el computador. Universidad Nacional de Colombia. Palmira 1995. SABINO Carlos A., Cómo hacer una Tesis y elaborar toda clase de trabajos escritos. Editorial Panamericana. Santafé de Bogotá. 1997. SENN James, Análisis y diseño de Sistemas de Información. Editorial Mc Graw Hill. México. 1996. SHEWHART, Walter, Economic Control of Quality of Manufactured Product, 50th. Anniversary Commemorative Reissue, ASQ Quality Press, 1980 SPIEGELS Murray R, Estadística. Colección Schaum. Editorial Mc Graw Hill. México 2000. SILER Brian, SPOTIS Jeff, Visual Basic.Net. Editorial Prentice Hall. Madrid 2002. WALPOLE, MYERS y MYERS, Probabilidad y Estadística para Ingenieros. Editorial Prentice Hall. México 1999. YAMANE T., Estadística. Editorial Harla. México 1984.

JURAN, J. M. y Gryna, F. M. Análisis y planeación de la calidad, 3ª. ed., McGraww-Hill, México, 1995.

148


149 LA CULTURA DE LA ECOEFICIENCIA EMPRESARIAL Por: Luis Antonio González E.65 Julio Arnoby Vega66 Resumen El presente artículo plantea la posibilidad de promover una conciencia ecológica en todo sector empresarial, para que comprendan que a través de sus procesos productivos se están generando problemas de carácter ambiental, que afectan no solo los ecosistemas sino la salud y la calidad de vida de las personas. Los Gerentes y empresarios deben tomar conciencia que para poder sostenerse y acceder a nuevos mercados, deben ser altamente eficientes en sus procesos productivos, optimizar sus recursos o materia prima, contaminar menos al eliminar los vertimientos y emisiones, utilizar tecnologías limpias, minimizar el consumo de agua y energía en sus productos, y cerrando el ciclo de sus procesos productivos, aplicando políticas ambientales y creando los departamentos de gestión ambiental para cumplir con la ejecución de los planes de manejo ambiental, con base en estrategias eco-eficientes. El contenido del presente artículo comprende: ¿Qué es la ecoeficiencia? ¿Qué es la cultura ambiental empresarial?, ¿Cuales son los beneficios de la producción limpia?, ¿Cuál es la utilidad de las estrategias y los indicadores de ecoeficiencia? Palabras Claves: Ecoeficiencia, Plan de manejo ambiental, producción limpia, tecnologías limpias, Cultura ambiental, valor 65

Magíster en Conservación y gestión del medio Natural y Desarrollo sostenible de la U. internacional de Andalucía España, Especialista en Educación Ambiental de la USC, Lic., en Biología y Química de la USC y Tecnólogo en Recursos Naturales de la USTA: 66

Ingeniero Industrial de la CUAO, Lic. en Biología y Química de la UV, Especialista en Educación Ambiental de la USC, Docente de la Universidad Santiago de Cali.

agregado, estrategias ecoeficientes, ciclo cerrado, ciclo de vida productivo, indicador de eco-eficiencia, etc. Abstract The present article presents the possibility of reflecting and conscience to all the community empresarial, so that they understand that through their productive processes environmental problems of character are being generated, that affect not alone the ecosystem’s but the health and the quality of life of the persons. The Managers and businessmen should take conscience that to be able to be maintained inside the market and to agree to new niches, they should be highly efficient in their productive processes, they should optimize the natural resources or matter cousin, to contaminate less upon reducing residues solid, vertimientos and emissions, to utilize clean technologies, to minimize the consumption of water and energy in their products, and To close the cycle of their productive processes, applying environmental politics and creating the environmental departments of management for complying with the execution of the environmental plans of management, based on strategies echoefficient. Keywords: Eco-eficiencia, environmental Plan of management, clean production, clean technologies, environmental Culture, aggregate value, strategies eco-eficientes, cycle closed, productive cycle of life, indicator of eco-eficiencia, La Actividad Productiva y su relación con el Ambiente El Ambiente es el espacio socio-productivo creado a partir de la interacción entre la naturaleza, el hombre y los medios de producción. En todo proceso productivo se requiere de la utilización de los recursos naturales, de los que se obtienen las materias primas, que junto con el consumo de agua, energía y fuerza de trabajo permiten generar bienes y servicios de consumo.

149


150 Por lo tanto es importante buscar una estabilidad en la utilización adecuada de los recursos naturales especialmente los no renovables como el petróleo, el hierro, el carbón mineral, la madera, el cobre, el aluminio, etc., para que transformados en bienes de consumo de manera sostenible, puedan llegar a un mercado de millones de habitantes en el planeta Como resultado del proceso de producción o fabricación se producen residuos sólidos, vertimientos, emisiones, subproductos y efluentes tóxicos, que al final del proceso terminan afectando el ambiente, los ecosistemas, la salud de las personas y contaminando el agua, el suelo y el aire.(Ver diagramas Nº 1,2,3 y 4) Estas transformaciones y efectos adversos que son valorados como impactos negativos sobre los ecosistemas naturales, alteran el clima de la tierra originando el sobrecalentamiento global, la destrucción de la capa de ozono, la lluvia ácida, la contaminación del aire, del agua y del suelo. Todo este panorama debe analizarse con extremo cuidado pues el agua potable a nivel global se transforma en agua residual; se contaminan los ríos, quebradas, mares y océanos. Estamos entonces en constante modificación del paisaje, destruimos patrimonio biológicos, se eliminan completamente hábitats y sus especies, se sobre-explotan los recursos que nos ofrece la naturaleza de manera vandálica o extractiva. Ante la crisis ambiental planetaria, los acuerdos internacionales juegan un papel importante debido a que muchos gobiernos acogen las recomendaciones y las decretan ley para generar cambios en los comportamientos de las personas. La aplicación de la normatividad o legislación ambiental que a nivel global ha originado consumidores para un mercado ecológico, obliga a las empresas a no contaminar y a gestionar e implementar un Plan de manejo Ambiental para reducir los impactos ambientales negativos especialmente los de

contaminación y los que afectan la salud de las personas. Algunas empresas se acogen a normas voluntarias para su certificación como las ISO 14.000, que son normas creadas por la organización internacional de estandarización para reducir los problemas de contaminación ambiental durante los procesos productivos y las ISO 18000 centrada en un sistema de gestión de calidad encaminada hacia la salud ocupacional y la seguridad industrial. En la actualidad las exigencias ambientales hacen parte de la realidad competitiva en el que se desarrolla nuestra actividad empresarial e industrial, no solo a nivel nacional sino con internacional. La supervivencia de las empresas para sostenerse dentro del mercado, depende cada vez más de su capacidad de ser eficiente durante todo el proceso productivo, es decir, debe ser eficiente en el uso y optimización de sus recursos, en la utilización de tecnologías limpias para que sus productos y servicios puedan competir en el mercado, paralelo a la aplicación de un manejo adecuado del sistema de gestión ambiental. La empresa establece sus propios sistemas de evaluación y control al proceso productivo aplicando conceptos de eficiencia y eficacia para obtener la mayor producción al menor costo posible y mitigando los impactos ambientales negativos. A través de los sistemas de gestión ambiental con políticas y estrategias, para ser eficiente, basados en un manejo Integral hacia un mejoramiento continuo, con producción limpia y aplicando procesos de capacitación y educación ambiental a todos los niveles para ser Ecoeficientes. La empresa así, logra generar mayor valor agregado en sus productos para competir en un mercado globalizado, mejorando su imagen, expandiendo sus productos a nuevos clientes o consumidores que demandan productos del mercado verde donde importa más un producto que contamine menos la salud ambiental y no afecte la calidad de vida.

150


151 RESPUESTA ECOTOXICOLOGICA A UN RESIDUO QUIMICOTOXICO

RELACION ENTRE LA PRODUCCION CONSUMO, AMBIENTE, GENERACION DE RESIDUOS Y SU RECUPERACION.

PROPIEDADES FISIOLOGICAS Y BIOQUIMICAS DEL TÓXICO

FUERZADE DETRABAJO TRABAJO FUERZA AGUA

RECURSOS NATURALES

ENERGIA

PROCESO PROCESO DE DE PRODUCCION PRODUCCION MANUFACTURA MANUFACTURA

MATERIAS PRIMAS

BIENES Y SERVICIOS

CONSUMO

FUENTE DE RESIDUO TOXICO

INMISION (CONCENTRACIO) AIRE, SUELO, AGUA, ORGANISMO, ECOSISTEMA

DIVERSIDAD DE LAS ESPECIES . CAMBIO EN LAS RELACIONES SOIMBIOTICAS

GENERACION DE

RESIDUOS SÓLIDOS

SUSTANCIAS TOXICAS

EMISIONES

REPRODUCCION INMIGRACION AGRUPACION MORTALIDAD

MODIFICACION DE DINAMICA Y CARACTERISTICAS DE LA POBLACIÓN

MODIFICACION DE LA ESTRUCTURA Y FUNCION DE LA COMUNIDAD

EFLUENTES

SUBPRODUCTOS

RELACION RESPIRACION FOTOSINTESIS. RELACION CICLOS DE NUTRIENTES. PATRONES DE FLUJO DE NUTRIENTES

CAMBIO EN LA FUNCION DEL ECOSISTEMA

AFECTACION DEL AMBIENTE Y LA SALUD

RECUPERACION RECUPERACION

Diagrama 4.

Diagrama 1

La Cultura Ambiental Empresarial: • Explosión Demográfica Natural

• Incremento de la Eutrofización

• Acumulación en la trama ecológica o cadenas alimentarias.

• Alta carga orgánica • Alta demanda química y bioquímica de oxigeno

• Deposito de sólidos sediméntales y bentales

• Bajos niveles de oxigeno disuelto

EFECTOS INDIRECTOS DE LOS RESIDUOS EN LA SALUD AMBIENTAL CONTAMINACION DEL MEDIO NATURAL

• Perjuicios en Actividades Humanas

• Incremento de la Eutrofización

• Proliferación de agentes patógenos

• Afecta la Producción Natural • Afecta la Salud Biológica

• Incremento de los costos de Tratamiento

• Afecta la calidad del Agua, el Aire y el Suelo

• Reduce el valor recreacional de los ecosistemas • Efectos antiestéticos e impacto del paisaje

Diagrama 2. INFECCIOSOS TOXICOLOGICOS Concentración de sustancias químicas por arriba del nivel de toxicidad de las mismas para los organismos

Presencias de micro organismos patógenos que pueden desarrollarse en los organismos.

RIESGOS LABORALES • Infecciones, cortes

EMBRIOLOGICOS

EFECTOS DIRECTOS DE LOS RESIDUOS EN LA SALUD HUMANA

• Quemaduras • Parasitosis • Accidentes de Trabajo

Deterioro embriológico por teratógenos PÀRASITOLOGICOS Presencia de parásitos en diversas fases de su ciclo biológico que pueden hospedarse en los organismos

MUTAGENICOS Concentraciones de sustancias mutagénicas, teratogénicas o carcinogénicas que afectan el ADN

CROMOSOMICOS Alteración de numero de cromosomas con aparición de síndromes

Diagrama 3.

Si las personas a escala global tuvieran un mínimo de conciencia y de alguna manera se sensibilizaran para aplicar estrategias en beneficio del ambiente, entonces estaríamos ante una cultura ambiental, ya que supuestamente todas las personas se regirían por patrones de ideas y comportamientos hacia los objetivos de las políticas ambientales. Hay millones de empresas en el planeta produciendo bienes y servicios. De ellas muchas producen toneladas diarias de papel, cuya materia prima son los recursos naturales y las externalidades que se definen como los productos que salen del proceso sin ser reutilizados, ¿Cuanta contaminación podrían llegan a producir?, Por todo estos es necesario adoptar una cultura ambiental empresarial, cuyos gerentes de alto nivel comprometidos con la formación de una cultura ambiental, puedan aplicar políticas, tomar dediciones y cumplir objetivos, que permitan rediseñar su proceso productivo, aplicar innovaciones, ser competentes, eficientes y responsables con el ambiente, generando una cultura ambiental corporativa de eco-eficiencia, que se refleje en todos los aspectos de su organización sobre la base de las exigencias de los nuevos estándares internacionales de calidad ambiental. Entre las estrategias para el desarrollo de una cultura ambiental empresarial están:

151


152 ♦ Adoptar una cultura empresarial y administrativa que guíe a la institución para que sea productiva, competente y responsable con el ambiente. ♦ Tomar decisiones fundamentadas en los estudios, investigaciones y análisis del ciclo de vida de los productos con sus impactos ambientales negativos y estar dispuesto al cambio de políticas y procesos que beneficien a sus clientes, proveedores y al ambiente. ♦ Adaptar sus procesos a la innovación y exigencias de los nuevos estándares internacionales de calidad ambiental y avances de la tecnología que puedan ser aplicadas en todo las fases del proceso productivo. La Eco-Eficiencia como respuesta a la problemática Ambiental generada por la actividad Productiva. La eco-eficiencia es una herramientas estratégica aplicadas a los procesos productivos para lograr mejores resultados, logrando la eficiencia económica a través de la eficiencia ecológica y ambiental es decir un manejo adecuado de materias primas, minimizando el consumo de agua y energía, aplicando tecnologías limpias para reducir, mitigar o eliminar los desechos, efluentes, emisiones y residuos sólidos o aplicando cualquier estrategia que permita, beneficiar y contribuir al mejoramiento de la calidad de vida, contribuyendo al desarrollo de una producción y una cultura ambiental sostenible. Comprometer a los empresarios en la cultura de la eco-eficiencia representa una excelente decisión desde la perspectiva jurídica o legal, social, económica y ecológica ya que, la solución a la problemática ambiental tiene un profundo impacto en las organizaciones, cuyas implicaciones se manifiestan a corto y mediano plazo. Se puede afirmar que la sostenibilidad de una empresa y su posición para competir en el mercado actual dependen del uso más eficiente de sus recursos y de la utilización de tecnologías limpias, lo cual genera mayor productividad y

beneficio para la comunidad. Entre los criterios para definir la cultura de la ecoeficiencia están: •

• • • •

Aplicación de políticas ambientales ecoeficientes e incentivos en todos los niveles de la organización. Responsabilidad gubernamental, empresarial y ciudadana hacia la conservación y protección del ambiente. Manejo y control adecuado a la colonización e imposiciones socioeconómicas inadecuadas. Uso eficiente de los recursos naturales y reducción en el consumo de: Agua, aire, suelo, minerales. energía eléctrica, combustible, gas, acpm, etc., y materias primas que conlleven a un aumento de la productividad. Aplicación de la legislación ambiental de manera rigurosa, eficaz y restrictiva. Aplicación de tecnologías limpias adecuadas en los procesos productivos Mantenimiento de los sistemas de evaluación y controles. Implementar el Plan de manejo ambiental aplicando auditorias y monitoreando los procesos productivos. Aplicar estrategias de reducción, segregación, recuperación, reciclaje y reutilización de residuos sólidos. La empresa solo debe tener productos y no subproductos. Reducción en el consumo de agua aplicando procesos de tratamiento de sus aguas residuales. Eliminación de materiales tóxicos que van en los productos.

Beneficios de la Ecoeficiencia Implementar, gestionar o adoptar en la actualidad la ecoeficiencia y la gestión ambiental de manera efectiva y eficaz significa generar valor agregado, porque permite innovar y producir nuevos productos, generando nuevas oportunidades dentro del mercado. Esto permite que la empresa tenga:

152


153 • • • • • • • • •

• • • • • • • • •

Un Ambiente laboral sano. Una Mejora en relación con la comunidad. Innovación hacia el desarrollo de una cultura ambiental. Optimización de los recursos naturales. Mitigar costos directos e indirectos de producción. Reducción de emisiones y residuos. Ingresos adicionales por reciclaje y reutilización de residuos. Mejor imagen entre distribuidores, consumidores y la comunidad. Acceso a nuevos mercados nacionales e internacionales, como el mercado verde en donde interesa el producto menos contaminante. Reducción en el consumo de materias primas Reducción en el consumo del recurso agua Reducción en el consumo de energía y combustible Reducción en la utilización de sustancias tóxicas Rediseño de procesos de producción y productos Aumentar la reutilización y reciclaje de los subproductos. Reducir los riesgos para la salud de las personas Eliminar los impactos ambientales negativos en el entorno Incorporar el concepto de análisis sobre el ciclo de vida de los productos

Que es una Empresa Ecoeficiente. La empresa debe convertirse en protagonista de su propia gestión ambiental con un enfoque ecoeficiente, evaluando y controlando sus propios procesos productivos aplicando conceptos de eficiencia y eficacia para obtener la mayor producción posible. La empresa ecoeficiente establece a su alcance una política ambiental utilizando objetivos, metas, estrategias, capacitación y educación a todos los niveles para crear una conciencia ambiental y una

participación efectiva en la aplicación de estrategias ecoeficientes en que la empresa se comprometa a adoptar las medidas ecoeficientes, realizando el diseño de procesos integrales que maximizan el valor agregado de sus productos y servicios con la aplicación de tecnologías limpias que permiten reducir los impactos ambientales negativos que ocasionan durante la producción, reduce la intensidad del uso de los recursos y la reutilización de sus residuos y desechos, generando mayor productividad. La eficiencia económica a través de la eficiencia ecológica se logra por medio de la optimización de los recursos naturales y la reducción de la contaminación ambiental, lo cual le permite un posicionamiento a la empresa para competir en el mercado actual. Las empresas ecoeficientes inician procesos para sostener la competitividad con base en la capacitación, entrenamiento y educación de sus recursos humanos, incluyendo el bienestar físico que proveen la salud y la seguridad industrial. El término empowerment describe un enfoque integral hacia el desarrollo de una fuerza laboral ya que un empleado bien preparado y motivado brinda avances a la efectividad operacional y a la productividad de la empresa. Entre las técnicas de eco-eficiencia empresarial están: ♦ Análisis de los impactos ambientales negativos en los procesos productivos. ♦ Optimización del uso de materias primas, del consumo de agua y energía. ♦ Maximizar el valor agregado de los productos y servicios. ♦ Reducción en la producción y disposición final adecuada de residuos y desechos. ♦ Aplicación de tecnologías limpias y mantenimiento de equipos. ♦ Segregar, reciclar, reutilizar y reducir. ♦ Rediseño de procesos y productos (reingeniería, ecodiseños). ♦ Educación y capacitación. ♦ Uso adecuado de indicadores de ecoeficiencia. ♦ Orden y limpieza en el mantenimiento de los espacios.

153


154 Marco para la Gerencia Ecoeficiente. En el contexto de la gerencia ecoeficiente se deben considerar los siguientes componentes básicos: • Políticas y compromisos: • Preparación • Implementación • Revisión administrativa y evaluación de indicadores • Reconocimiento para alcanzar metas de ecoeficiencia. Producción Limpia. La producción limpia se refiere a la continua aplicación de estrategias ambientales preventivas e integrales a los procesos productivos con el propósito de reducir los riesgos que afectan la salud y el ambiente. Este tipo de estrategias hace parte de los elementos del programa de ecoeficiencia de una empresa y estos a su vez de la gestión ambiental. “Estrategia continua para el mejoramiento de los productos y servicios con el fin de reducir los impactos ambientales, los costos por desperdicios presentados en el proceso y el consumo de energía. Manejar los desechos generados por la producción de bienes e incorporar este proceso dentro de los establecidos por la generación integral de la calidad” UNEP, 1992. “Procesos productivos que ocasionan menos impactos negativos al ambiente, menos contaminantes, usan los recursos de manera mas sostenible, reciclan y reusan los residuos y desechos y reducen el consumo de agua y energía. “Respetan, fomentan y contribuyen a mantener el equilibrio ecológico reduciendo los impactos ambientales negativos”. La caracterización de un proceso producción limpia esta determinado por:

de

1. La conservación y optimización de su materia prima.

2. La disminución en el consumo de recursos, energía y agua. 3. La eliminación y reducción de las emisiones, vertimientos o efluentes con sus desechos, antes de que salgan del ciclo productivo. 4. Reducción de los impactos ambientales negativos a lo largo del ciclo de vida de los productos. 5. Una empresa puede llegar a ser un sistema de producción sostenible, si esta basado en la retroalimentación de su ciclo productivos para la conservación del ambiente y la salud ambiental. Beneficios directos para las Empresas que implementan la Producción Limpia Para que sea efectiva la producción limpia en una empresa se requiere: necesario en cambio de mentalidad en la empresa con una ética ambiental que los identifica; la preparación de nuestros profesionales, el cambio de actitudes a nivel público y corporativo, y reestructuración en las políticas regulares tanto de la empresa como de los administradores y las clases dirigentes esto va a permitir: 1. El ahorro de costos por la reducción de desperdicios de materia prima y energía. 2. Mayor eficiencia en la operación de la planta y sus procesos. 3. El incremento en la calidad de los productos y en la consistencia, debido a un amplio control y dominio de la operación. 4. La reducción considerable del potencial de polución. 5. La reducción en los costos de las plantas de tratamiento. 6. Las mejores condiciones generales de trabajo, salud, higiene y seguridad. Análisis del Ciclo de Vida de un Producto Es un procesos encaminado a calificar y cuantificar los efectos que sobre el ambiente genera un producto desde la “Cuna a la Tumba” y aunque vuelve a ser reciclado puede llegar a producir diferentes tipos de

154


155 contaminación, ya que durante el proceso de transformación del mismo, se utilizan sustancias toxicas, se generan efluentes, emisiones de gases, como humos, neblinas y partículado, se contamina el aire, el agua, el suelo, demanda oxigeno del aire, produce gas carbónico, monóxido de carbono, sulfatos, nitratos y carbonatos que al contacto con el agua se transforman en ácidos produciendo lluvia ácida; todo esto contribuye a deteriorar el ambiente y por tanto el producto debe ser “Rediseñado”. Tecnologias Limpias Son procesos industriales que tienen como estrategia la aplicación de tecnologías de punta, con el fin de eliminar los impactos ambientales negativos que se generan durante los procesos productivos, es decir que durante la transformación de materias primas en bienes y servicios se tenga como máximo objetivo: ♦ ♦ ♦ ♦ ♦

Cero contaminación Cero residuos tóxicos o peligrosos Ningún subproducto Cero residuos o desperdicios Ciclo del proceso cerrado.

De esta manera, los procesos productivos ocasionan menos impactos adversos ambiente, son menos contaminantes, los recursos se utilizan de manera más sostenible, los residuos se reciclan, se reutilizan y se reduce el consumo de agua y energía. Aplicación

de de

3. No es fácil de implementar 4. Temor a dañar la calidad 5. Inercia de la organización "si ha trabajado así 20 años , porqué cambiarlo ahora? 6. Rechazo al cambio (fuera del rango de experiencia) Ventajas en la Aplicación de Tecnologías Limpias 1. Beneficios económicos directos y medibles 2. Mejora eficiencia de producción 3. Disminuye costos 4. Menor consumo de energía, agua, químicos 5. El Control de contaminación es parte integral del proceso 6. Disminuye las cargas contaminantes 7. Menores sistemas de tratamiento y control de contaminación Estrategias de Ecoeficiencia

En un ciclo cerrado los gases calientes, los subproductos y los residuos deben volver al proceso, para reducir costos o gastos en energía, agua y materias primas.

Barreras para la Tecnologías Limpias

2. Puede incrementar problemas producción, como la corrosión equipos, incrustaciones,

de

Entre los principales factores que afectan la aplicación de tecnologías limpias están: 1. Puede afectar la calidad del producto final

Son aquellas que permiten optimizar el proceso productivo, reducen los impactos, permiten ser más efectivos en el proceso de producción y ser más eficaces en la labor que se hace, es decir mejoran la producción y generan mayores beneficios económicos por ser mas “Eficientes”. Toda empresa debe recurrir a las siguientes estrategias: 1. Selección impacto:

de

materiales

de

bajo

a) Selección de materiales limpios: Son aquellos que por su naturaleza y composición química no afectan el ambiente por tanto se debe evitar el uso de aditivos tóxicos o materiales que afecten la capa de ozono como aerosoles con fluor cloruro carbonados (C.F.C). Tampoco utilizar antioxidantes, espumas y refrigerantes que contaminen el aire y el suelo. Se debe evitar el uso de metales

155


156 pesados como Cadmio, mercurio, plomo, etc. b) Selección de materiales reciclables, consiste en aprovechar la energía invertida en la obtención de estos materiales y disminuir su eliminación como residuo. Cartón de Colombia reutiliza en sus procesos de producción, papel de reciclaje como materia prima, es decir papel recuperado por recicladores de la región. c) Selección de materiales renovables: Son aquellos que no se hacen escasos, ejemplo el papel, metales, etc. d) Selección de materias primas con bajo contenido energético: Seleccionar materias primas como el Aluminio que requiere de poca energía para su fundición es muy benéfico para el proceso productivo, pero además es fácil de reciclar y reutilizar. 2. Reducción del uso de materiales: a) Reducción del peso: Con una reducción de los microshifts se redujo el tamaño y el peso de los celulares, los teléfonos, equipos de sonido, televisores, etc. Esto permite reducir costos directos de fabricación, utilizar menor cantidad de materia prima, un fácil manejo de inventarios, transporte y entrega de productos. b) Reducción del volumen: Reducir el tamaño del artículo implica menos costos de producción. Aumentar la cantidad de los artículos. Facilidad en el empaque, envasamiento, almacenamiento y transporte. Además facilita el manejo de los mismos como es el caso de los mini componentes, el walkman, el disckman, los radios, discos de MP3, etc. 3. Optimización producción:

de

técnicas

de

a. Reducción en las etapas del proceso de producción: Requiere de una Reingeniería de los procesos productivos, conocimiento a la perfección las etapas de los procesos, rediseñando los productos , estableciendo un correcto diagrama de flujos lo cual permite optimizar la materia prima, cero subproductos, muy bajas emisiones, generación de bajas cantidades de residuos sólidos, etc. b. Técnicas alternativas de producción: Consiste en la utilización de tecnologías limpias en el sistema de producción lo que implica “Cerrar El Ciclo Productivo”, menor gasto de energía y materias primas, muy pocas emisiones y efluentes, es decir, “Cero Contaminación”, muy pocos subproductos y agentes tóxicos al entorno. Utilización de energías renovables, como la utilización de energía solar a través de paneles solares. Lo que implica reducir el costo Kw/hora o Kw/unidad producida durante el proceso de elaboración del producto. c. Menor consumo de energía: El consumo de energía para un proceso productivo es a nivel de electricidad y combustibles, no solo en la planta de producción, sino en las áreas administrativas, bodegas, talleres de mantenimiento, aire acondicionado y transporte de materias primas, productos terminados y entrega. En Cartón de Colombia se consumían 31.1 gigajulios/tonelada en 1993, para el año 2002 el consumo se redujo a 21.1 gigajulios/tonelada de papel producido. d. Consumo de energías renovables: En Dinamarca y otros países la energía eólica es utilizada para generar energía eléctrica. Equipos de energía solar producen electricidad para abastecer la demanda electricidad a bajos costos. La tendencia es aprovechar la tecnología de ruptura para reemplazar la tecnología antigua y ser más ecoeficientes.

156


157 e. Reducción de residuos: Cartón de Colombia generaba 27 kilogramos por tonelada de papel producida de sólidos suspendidos totales (SST) en 1993 pero en el 2002 la generación de residuos acuosos o efluentes se redujo a 12,6 Kg por tonelada producida. f.

Consumo de menos recursos: En Cartón de Colombia el consumo de materias primas se redujo de 1.16 de fibra de madera por tonelada en 1993 a 1.07 fibra/tonelada en el 2002, lo cual permitió una reducción de 7.75% de consumo de fibra de madera para producir el papel.

g. Consumir recursos renovables. El consumo de agua en CC se reduce de 150M3 por tonelada en 1990 a 109 m3 por tonelada de papel en el 2002. La reducción llego al 20.66%en el consumo d agua por tonelada producida. 4. Optimización distribución.

de

los

sistemas

de

a. Embalajes: Utilización de empaques mas limpios y reutilizables. Utilización de materiales apropiados de acuerdo al tipo de empaque, es decir, cuando no se requiere Poliestireno o Icopor se debe utilizar Cartón, se debe evitar el Tetrapack y cambiar a plástico o vidrio que son reutilizables. b. Transporte eficiente: Utilización de transporte marítimo en vez de aéreo. El transporte del producto implica contaminación de aire, alto consumo de combustibles utilizando medios terrestres pero si se hace por medio del tren generan menos contaminación. c. Logística eficiente: Estandarización de recorridos, sistemas de cargue, descargue y de los embalajes apropiados. Se reduce el uso de combustibles, acpm, gasolina, etc. Ya que se diseña un correcto recorrido para el vehículo cuando efectúa su labor, es decir, se debe optimizar la distribución ya

que cuanto menor sean los recorridos y la cantidad de empaque, mayor será el ahorro en materiales y en energía requerida para el transporte. 5. Reducción del impacto durante el uso: a. Reducción de emisiones: se produce dióxido de carbono, precursores químicos, agentes contaminantes, sulfatos, nitratos, etc; En 1993 Cartón de Colombia emitía 2,42Kgr/tonelada de material particulado a la atmósfera, en 2002 las emisiones se redujeron a 0,70Kgr/tonelada lo cual implicó una reducción del 71,07% y en Propal en el 2004 las calderas 1 y 2 emiten 60kgr/hora de particulado, según la C.V.C. el máximo de partículado permitible es de 108,6Kgr/hora. b. Eliminación del impacto al final del tubo: Utilizar. Se debe utilizar dentro de los procesos productivos tecnologías de punta, pero cuando la maquinaria y las calderas ya tienen uso se les debe aplicar técnicas que permitan eliminar o reducir en más de un 90%, los agentes contaminantes, por tanto se deben colocar: Precipitadores electroestáticos, filtros de mangas, cámaras de sedimentación, sistema de milticiclòn, torres de aspersión ciclónica, precipitadores de fondo húmedo, separadores electroestáticos de polvo, torres de absorción, depuradores de gases, etc. c. Reducción de efluentes: se debe reducir agentes tóxicos, eliminación de aceites, detergentes, agentes químicos. En Propal,2004, se generan 800 litros/día de aguas residuales y se consumen 9.000 galones/minuto, pero al utilizar un desarenador se remueve el 45% de los S.S.T. Un clarificador remueve el 85% de S.S.T y el 90% de carga orgánica, según C.V.C todo efluente final en S.S.T como máximo debe ser de 23,5Kgr/día y la carga de DBO5 debe ser de 6.5tonelada/día, 2004. En Cartón de

157


158 Colombia el DBO5 se redujo de 32,3Kgr/tonelada en 1990 a 6.7Kgr/tonelada en 2002 con una reducción de 49,24%. Pero además se deben reducir sustancias tóxicas en vertimientos líquidos, como detergentes, agentes químicos o precursores, aceites, aditivos tóxicos, ácidos, sales, bases álcalis, óxidos, agentes orgánicos, plaguicidas, etc. d. Cerrar ciclo: Consiste en volver a utilizar dentro del proceso productivo, gases calientes que en vez de ser liberados al aire, deben ser reinyectados en alguna parte del proceso. Los subproductos se deben convertir de nuevo en materias primas, las sustancias toxicas se deben cambiar por otras Biodegradables o que no afecten la calidad del agua, del aire y del suelo. 6. Optimización del período de vida del producto: Generar productos.confiables, durables, de fácil manejo, adaptables, reciclables, es decir, extender la vida técnica o tiempo durante el cual el producto funciona bien. Se debe realizar un buen diseño, eliminar partes débiles y tener la posibilidad de acceder a un mantenimiento, reparación y recambio de piezas que se deterioran. Escoger una estructura modular posibilita la revitalización cuando ya no es óptimo. Esto es proporcionar al producto valor agregado en términos de diseño y funcionabilidad. 7. Optimización del fin de vida del sistema: a. Favorecer la reutilización de los productos. Al terminar la vida útil del producto, se procura usar de nuevo como materia prima de otro, o se introduce de nuevo al proceso para su posterior utilización. Al volver reutilizar el producto, sus componentes o materiales permite reducir impactos ambientales, se previenen emisiones, efluentes pues se reinvierten los materiales

y la energía usada originalmente en su fabricación. b. Favorecer la refrabricalidad o reacondicionamiento En Propal se generan pérdidas en papel de más de 50Kgr/tonelada producida, en el 2004, los cuales se introducen de nuevo en el proceso y así se evita la pérdida de fibra de madera. Lo mismo ocurre en Cartón de Colombia. Muchas partes de productos pueden utilizarse nuevamente pero terminan en el relleno sanitario aunque aun tienen componentes valiosos. Si se aplica la técnica de “diseño para desensamblar”, se asegura un fácil acceso al producto para su inspección, limpieza, reparación o reemplazo de parte o componentes vulnerables. Si un vehículo se reacondiciona con todo el equipo que requiere para utilizar el gas natural como combustible, obtiene ahorro de mismo entre un 50% a 70% debido a la diferencia relativa de los costos de producción. El gas natural (metano CH4), es más económico porque no necesita procesos complejos de refinación c. Reducir los impactos. Utilizar combustibles menos contaminantes, materias primas sin tóxicos, generar menos vapores, humos, neblinas, precursores químicos, agentes fotoxidantes, particulado, S.S.T, DBO5, D.Q.O, reutilizar, analizar el ciclo de vida del producto, rediseñar, aplicar reingeniería al proceso, segregación en la fuente, optimizar sistemas y procesos. etc. Permite la descontaminación del ambiente. Para el año de 1997, la resolución 0273 del 01 de abril por medio del DECRETO 901 DEL M.M.A, reglamentó las tasas retributivas por vertimientos líquidos para los parámetros de contaminación por materia orgánica expresados como DBO5 en $39,50 por kilogramo introducidos en el efluente y $16,90 por Kilogramo para S.S.T. como producto de descargas de lodos, arenas, y sólidos disueltos en suspensión. En

158


159 1998 subieron a $46,50 para DBO5 y $19.90 para S.S.T. Al aplicar estas tarifas se logro la meta de reducir el 30% en DBO5 y el 50% en S.S.T. “el que contamina paga”. d. Favorecer el reciclaje: el desensamblaje facilita la recuperación. Es la más común de las estrategias de ecoeficiencia ya que requiere poco tiempo y pequeñas inversiones. Es muy importante hacer el producto para que pueda ser desensamblado fácilmente y utilizar los materiales adecuados. Genera beneficios económicos. Lo ideal es utilizar materias primas tales como: sólo vidrio, metal, plástico, papel, Cartón y no combinarlos porque se complica su reutilización. e. Incinerar: Solo para obtener energía. Si la reutilización o el reciclado no se pueden aplicar, la mejor opción entonces es incinerar para producir energía pero debe ser con tecnología de punta utilizando llamas de plasma para ionizar sustancias toxicas, utilizando filtros electrostáticos para reducir las cenizas y los gases contaminantes que se originan como productos de cualquier combustión incompleta, tales como: dioxinas, furanos, CO2, NO2, SO3, CH4, O3, particulado, hollín, SO2, CO, NO, ETC. Si la combustión es completa no se generan cenizas contaminantes al aire, agua y suelo. Si el proceso permite obtener energía reduce totalmente la contaminación, se generan ingresos y se reduce totalmente la contaminación. f.

Eliminación: Para materiales tóxicos o no reutilizables. Consiste en neutralizar o pasivizar sustancias como ácidos y bases químicas para reducir o eliminar su toxicidad química y convertirlas en materias inocuas, que a través del tiempo se puedan biodegradar en forma de sales. Es así como los residuos anatomopatológicos de clínicas y hospitales primero se tratan con hipoclorito de sodio al 5% para eliminar

la contaminación biológica de las bacterias y otros agentes infecciosos. Indicadores de Ecoeficiencia Son parámetros o rangos a través de los cuales se puede medir, comparar, cuantificar lo que se consume por unidad producida. Así por ejemplo, ¿Cuanta energía se utiliza por cada unidad de producto? ♦ Consumo de la materia prima/Unidad de producto = ♦ Consumo o gastos de agua/Unidad de producto = ♦ Consumo de energía/Unidad producida = ♦ Consumo de combustibles/Unidad de producto = ♦ Producción de residuos sólidos/Unidad producida = ♦ Producción de residuos tóxicos/Unidad producida = ♦ Consumo de material prima reciclado/ Unidad de producto = Conclusión Al realizar un análisis del termino “Ecoeficiencia” se llega a la conclusión de que es un invento para vender una idea; es decir a un empresario, gerente, socio, accionista, etc. de una empresa, usted no le puede llegar con la premisa de que la nueva maquinaria con tecnología de punta o de producción limpia que es muy Costosa, es benéfica porque produce cero contaminación y así la empresa contribuye a mejorar el medio ambiente. El le dirá que usted esta loco, a mi lo que me interesa es una maquina altamente Eficiente que genere mayores dividendos económicos, por lo que el gerente necesita es en ultimas ser muy eficiente y poco le importa, contribuir a mejorar el ambiente, es decir que el termino Ecoeficiencia”no existe y que debe ser reemplazado por Producción Limpia.

159


160 Glosario

protección ambiental y a la prevención ecológica y social en el manejo del ambiente.

ADMINISTRACIÓN AMBIENTAL: Proceso de manejo organizado bajo una política y un ordenamiento ambiental con aprovechamiento óptimo de los recursos, controles en las actividades susceptibles de degradación ambiental y difusión de programas de educación ambiental adecuados. Los niveles de administración ambiental pueden ser en el ámbito de los Recursos Naturales, la biodiversidad, los ecosistemas y los problemas ambientales. Estos se administran a través de las estructuras políticas y se buscan nuevas formas de hacer compatible el reencuentro del hombre hacia la vida, la supervivencia y la naturaleza. Además de hacer sostenibles sus actividades considerando la protección ambiental y el desarrollo económico.

CONTABILIDAD AMBIENTAL: Registro de las operaciones de compra y venta de los recursos naturales en términos monetarios y del análisis e interpretación de los datos financieros para mantener la sostenibilidad de los ecosistemas.

AUDITORÍA AMBIENTAL: Es un instrumento de la gestión ambiental que permite evaluar y controlar metódica e independientemente, si las actividades o proyectos contemplan la variable ambiental en sus políticas y procesos y, si los resultados relativos al ambiente están de acuerdo con las medidas preestablecidas y la reglamentación existente, de manera eficaz y aptas para alcanzar los objetivos ambientales. De esta manera la auditoria puede ser interna o externa al proyecto o actividad que se realiza y, cuyo organismo auditor presenta un informe a la empresa auditada, para que sean analizadas las alternativas de solución propuestas para el manejo ambiental CALIDAD AMBIENTAL: Características de un ambiente determinado por una serie de valores límites admisibles de las concentraciones de cada uno de los compuestos perjudiciales que lo contaminan. CALIDAD DE VIDA: Condiciones ecológicas, socio – económicas y culturales que definen el contexto en el que se desarrolla una comunidad. Alcanzando ciertos niveles económicos y de bienestar adecuados a sus patrones culturales y objetivos con fines sociales propios. COMERCIO AMBIENTAL: Proceso administrativo para cumplir con las operaciones necesarias que permitan ofrecer un producto o componente natural, al mercado de los compradores. Como el comercio ambiental crece se hace necesario aplicar una legislación rigurosa y el cumplimiento de unos mínimos estándares de calidad ambiental para garantizar la protección ambiental y la conservación de los ecosistemas. Con base en los acuerdos internacionales o tratados de libre comercio se requiere que la ley aplique ciertas restricciones comerciales con el objetivo de reducir los impactos ambientales negativos y la extinción de los recursos por su tráfico ilegal. Los efectos ambientales resultantes de la actividad comercial determinan el nivel y estructura de la producción y consumo. Esta a su vez en la demanda de los recursos naturales, lo que ha obligado ante la apertura económica y la liberación comercial aplicar políticas ambientales que integren el desarrollo económico a las leyes ecológicas, a la

DELITOS ECOLÓGICOS Y CONTRA EL MEDIO AMBIENTE: Perjuicios ocasionados por entidades o personas que alteran el equilibrio natural y la estabilidad social de una comunidad, poniendo en riesgo la calidad de vida y del ambiente. Ejemplo: El riesgo que ocasionan personas que arrojan al mar los residuos del lavado de las sentinas de los barcos que anclan en nuestros puertos. DERECHO AMBIENTAL: Se refiere a una línea del derecho público que se encarga de analizar la protección del medio ambiente y los aspectos legales de la degradación ambiental. DESARROLLISMO: Estilo de desarrollo impuesto en el pre-modernismo, el cual se inicia con la revolución industrial y la revolución verde, la cual considera que los recursos naturales valen por lo que producen. En este modelo se promueven políticas ideológicas y prácticas de desarrollo industrial, basada en procesos extractivos con alto impacto negativo en el ambiente. DESARROLLO: Capacidad que tiene una comunidad, pueblo o país para realizar sus proyectos a partir de sus recursos, en el contexto de una estructura económica, social y política que satisface las necesidades básicas, la supervivencia y el mejoramiento de la calidad de vida. DESARROLLO SOSTENIBLE: Proceso que conduce al crecimiento económico, al mejoramiento de la calidad de vida y al bienestar social, sin agotar la base de los recursos naturales que le sirven de sustento, sin deteriorar el ambiente ni el derecho a las generaciones futuras a utilizarlo para sus propias necesidades El aprovechamiento sustentable se da cuando se llega a la tasa máxima a la que puede utilizarse un recurso potencialmente renovable sin agotar las existencias o abastos del recurso en la región o país donde se explota y se utiliza. DESASTRE: Evento sucedido de manera repentina e inesperada, causando alteraciones ecológicas, económicas y sociales en una población, de acuerdo a los factores de riesgo y a la vulnerabilidad del sistema. DESERTIZACIÓN: Proceso destructivo del uso de la tierra por la inadecuada administración de las actividades productivas y los ecosistemas. DETERIORO AMBIENTAL: transformación y reducción de la calidad ambiental ocasionada por los impactos ambientales negativos producidos durante la actividad humana y el desarrollo de proyectos inadecuados y de imprevisiones ecológicas y sociales. DIAGNOSTICO AMBIENTAL: Proceso de caracterización y análisis del estado actual en que se

160


161 encuentra un sistema, actividad o proyecto, considerando los factores sociales, económicos, culturales y biofísicos implicados en los procesos de transformación, los riesgos que puedan presentarse, las medidas de control y las soluciones para cada uno de los impactos ambientales negativos o de los problemas identificados. ECODESARROLLO: Alternativa optimizadora en el modernismo para el aprovechamiento de los recursos naturales considerando las leyes ecológicas (1970). ECOEFICIENCIA: Programa de la Gestión Ambiental para hacer uso eficiente del agua, la energía, el suelo, la materia prima y la fuerza de trabajo en todo proceso productivo, reutilizando los productos y tratando los vertimientos, de tal manera que se reduzcan los riesgos y se eliminen o se prevengan los impactos ambientales negativos sobre la salud y los ecosistemas. ECOLOGÍA: Ciencia que estudia los ecosistemas. ECONOMIA AMBIENTAL: Ciencia de la economía que aplica métodos en procura de maximizar el bienestar humano dentro de las limitaciones del capital y las tecnologías existentes, integrando las leyes ecológicas a la valoración natural EDUCACIÓN AMBIENTAL: Proceso formativo para desarrollar valores, enriquecer el conocimiento, generar cambios de actitud con respecto al uso y manejo del ambiente, participar en el fortalecimiento de las organizaciones sociales y contribuir a difundir una información adecuada para lograr el mejoramiento de la calidad de vida, del deterioro ambiental y la construcción de una ética ambiental para la sostenibilidad de la vida, las culturas y la ecología del planeta. EFICIENCIA ECOLÓGICA: Proporción entre la energía utilizada en un nivel de la cadena alimentaría en la unidad de tiempo y la energía puesta a disposición del nivel trófico siguiente. EFLUENTES INDUSTRIALES: Se refieren a las aguas residuales que se generan en la producción industrial, y que contienen aceites, grasas, metales pesados, sales, residuos peligrosos, venenos, sustancias corrosivas, etc. EL CONSUMO VERDE: Práctica relacionada con la protección ambiental en los procesos productivos, la responsabilidad del productor y medios de consumo, desde el momento en que se decide comprar un producto, cuyo consumidor cree, asegurar una sostenibilidad de los sistemas ecológicos. EL MERCADEO VERDE: Actividad de comerciar que reconoce la variable ambiental, como parte del desarrollo y del crecimiento para los negocios, comprando y vendiendo productos que garantizan menos perjuicios para la salud ambiental GERENCIA AMBIENTAL: Proceso decisorio y facilitado de la gestión ambiental a través del cual se lleva a cabo el desarrollo de políticas, programas y estrategias que se ejecutan en una organización para el

buen manejo de los recursos y la protección del ambiente, implementando programas de ecoeficiencia y garantizando la sostenibilidad del patrimonio natural. GESTION AMBIENTAL: Proceso ordenado de la planificación, acciones e inversiones que van desde las etapas iniciales hasta las finales de una actividad humana o proyecto conformando un sistema de carácter proactivo y preventivo de los impactos ambientales negativos que puedan producirse. Como instrumentos del proceso de la gestión ambiental están: El diagnóstico ambiental, la planificación, el ordenamiento territorial, los estudios y evaluaciones ambientales, los proyectos elaborados para el manejo ambiental, los programas de educación ambiental, los mecanismos de seguimiento, control y evaluación y la participación ciudadana. GESTIÓN INTEGRADA DE RESIDUOS SÓLIDOS: Control sistemático y determinado en el ciclo de los residuos sólidos y demás elementos funcionales como la generación, la manipulación, la separación, el procesamiento, la recogida, la transformación, la transferencia, el transporte y la disposición final basada en las siguientes consideraciones la reducción de los residuos en el origen, el aprovechamiento y valorización a través del reciclaje, la reutilización y la producción energética, la transformación y el tratamiento de los residuos, la capacidad para financiar los proyectos la legislación adecuada para que sea efectiva y estable y finalmente la educación y la capacitación a la comunidad. ISO 14.000: Serie de normas voluntarias diseñadas para demostrar resultados de la gerencia ambiental. Creadas por la organización internacional de estandarización, para implementar y mantener sistemas de gestión ambiental. Las ISO 14001 y 14004 son normas de gestión ambiental. Las ISO 14010, 14011 y 14012 son normas de auditoria ambientales. Las ISO 14021 y 14024 son normas relacionadas con el etiquetado ambiental. Las ISO 14040 y 14043 son normas de evaluación del ciclo de vida. LEGISLACIÓN AMBIENTAL COLOMBIANA: Se refiere a las leyes ambientales por las que se rige el estado colombiano para proteger las riquezas naturales de la nación, mantener un saneamiento ambiental, proteger la integridad del espacio público, el bienestar y mejoramiento de la calidad de vida a partir del derecho de tener un ambiente sano. Para ello se cuenta con un código nacional de los recursos naturales desde 1.974, la Constitución de 1.991, la ley 99-93 y numerosos decretos y leyes promulgados desde el siglo pasado. Además de los convenios y tratados universales. LEYES ECOLÓGICAS: Corresponde a las propiedades inherentes de los ecosistemas que permite mantener su

161


162 estabilidad y dinámica propia, como la ley de las relaciones, la transformación, la economía natural, la sucesión ecológica, los controles biológicos y otros. LICENCIA AMBIENTAL: Es el permiso que concede una autoridad ambiental a solicitud de un peticionario, que incluye los permisos, concesiones y autorización necesarias para adelantar una obra o actividad una vez cumpla con los requisitos que se establecen con relación a un plan de manejo ambiental que permita prever, mitigar o eliminar los impactos ambientales negativos. NIVEL DE VIDA: Estimación cuantitativa del grado de acceso a bienes y servicios de una población o grupo social. NORMAS SOBRE EL AMBIENTE: Criterios presentados de manera que indican los niveles límites que no deben ser sobrepasados por agentes nocivos con el fin de preservar la salud ambiental. Por ejemplo: Las normas estandarizadas sobre calidad del aire son un conjunto de normas clasificadas como primarias y secundarias que recogen los niveles masivos autorizados de un contaminante o indicador como los óxidos de Azufre, Hidrocarburos, óxido de Nitrógeno, oxidantes, fotoquímicos, monóxido de Carbono y materias en suspensión. ORDENAMIENTO ECOLÓGICO: Proceso de planeación para orientar el desarrollo de una nación dirigido a evaluar y programar el uso del suelo, para optimizar y conservar los recursos naturales, además de reducir los impactos ambientales negativos y prevenir y restaurar el deterioro ambiental bajo las normas que rige la legislación ambiental y el derecho de cada país. PLAN DE MANEJO AMBIENTAL: Se refiere a los programas, proyectos y estrategias para minimizar, eliminar o prevenir los efectos negativos que se puedan producir durante la actividad humana o la realización de un proyecto previo a los estudios y evaluación de los impactos ambientales. Para ello se contemplan y se aplican una serie de medidas de tipo preventivo, protectoras, mitigadoras, compensatorias, correctivas sustitutivas, restauradoras, participativas, informativas y de contingencia en cada una de las etapas de la actividad o proyecto a realizar durante la evaluación del proceso. PROBLEMA AMBIENTAL: Transformación o alteración de la estabilidad ecológica y cultural que deteriora la calidad de vida de una población en su contexto social dentro del cual ocurre. PRODUCCIÓN LIMPIA: Aplicación permanente de estrategias integrales y preventivas a las diferentes etapas de un proceso productivo, con el propósito de reducir los riesgos y eliminar los impactos ambientales negativos que afectan la salud y el ambiente. Estas estrategias hacen parte de los programas de ecoeficiencia y estos a su vez de la gestión y la política ambiental de una empresa. Entre los elementos que caracterizan a una producción limpia están: la

conservación y la optimización de la materia prima, la disminución en el consumo de agua y energía, la reducción y la eliminación de emisión, vertimientos y residuos sólidos, la aplicación de tecnología limpia adecuada basada en la recuperación reciclaje, sustitución o revalorización de los componentes que ocasionan el deterioro ambiental. RIESGO: Posibilidad de ocasionar daños , enfermedad, deterioro o muerte a los organismos o ecosistemas cuando se exponen a agentes ambientales o factores de riesgo potencialmente peligrosos. Ejemplo: Frecuencia esperada de efectos indeseables derivados de la exposición de un organismo a un contaminante. El análisis de riesgo permite identificar los factores de riesgo, evaluar su naturaleza y severidad, para su manejo, sea reduciéndolos o eliminándolos y haciendo una buena comunicación de ellos para su prevención. Si la eventualidad esta vinculada al azar se trata de acontecimientos sometidos únicamente a la probabilidad o a sucesos imprevisibles cuya causa desconocemos, pero puede darse la posibilidad de que suceda la eventualidad tratándose de sucesos posibles o previsibles pero no seguros y estar vinculados a la contingencia. El riesgo debe abordarse en términos éticos, políticos y técnicos científicos SALUD HUMANA: El estado de bienestar físico, mental, social y espiritual de los humanos, que permiten una estabilidad entre la óptima capacidad de crecimiento físico y psicosocial, la satisfacción percibida, la autoestima, el conocimiento alcanzado y la ejecución de roles que mantienen y realzan el bienestar del individuo, la familia y la comunidad. SALUD AMBIENTAL: Capacidad del ambiente para mantener su estabilidad y poder absorber el estrés generado por las perturbaciones humanas y naturales. SANEAMIENTO: Proceso de corrección o reparo de algún daño que se ha hecho a los ecosistemas o al ambiente. Como por ejemplo los espacios contaminados que generan daños a la salud de los organismos que ahí viven, en este caso la necesidad de sanear se mide estableciendo valores límites en la contaminación SELLO AMBIENTAL: Es una etiqueta asignada por una institución pública o privada, utilizada para informar a lo consumidores sobre determinados productos menos perjudiciales al ambiente y otros de categoría similar y así promover su consumo SERVICIOS AMBIENTALES: Aproximación al valor de las funciones que prestan los recursos naturales o cualquier factor ambiental. Por ejemplo los servicios ambientales de un bosque es la aproximación al valor anual del servicio que presta el contener la erosión, mantener la biodiversidad y regular el agua y la luz. TECNOLOGÍA ALTERNATIVA: Diseños de técnicas organizadas para optimizar los recursos y disminuir los impactos ambientales negativos. Se llaman también tecnologías suaves o limpias o de bajo impacto ambiental y se relacionan con tecnologías económicas

162


163 y autosuficientes. Se basan en la limitación del uso energético y del agua, el buen uso de materias primas, la reutilización de deshechos y la utilización adecuada del transporte.

BIBLIOGRAFÍA 1. Agencia de proteccion ambiental. 1999 Priorizing environmental ISSUES. Aspects evaluation. EPA Washington D.C. 2. Bretselt. It; van itemel, C. 1997. Ecodesing: A Promising aproach to sistainable production and consumption unep. 3. Clementes, R.B. 1997. Guía completa de la norma ISO 14000. gestión 2000 Barcelona. 4. Comisión europea 2001. Libro verde sobre la política integrada de productos. Brúcelas. 5. CONESA, V. 1995. Guía metodológica para la evaluación del impacto ambiental. 6. Fik sel. J. 1996 desing for envinroment. Creating eco-efficient products and ptocesses. Mc Graw Hill. Madrid

15. PNUMA. 2000. Perspectivas del Medio Ambienta Mundial, 2000. GEO, 2000. Ediciones mundi prensa. Madrid - México. 16. SEOANEZ, M. 1995. Ecología industrial. Mundi prensa. Madrid. 17. SEOANEZ, M. 1996. Ingeniería del Medio Ambiente. Mundi prensa. Madrid. 18. Socolow, W.R. 1994 the greening of industry ecosystems nacional academy press Washinton D.C. 19. Word comission on enviroment and development 1987 our common future Oxford university press – New York 20. TCHOBANOGLOUS, G., THEISEN, H. Y VIGIL, S. 1994. Gestión Integral de Residuos Sólidos. Volumen I Y II. Mc Graw Hill. Interamericana de España S.A. PAGINA WEB

§

Agencia

de

7. Freeman, it. 1998 Manual de prevención de la contaminación industrial. MC Graw Hill. México

http:// www.,epa.gov/ protección Ambiental

§

of

8. DAVIS, M. 1991. Environmental engineering. Mc Graw Hill New York.

http:// www.setac.org/ Society Environmental Toxicology and Chemistry

§

http:// www.ec.gcca/ecocycle/english/ Agencia del medio ambiente Canadá

§

http:// www.idrc.ca International development research centre, Canadá

§

10. MINISTERIO DEL MEDIO AMBIENTE. 1993 Ley 99 de diciembre 22 de 1993. COLOMBIA.

http:// www.sden.org Red de desarrollo sostenible de Colombia

§

http:// www.iadb.org Departamento del Banco Interamericano de desarrollo.

11. -----------------, 1994. Decreto 1753 de 1994. Licencias Ambientales. COLOMBIA.

§

http:// www.rolac.unep.mx/ Programa Naciones Unidas para el medio ambiente.

12. O`Grady, P.; young, R. 1991 ISSUES in concunrrent engineering, journal of desing and manucfacturing. Chapman & hall Nol 1 No.1

§

http:// www.conama.cl/seia Comisión Nacional para el Medio Ambiente, Chile

§

http:// www.iso.org Internacional de Normalización.

§

http:// europa.eu.int/comm/environment/emas Comisión Europea relativa

9. GONZALEZ, Antonio y VEGA, Julio. 2003. Aportes teóricos para la comprensión de la gestión integral de los residuos sólidos. Universidad Santiago de Cali.

13. Organización internacional para la estandarización ISO, 1996 norma UNE-RNISO-14001, especificaciones para llevar a cabo un sistema de gestión ambiental. AENOR. Madrid 14. ORTEGA, R Y RODRIGUEZ, P. 1996. Manual de gestión del Medio Ambiente. Editorial Fundación Mapfre.

Organización

http:// www.fundacionentorno.org/ La fundación Entorn

163

Revista INGENIUM Nº 6  

Número 6 de la Revista Científica de Ingeniería "INGENIUM" Facultad de Ingeniería de la USC