Issuu on Google+

TECCIENCIA DUALIDAD Asociaciones inverosímiles: tácitas, intangibles, paradójicas y FÁCTICAS, inundan mi mente demente… Tu luz es corpuscular cuando hiere mis miradas tu luz es ondulatoria cuando acaricia mis pupilas. Y mi luz… Mi luz es la SOMBRA de tu luz, es recuerdo de tu recuerdo, es desenlace inédito e inaudito, inefable e inusitado.

Y mi luz se opaca se ofusca y se obnubila ante la majestuosidad de tu AUSENCIA.

Tomado: Poemas de Felipe Antonio Santorelli. http://poemascientficos.blogspot.com/

1 Revista de Investigación

Palpo y toco; toco y palpo la hosca memoria de tu prístino beso aquí, bajo la lúgubre soledad de una pálida bombilla.


Revista de Investigaci贸n 2


TECCIENCIA CONTENIDO REVISTA DE INVESTIGACIÓN ECCI

7

Vol. 5 No. 10 ISSN: 1909 – 3667

9

DIRECTOR José Fernando López Quintero EDITOR JEFE Emeterio Cruz Salazar CONSEJO EDITORIAL Emeterio Cruz Salazar José Fernando López Horderlin Robles Carlos Cifuentes PARES EVALUADORES José Fernando López Quintero Carlos Andrés Cifuentes García Emeterio Cruz Salazar Carlos Alberto Rodríguez Sánchez Horderlin Vrangel Robles Carlos Montenegro DISEÑO DE CARÁTULA Cesar Arturo Rúa Gantivar TRADUCCIÓN Luis Orlando Gutiérrez Sosa

DIAGRAMACIÓN E IMPRESIÓN International Print Ltda PBX: 4092424 Interprinter4@hotmail.com La producción intelectual aquí consignada, se presume de propiedad del autor. Cada autor es responsable del artículo publicado en esta revista.

EDITORIAL SISTEMA DE VISIÓN GLOBAL PARA LA PLATAFORMA DE ROBOT SOCCER BASADO EN LA SEGMENTACIÓN DE COLOR. Carlos Andrés Cifuentes. Camilo A. Rodríguez

18

LAS ORGANIZACIONES COMO SISTEMAS BIOLÓGICOS: LA METÁFORA POLÍTICA. Julio Alberto Perea Sandoval.

22

LAS TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN AL SERVICIO DE LA CIENCIA DE LA ESTADISTICA. William Castiblanco Vargas

28

40

PERIODICIDAD Y TIRAJE SEMESTRAL

500 Ejemplares

Contenido

47

53

LECTURA DE DOSÍMETROS TLD EN EL CONTEXTO DE LA PROTECCIÓN RADIOLÓGICA. Emeterio Cruz Salazar Diego F. Aponte. RECONOCIMIENTO DEL IRIS. Horderlin V. Robles. Alenjandro Romano. SEGURIDAD DE UNA CASA CONTROLADA POR MEDIO DE UNA LINEA TELEFÓNICA ALÁMBRICA E INALÁMBRICA Jaime Parra EL USO DE UN PORTAFOLIO DOCENTE EN LA ENSEÑANZA DEL CONCEPTO DE LA DERIVADA: UNA EXPERIENCIA DE AULA INSPIRADA EN LA HISTORIA DE LA CIENCIA. Lida Milena Álvarez García.

3 Revista de Investigación

TECCIENCIA


ESCUELA COLOMBIANA DE CARRERAS INDUSTRIALES –ECCI– DIRECTIVOS

COORDINACIONES

PRESIDENTA DEL CONSEJO SUPERIOR Lic. Luz López de Soler

DESARROLLO EMPRESARIAL, TECNOLOGÍA DE PLÁSTICOS, INGENIERÍA INDUSTRIAL E INGENIERÍA DE PLÁSTICOS. Ing. Sonia Rosalba Bejarano Núñez

RECTOR Ing. Fernando Arturo Soler López VICERRECTOR ACADÉMICO Ing. José Fernando López Quintero VICERRECTOR ADMINISTRATIVO Adm. Eulises Sánchez Salazar SECRETARIO GENERAL Ing. Luisa María Hincapié Rozo

Revista de Investigación

4

MECÁNICA INDUSTRIAL, MECÁNICA AUTOMOTRIZ E INGENIERÍA MECÁNICA Ing. Carlos Mauricio Veloza Villamil ELECTRÓNICA INDUSTRIAL, TELECOMUNICACIONES E INGENIERÍA ELECTRÓNICA. Ing. Franklin Sepulveda Sepulveda

DIRECCIÓN DE POSGRADOS Adm. Segundo A. Martínez Aguilera

ELECTROMEDICINA, DESARROLLO AMBIENTAL, INGENIERÍA BIOMÉDICA E INGENIERÍA AMBIENTAL Ing. Hermann Dávila Tórres

DECANATURAS

TÉCNICO EN SISTEMAS E INGENIERÍA DE SISTEMAS Ing. John Jairo Motta

INGENIERÍA Ing. Fernando Arturo Soler López Jr.

GESTIÓN CONTABLE, CONTADURÍA PÚBLICA, CP. Jaime Betancourt Rodríguez

CIENCIAS ECONÓMICAS Y ADMINISTRATIVAS FCDA Dra. Ninfa María González Bejarano BELLAS ARTES Dra. Esperanza López de Bolívar

MERCADEO Y PUBLICIDAD Adm. Jaime Ortiz Vanegas COMERCIO EXTERIOR Y NEGOCIOS INTERNACIONALES Lic. Haroldo Enrique Puerta Cabarcas DISEÑO DE MODAS Diseñadora Clara Ivonne Riachi Vega

LENGUAS MODERNAS Lic. Luis Orlando Gutiérrez Sosa BIENESTAR INSTITUCIONAL Psic. Claudia Castelblanco Rodríguez


TECCIENCIA

Escuela tecnológica EDITORIAL EDIC. 10

C

on profunda satisfacción hacemos entrega del número 10 de nuestra revista científica TECCIENCIA en la cual se presentan interesantes desarrollos e inquietudes sobre aspectos novedosos de la ciencia biomédica como el sistema de reconocimiento del iris desarrollado por John Daugman intentando su implementación en matlab con algunas modificaciones planteadas por los autores del artículo Msc. Horderlin Robles y Msc. Alejandro Romano. Otro artículo interesante se titula “Sistema de visión global para la plataforma de robot soccer basado en la segmentación de color” la cual presenta una nueva opción para el desarrollo de un sistema de visión en competiciones de robots futbolistas, analizando el desplazamiento y las estrategias para enfrentar al otro equipo, obteniendo resultados de sensibilidad del sistema a los cambios de luminosidad y evaluando el desempeño con y sin distorsión radial, este artículo es presentado por los autores Msc. Carlos Cifuentes y Camilo Rodríguez.

Luego a cargo del ingeniero Jaime Alberto Plazas, se presenta un artículo titulado “Seguridad de una casa controlado por medio de un red telefónica alámbrica e inalámbrica” En cuanto a brindar al propietario de una línea telefónica el control de la seguridad y de las funciones más esenciales de su hogar. Esto es posible gracias al diseño de un sistema que permite al dueño de la línea telefónica manejar desde cualquier otra línea, ya sea alámbrica o inalámbrica desde donde quiera que esté, podrá manejar las funciones principales de su hogar.

5 Revista de Investigación

Pasando al tema de las aplicaciones radiológicas, los Físicos Emeterio Cruz y Diego Aponte, presentan un artículo titulado “Lectura de Dosímetros TLD en el contexto de la protección radiológica” En cuanto a protección radiológica del personal que maneja estos equipos y que ocupacionalmente esta expuesto a radiaciones ionizantes es necesario hablar de los dosímetros TLD, instrumentos sensibles a las radiaciones que permiten medir la dosis acumulada en un determinado periodo de tiempo por la persona que lo porta, para avisar sobre hasta cuando se le permite un trabajo continuo en esta área sin peligro para la salud.


Se abordan en este número otros temas interesantes como “Las organizaciones como sistemas biológicos: La metáfora política” por el profesor Julio Alberto Perea, y desde el punto de vista de la formación y la transmisión de experiencias de aula como el uso de un portafolio docente en la enseñanza del concepto de derivada: Una experiencia de aula inspirada en la historia de la ciencia, escrito por la profesora Lida Milena Álvarez García; y las Tecnologías de la Información y la Comunicación al servicio de la Ciencia de la Estadística del ingeniero William Castiblanco. Esperamos que los aportes expuestos en este trabajo editorial sean útiles a los lectores de TECCIENCIA.

Msc. Fernando Arturo Soler López Rector - ECCI

Revista de Investigación

6


TECCIENCIA SISTEMA DE VISIÓN GLOBAL PARA LA PLATAFORMA DE ROBOT SOCCER BASADO EN LA SEGMENTACIÓN DE COLOR C.A Cifuentes 1 C.A Rodriguez2 CARLOS ANDRES CIFUENTES GARCIA

1

Ingeniero Electrónico egresado de la ECI (Escuela Colombiana de Ingeniería), Docente de Ingeniería Electrónica en la ECCI (Escuela Colombiana de Carreras Industriales) desde el año 2005, con maestría en Ingeniería Biomédica en la UNER (Universidad Nacional Entre Ríos - Argentina), ampliamente interesado en bioinstrumentación vestible, redes de sensores inalámbricas, redes ZigBee y procesamiento de señales embebido, específicamente 1. aplicado a robótica y realidad virtual aplicada a la rehabilitación y telemedicina, adicionalmente he trabajado en investigación relacionada con desarrollo de hardware y software orientado a robótica, imágenes médicas y procesamiento de señales.

Palabras claves: Visión global por computador, Robot Soccer, Seguimiento de Robots

7 Revista de Investigación

RESUMEN

El propósito de este trabajo es dar a conocer una nueva opción para el desarrollo de un sistema de visión en competiciones de robots futbolistas, que permita en siguientes etapas la navegación y el desarrollo de estrategias para enfrentar al otro equipo. El proyecto se desarrolló en tres etapas: En la primera se diseñó y se fabricó la plataforma de Robot-Soccer, la cual se basa en las normas establecidas por la FIRA (Federación Internacional de RobotSoccer y Asociados) en la categoría de Mirosot 5:5. En la segunda etapa, se diseño un algoritmo basado en la detección de color para la identificación de los objetos móviles dentro del campo de juego y finalmente se evalúo el desempeño del sistema. Se obtuvo resultados de sensibilidad del sistema con cambios de luminosidad, por lo cual se probaron dos ambientes con diferentes condiciones de luz, y también se analizó la exactitud de la posición del objeto de interés suministrado por el sistema, evaluando el desempeño con y sin distorsión radial. Finalmente el tiempo de ejecución requerido por el algoritmo por imagen es de aproximadamente 14 ms, siendo muy competitivo con los demás trabajos referenciados en este artículo.


Sistema de visión global para la plataforma de robot soccer basado en la segmentación de color

1. INTRODUCCIÓN

Revista de Investigación

8

La visión por computador es parte fundamental dentro de las competiciones de robots futbolistas, teniendo en cuenta que se involucran diversas áreas que intervienen y complementan al correcto funcionamiento de todo el sistema, como lo son: los módulos robóticos, los sistemas de integración sensorica, y estructuras computacionales como: las máquinas de aprendizaje junto con la inteligencia artificial y los sistemas informáticos para la coordinación de tareas entre múltiples agentes [1]. Estos sistemas de visión robótica pueden ser configurados de diversas formas, tales como: desarrollos en sistemas embebidos [2], basados en técnicas de multi-canalización de dispositivos lógicos configurables [3], o también puede ser basado en sistemas de visión robótica con un montaje más robusto sirviéndose de estaciones de cómputo con mayores prestaciones, con el fin de beneficiar el sistema en cuanto a precisión de la información y rendimiento.

de otros [4]. Finalmente se debe tener en cuenta una adecuada ambientación del entorno que comprende: las propiedades físicas de los robots, la calibración de la cámara [5] [6], las condiciones del campo de juego y de la iluminación, buscando obtener resultados más eficientes y fiables.

La visión por computador presenta múltiples inconvenientes que se deben tener en cuenta para el procesamiento óptimo de la imagen. Una de las dificultades más críticas y de la que depende en mayor parte el éxito del sistema, es la diferenciación de los objetos de interés de la imagen captada. Este proceso, también conocido como segmentación de imagen, debe garantizar una acertada obtención de la información, ya que de esta depende la extracción de las características particulares de cada uno de los objetos de interés y así de esta forma poder clasificarlos o diferenciar unos

El propósito de este trabajo es dar a conocer una nueva opción para el desarrollo de un sistema de visión en competiciones de robots futbolistas, que permita en siguientes etapas la navegación y el desarrollo de estrategias para enfrentar al otro equipo. Cabe aclarar que en el procesamiento no se realizó calibración espacial previa de la cámara. La organización del articulo permite en una primera parte desarrollar el procesamiento de imagen, donde se expone el método usado para segmentación basado en las características del color; en la segunda

El sistema propuesto en este trabajo captura la posición de los robots por medio de visión global, donde se usa una única cámara sobre el entorno del juego. Cada equipo robótico cuenta con colores distintivos para facilitar la clasificación. El procesamiento de imágenes y video esta soportado bajo una aplicación desarrollada en MatLab [7]. Dentro de este trabajo se muestran resultados preliminares en comparación con trabajos como [8] [9], donde se evalúa el efecto de las condiciones físicas del ambiente, como iluminación y propiedades de la cámara, junto con una evaluación de segmentación sobre videos que simulan el ambiente de competencia.


TECCIENCIA sección de materiales y métodos, se presenta el diseño y la descripción física del sistema, así como el modelo del algoritmo de visión propuesto y evaluación del sistema. En la tercera sección se presentan los resultados experimentales preliminares de la evaluación del sistema, siguiendo con una discusión en torno a los resultados y finalmente se presentan las conclusiones y las posibles direcciones futuras del sistema.

(1)

2. PROCESAMIENTO DE IMAGEN

2.1

Identificación de Color

Las imágenes a color son definidas como una función tridimensional “Ec. 1”, f(x, y, (R, G, B)), donde x y y son las coordenadas en el plano. R, G, B (componentes de color, rojo, verde y azul) representados por matrices y la amplitud f es la intensidad de gris que hay en el punto especificado. La imagen también se puede representar por un arreglo matricial de tamaño n x m x 3, donde m es la cantidad de filas, n es la cantidad de columnas y 3 es la componente RGB del pixel especificado. En la “Fig. 1” se observa un pixel y sus componentes de color.

Figura 1: Obtención de las componentes RGB de un pixel. 2.2

Segmentación de Imágenes.

La segmentación es un proceso que consiste en la división de una imagen digital en regiones homogéneas o similares con respecto a una o más características, con el fin de facilitar su posterior procesamiento [10]. La segmentación se basa en las propiedades elementales de una imagen como lo son discontinuidad y similitud, los métodos de la primera propiedad se basan en los cambios fuertes que pueda presentar la imagen, estos procedimientos se interesan por la detección de puntos, líneas y bordes. Dentro de la segunda propiedad se encuentran las técnicas basadas en umbral, crecimiento de regiones, división y fusión. La segmentación por umbral facilita la detección de objetos con determinadas características ya que la forma de operación de esta técnica es convertir la imagen a procesar en una imagen en escala de

9 Revista de Investigación

Este proyecto se basa en dos procesos de la visión por computador como son; la identificación por color que permite diferenciar los dos equipos y la bola de juego, y la segmentación de imágenes que permite procesar la información para detectar objetos de interés dentro de la cancha, los cuales se describen a continuación.


Sistema de visión global para la plataforma de robot soccer basado en la segmentación de color

grises o una imagen binaria, de tal manera que los pixeles de los objetos de interés sean etiquetados con un valor distinto de los pixeles de fondo. Dentro de estos métodos se encuentra la umbralización por color, la cual consiste en tener un rango de componentes RGB para poder así clasificar los pixeles de interés de la imagen. La aplicación de esta técnica se basa en la similitud que puedan tener los pixeles con el rango RGB, la cual está dada por la distancia Euclidiana como:

(2)

10

En donde z es un punto arbitrario en la imagen y m es el rango o vector RGB especificado y T es el umbral. Para que z sea similar a m, la distancia entre ellos debe ser menor que un umbral establecido T, es decir que los pixeles de interés deben cumplir:

Revista de Investigación

(3) Analizando la “Ec. 3” desde un plano tridimensional (RGB), se puede concluir que T es el radio de una esfera y los pixeles dentro de ella son los componentes de interés. 3. MATERIALES Y MÉTODOS El proyecto se desarrolló en tres etapas: (1) se diseñó y se fabricó la plataforma de Robot-Soccer, (2) se desarrolló el algoritmo de visión y (3) se evalúo el desempeño del sistema, a continuación se detalla cada una de estas etapas.

3.1 Diseño y Fabricación de la Plataforma de Robot-Soccer El diseño del entorno se basa en las normas establecidas por la FIRA en la categoría de Mirosot 5:5 [11], en lo que se refiere a las características y valores de las dimensiones del campo de juego, la iluminación, y la cámara y su ubicación en el espacio asignado como cancha, a continuación se definen la especificaciones finales del montaje. El campo de juego está fabricado según las condiciones de la categoría Mirosot 5:5, este mide 180cm x 220cm (ancho y largo), la superficie debe facilitar la iluminación (disminuir reflejos y sombras) y también la movilidad y la detección de los robots [11]. • El sistema de iluminación consta de cuatro reflectores proyectores halógenos, de 500 W cada uno, ubicados a dos metros de altura sobre el campo de juego. La FIRA no especifica condiciones de iluminación, el único requerimiento es que supere los 500 lux en cualquier parte de la cancha. • El dispositivo de captura utilizado en este sistema es una cámara análoga de seguridad cuya resolución es de 420 líneas, el formato que maneja es NTSC, esta tiene una fuente de alimentación de 12 voltios a 110 mAh, el lente de captación es de 3.2 mm que permite tener una imagen completa del campo. La cámara está situada a 2 metros de altura por encima de la cancha. La “Fig. 2” muestra el diseño de la plataforma con su respectiva iluminación y sistema de captura.


TECCIENCIA

Figura 2: Plataforma final de Robot Soccer.

3.2

Desarrollo del Algoritmo de Visión

Teniendo en cuenta las necesidades que requiere el análisis de imágenes en tiempo real para robot soccer, se diseño un algoritmo basado en la detección de color para la identificación de los objetos móviles dentro del campo de juego. En la “Fig. 3” se muestra el procedimiento que se lleva a cabo para localizar los objetos de interés en una imagen, basándose el algoritmo en el método de segmentación por color, a continuación se explican las principales etapas del algoritmo:

Figura 3: Diagrama funcional del procesamiento de imagen para la localización de objetos. Clasificación de color: Se inicia con el preprocesamiento de la imagen, se utiliza el método de umbral para la clasificación de los colores. La imagen de entrada (RGB) es suministrada por una cámara o un video. Cada pixel cuenta con una capacidad de 24 bits, es decir, 8 bits para cada componente RGB [12]. La clasificación se realiza tomando el valor (RGB) de pixel de un objeto de interés en la imagen de entrada con el que se determina el parámetro del umbral. Por lo tanto un conjunto de valores de umbral (RGB) se fija para cada objeto antes de iniciar el procesamiento. Por ejemplo, un umbral para la pelota, y otros dos para identificar cada equipo, con un total de tres umbrales de colores diferentes.

11 Revista de Investigación

Para la digitalización de la señal entregada por la cámara se utiliza un dispositivo de captura de video de marca EasyCap, con interfaz USB 2.0, apoyo de brillo, contraste, tono, saturación y control, soporta los formatos de video NTSC 720x480 y PAL 720x576, y captura de audio, el modo de comunicación con el computador es por medio de puerto USB teniendo así un dispositivo de video similar a una cámara web.


Sistema de visión global para la plataforma de robot soccer basado en la segmentación de color

Segmentación de la imagen: La finalidad del proceso de segmentación, es separar los objetos de interés del resto de la imagen.

Revista de Investigación

12

Este método de segmentación trata de asignar cada pixel a un cierto grupo de pixeles con características de crominancia similares, utilizando para ello etiquetas que determinan a qué grupo o segmento pertenece el pixel, por lo tanto es un método orientado a pixeles. De tal modo que según el valor de umbral establecido, se puede decidir que pixeles conforman los objetos que se buscan y que pixeles simplemente hacen parte del entorno de estos objetos. Los componentes de valor umbral establecido, o adquirido a partir del pixel contenido en el objeto de interés, son comparados con cada nueva imagen de entrada de la fuente de video, teniendo como resultado la identificación de algunos “segmentos” o “manchas”, siendo los objetos a los que se les quiere hacer seguimiento. Clasificación y seguimiento de objetos: Luego de la segmentación de color [13], se emplean los operadores morfológicos de erosión y dilatación, con el fin de filtrar el ruido generado por la umbralización y eliminar las pequeñas perturbaciones, haciendo las regiones de interés más compactas. A continuación se etiquetan las regiones encontradas, siendo los objetos de interés (pelota y jugadores). Esta operación se aplica asignando un número de uno hasta N, siendo N el número de objetos en la imagen. Al tener el objeto etiquetado, se

pueden extraer las características, como centro de masa, área y caja delimitadora, para el rastro del objeto. Conociendo estas propiedades, es posible identificar a que objeto hace referencia dentro de la cancha, por ejemplo la pelota se conocería como el de menor valor de área entre todos los objetos detectados. De manera continua y en tiempo real las coordenadas del objeto localizado serán mostradas en pantalla de acuerdo a la resolución de la fuente de video, indicando la posición del centroide (pixel que indica centro de masa del objeto) dentro de la imagen y encerrando en la caja delimitadora cada objeto de interés. 3.3. Evaluación La evaluación del algoritmo de visión se realizó planteando dos escenarios de pruebas. El primero de ellos, consiste en evaluar la sensibilidad del sistema con cambios de luminosidad, por lo cual se probaron dos ambientes con diferentes condiciones de luz, ya que el factor iluminación determina una mejor detección y diferenciación de color. En un primer entorno se adiciona luz artificial mediante cuatro reflectores, iluminando uniformemente toda la cancha. En un segundo entorno el sistema está en un cuarto cerrado con luz natural. El factor evaluado en ambos entornos, son los niveles de las componentes RGB para cada pixel en la imagen.


TECCIENCIA

Finalmente, se evaluó el sistema completo, con la cámara de video propuesta a 2 metros de altura como se planteó inicialmente, pero la calidad del color fue bastante pobre, dificultando la evaluación de la detección de color, por lo tanto se realizo un video armado con una serie de imágenes simuladas para probar el algoritmo.

Figura 4: Resultado de la captura adicionando luz artificial al sistema de visión global. a) y b) muestran una captura del entorno y su correspondiente representación de intensidad de pixel. c) y d) representan una captura del entorno y su diagrama de intensidad de pixel involucrando dos objetos en escena.

13

4. RESULTADOS En las “Fig. 4” y “Fig. 5” se muestran algunas capturas reales, obtenidas en dos ambientes de luz diferentes. La “Fig. 4” representa un entorno acondicionado con luz artificial, y su correspondiente diagrama de valores de intensidad de pixel para cada punto de la imagen. La “Fig. 5” muestra un par de capturas en un ambiente con luz natural sujeto a variaciones, en donde también se observa que los valores de intensidad de los pixeles se han reducido considerablemente.

Figura 5: Resultado de la captura con luz natural en el sistema de visión global. a) y b) muestran una captura del entorno y su correspondiente representación de intensidad de pixel. c) y d) representan una captura del entorno y su diagrama de intensidad de pixel involucrando dos objetos en escena.

Revista de Investigación

El segundo escenario de prueba consta de medir la exactitud del dato entregado por el sistema de visión, comparado con la medida física de la posición de un objeto tomada en el campo de juego, se realizó dicha prueba en dos entornos. En el primero se elaboró un recuadro de 64x48 cm para simular la cancha y la captura se realizó con una cámara que no presenta distorsión radial, luego se realizaron las respectivas mediciones de las posibles posiciones de la pelota dentro del recuadro. La segunda prueba se llevó a cabo en el entorno de juego real, con la cámara análoga y nuevamente se realizaron las respectivas mediciones.


Sistema de visión global para la plataforma de robot soccer basado en la segmentación de color

Para la segunda evaluación. La precisión del sistema fue valorada de acuerdo a dos situaciones diferentes. Inicialmente se diseñó una cancha a escala y se realizó un montaje de visión global utilizando una cámara web de 1,3 mega pixeles equipada con un sensor CMOS de 640x480, situando la pelota en varios puntos del recuadro. La “Fig. 6” muestra el resultado obtenido por la aplicación para una posición arbitraria de la pelota dentro del recuadro.

Revista de Investigación

14 Figura 6: Imagen procesada por el algoritmo, para la localización de la pelota dentro del recuadro.

MUESTRA 1 2 3 4

MEDICIÓN FÍSICA Pos X (mm) Pos Y (mm) 480 110 527 91

240 410 375 95

MEDICIÓN DETECTADA Pos X (px)

Pos Y (px)

Pos X (mm)

480 102 527 93

227 403 378 92 Promedio D. Estándar

0 8 0 2 2,5 3.28

ERROR Pos Y (mm) 13 7 3 3 6,5 4.1

La “Fig. 7” muestra una captura del campo real de juego en un instante de la ejecución del algoritmo de visión. A diferencia del procedimiento anterior “Fig. 6”, esta imagen es obtenida por medio de la cámara análoga, ubicada a dos metros por encima del campo.

Figura 7: Imagen procesada por el algoritmo, para la localización de la pelota. La captura de la imagen es realizada por una cámara análoga con una resolución de 640x480.

La tabla 1 muestra 4 medidas aleatorias de posición de la pelota, donde se observa la posición real y la posición proporcionada por el sistema de visión.

En la tabla 2 se exhiben 4 mediciones arrojadas por el sistema de visión junto con las mediciones físicas realizadas en el campo. A diferencia del experimento anterior la equivalencia de un pixel difiere de la medida física real.

Tabla 1. Resultados de las mediciones realizadas a partir de las diferentes posiciones de la pelota. Un pixel representa 1 mm en el recuadro.

Tabla 2. Resultados de las mediciones realizadas a partir de las diferentes posiciones de la pelota en la cancha real. Para este caso un pixel equivale aproximadamente a 2 cm en el campo.


TECCIENCIA MEDICIÓN DETECTADA

ERROR

Pos X (mm)

Pos Y (mm)

Pos X (px)

Pos Y (px)

Pos X (mm)

Pos Y (mm)

1 2 3 4

223,5 222 139 41

67,5 190,5 111 43

544 516 327 75

133 424 265 79 Promedio D. Estándar

97 72 49 7 56,25 33.1

2 43 43 7 23,75 19.33

La “Fig. 8” muestra el procedimiento que se lleva a cabo para la segmentación por color en cada elemento dentro del campo de juego sobre imágenes simuladas, En las “Fig. 9(a)”, “Fig. 9(b)” y “Fig. 9(c)” se observa en frames independiente de la clasificación de los dos equipos, En la “Fig. 10” se revela la imagen final o post-procesada, con sus respectivos centroides y etiquetas para diferenciar la pelota y cada jugador en la cancha.

Figura 8: Ejemplo de un frame de prueba para el algoritmo.

Figura 9: Frames segmentados de la “Fig. 10” por el algoritmo propuesto (a) Equipo A, (b) Equipo B, (c) Pelota.

Figura 10: Imagen procesada en donde se calculan los centroides de los objetos y se dibujan las cajas delimitadoras. 5. CONCLUSIONES A pesar de la baja calidad de la cámara se puede observar en las “Fig. 4c” y “Fig. 4d” una amplia diferencia del objeto de color verde con respecto al entorno de la cancha, mostrando una intensidad importante en la componente verde, por otro lado en las “Fig. 5c” y “Fig. 5d” muestran un disminución en la intensidad de color a causa de la reducción de la iluminación, de igual manera en la pelota se observa una degradación del color. Comparando la “Fig. 4” se observa que se adiciona un umbral aproximadamente sobre 100 niveles de color (8 bits) versus la “Fig. 5”, donde esta última se encuentra si en el efecto de la iluminación artificial. El resultado del experimento registrado en la “Fig. 6” si distorsión radial, muestra una adecuada precisión del sistema para la obtención de las coordenadas de posición del objeto en estudio en esta aplicación, donde el promedio del error para las cuatro medidas tomadas fue 2.5 pixels en la coordenada X y 6.5 pixels en la coordenada

15 Revista de Investigación

MEDICIÓN FÍSICA MUESTRA


Sistema de visión global para la plataforma de robot soccer basado en la segmentación de color

Y. Por otro lado la “Fig. 7” muestra distorsión radial, el cual es un fenómeno habitual en las cámaras o dispositivos de captura, alterando la simetría de la imagen, perturbando de esta forma la exactitud del sistema, donde el promedio del error para las cuatro medidas tomadas fue 56.25 pixels en la coordenada X y 23.75 pixels en la coordenada Y. El tiempo de ejecución requerido por el algoritmo, para efectuar de manera correcta la segmentación completa de cada imagen (320x240 – “Fig. 8”) es de aproximadamente 14 ms, lo cual incluye el filtrado de perturbaciones y el cálculo del centroide junto con las coordenadas de la localización de todos los objetos móviles, siendo muy competitivo comparado con los demás trabajos referenciados en este artículo. Este tiempo se logro con un sistema con computador de 2.0 GHz de CPU y 4GB de memoria.

Revista de Investigación

16

La evaluación del efecto de la luz sobre la precisión del sistema basada en variaciones de luz ambiental concluye sobre la importancia de mantener óptimas condiciones de iluminación en el entorno, con el fin de conservar los colores de los objetos en un nivel inalterable, evitando de esta forma fenómenos como brillos aleatorios que pueden incidir en la intensidad del color de los objetos que se desean detectar, generando problemas que pueden afectar directamente el método de segmentación usado. Así, con buena iluminación se establecen umbrales fijos durante todo el funcionamiento del sistema.

Dentro de estos resultados preliminares el sistema de visión global presentado en este documento tiene la capacidad de hacer seguimiento a un número ilimitado de móviles, lo cual se hace con un buen grado de exactitud a la hora de suministrar la información de la posición de los móviles dentro del campo. Esta capacidad del sistema se ve alterada y disminuye, debido a la distorsión presentada en la cámara. La incorporación de un sistema para la calibración automática de la cámara, mejoraría las condiciones y respuesta del sistema, manteniendo la alta capacidad ofrecida por el algoritmo de visión. Para futuras mejoras en este sistema de visión, se ha desarrollado una aplicación al algoritmo principal, el cual rastrea la ruta de un objeto (pelota o robot) dentro de la cancha e imprime el recorrido realizado por este. Esta aplicación se desarrollo con el fin de dar el primer paso para implementar un algoritmo de predicción y poder generar un modulo de estrategias de juego. REFERENCIAS [1] H. Ren, Q. Zhong. A New Segmentation Method Based on HIS Color Space for Biped Soccer Robot. China: Information and Computer Engineering College, Northeast Forestry University, 2008. [2] A. Sluzek, P. K. Duy. Embedded Vision Module for Robot-Soccer. Warszawa (Poland): Nanyang Technological University, 2006. [3] Y. Nagaonkar, B. Call, S. Cluff, J. Archibald, D. J. Lee. Autonomous Mobile Robotic System with Onboard Vision


TECCIENCIA [9] J. Sitte, F. Maire, N. Keeratipranon. Beginners Guide to Khepera Robot Soccer. Australia: School of Software Engineering and Data Communications, Queensland University of Technology, 2003. [10] I. García. Visión Artificial y Procesamiento Digital de Imágenes Usando Matlab. Ibarra (Ecuador): Escuela de Ingeniería de la PUCE-SI, 2008. [11] FIRA. FIRA MiroSot Game Rules. Federation of International Robosoccer Association [Online]: Available: http:// www.fira.net/. [12] F. Tong, Z. Chong, M. Meng. Sensor Fusion and Play Strategy Programming for Micro Soccer Robots. China: Department of Electronic Engineering, The Chinese University of Hong Kong, 2004. [13] G. Yasuda, B. Ge. Vision Based Environment Recognition and Movement Control for Autonomous Wheeled Mobile Robots. China: Liao Ning Key Lab of Intelligent Information Processing, Dalian University, 2009.

17 Revista de Investigación

using Configurable Logic. Utah (USA): Department of Electrical and Computer Engineering, 2005. [4] X. Jie, S. Peng-fei. Natural Color Image Segmentation. China: Institute of Image Processing and Pattern Recognition, Shanghai Jiao Tong University, 2003. [5] H. Pratomo, S. Zakaria, S. Prabuwono. A Study on Image Calibration Technique for Autonomous Robot. Selangor (Malaysia): Center for Artificial Intelligence Technology, 2009. [6] D. Bailey, G. S. Gupta. Automatic Estimation of Camera Position in Robot Soccer. New Zealand: School of Engineering and Advanced Technology, 2008. [7] R. Gonzalez, R. Woods, S. Eddins. Digital Image Processing Using MATLAB. Pearson Prentice-Hall, 2004. [8] D. Ball, G. Wyeth, NUSKE Stephen. A Global Vision System for a Robot Soccer Team. Australia: School of Information Technology and Electrical Engineering, the University of Queensland, 2004.


Las organizaciones como sistemas biológicos: la metáfora política

LAS ORGANIZACIONES COMO SISTEMAS BIOLÓGICOS: LA METÁFORA POLÍTICA J.A. Perea Sandoval 1 JULIO ALBERTO PEREA SANDOVAL

1

Administrador de empresas de la Universidad Nacional de Colombia, Especialista en Gerencia de Negocios Internacionales de la Escuela de Administración de Negocios y Maestrante en Administración con énfasis en investigación de la Universidad Nacional de Colombia. Estudios en Gerencia Social y Gestión Comunitaria y Docencia Universitaria. Actualmente se desempeña como responsable de las investigaciones del sector transporte en el Departamento Administrativo Nacional de Estadística. Docente de planta de la Escuela Colombiana de Carreras Industriales vinculado desde el 2004 a la Institución. Coautor de la publicación “Competencia 4: Proceso administrativo en todo tipo de organizaciones”. INTRODUCCIÓN

Revista de Investigación

18

El presente documento se enmarca dentro de las teorías biológicas evolucionistas aplicadas a la gestión. La pregunta que se quiere responder es: ¿Cómo podría entenderse, desde la metáfora y el conocimiento biológico, la acción estratégica y ajustada que hace que las organizaciones actúen políticamente? Para tratar de responderla, el posicionamiento teórico que se utiliza es el de los modelos biológicos evolucionistas como metáforas organizacionales. El documento se compone de esta introducción; de una segunda parte donde se explica los conceptos de metáforas y el de metáforas organizacionales; una tercera parte donde se exponen los modelos biológicos evolucionistas que se utilizan en las metáforas organizacionales; una cuarta parte donde se desarrolla el concepto de política y de organizaciones como sistemas

políticos; y para terminar se exponen unos comentarios finales. Hay dos conclusiones en este documento: la primera es que para sobrevivir las organizaciones emplean cualquier acción política que las beneficie; y la segunda hay un campo de estudio amplio para, a través del estudio de la biología, encontrar acciones estratégicas en las organizaciones que sean sostenibles. LAS METÁFORAS ORGANIZACIONALES

La metáfora es un recurso literario que consiste en identificar dos términos entre los cuales existe una semejanza. Uno de los términos es literal y el otro se usa en sentido figurado. En términos epistemológicos la metáfora proporciona nuevos conocimientos hacien-


TECCIENCIA

Las metáforas organizacionales han sido una alternativa para el mejor entendimiento de los problemas empresariales a través del conocimiento en otros campos del saber, es así como una de las primeras aproximaciones que se hizo a la teoría administrativa fueron hechas desde el campo de las ciencias físicas y en especial de la ingeniería. Las nuevas concepciones de la complejidad (Morin, 2000) han llevado a que el estudio de las ciencias se vuelque más hacia lo biológico y lo ecológico que hacia la física tradicional (Capra, 1998). Es por ello que en la teoría de las organizaciones se encuentran nuevos aportes de otras ciencias denominados agenciamientos (Guyot, 2005) que permiten lograr un mayor entendimiento de la problemática. (Bueno, 2008) (Montoya, 2009). MODELO BIOLÓGICO EVOLUCIONISTA

La biología ha intentado explicar la evolución de las especies. Autores como Darwin, Lamark, y otros han generado escuelas alrededor de sus teorías. Darwin propone que, en la evolución, todos los seres vivos provienen de un mismo ancestro común y que existen unos mecanismos graduales que explican la evolución y el hecho de que los organismos posean estructuras que parecen diseños inteligentes (Méndez, 2007). La obra de Darwin generó tres importantes aportes a la teoría del

evolucionismo: a. El mecanicismo, b. el pensamiento poblacional y c. la posibilidad de creación en nuevos campos. Lamark plantea, en cambio, varios aspectos: a. el origen de la vida por generación espontánea, b. la tendencia innata de la vida a la perfección y c. la adaptación de los organismos al medio se debe, no solo a su impulso vital que los impulsa hacia una creciente perfección, sino a un mecanismo específico de ajuste al medio: la herencia de los caracteres adquiridos. Otros autores posteriores a Darwin y Lamark han generado nuevos desarrollos en el tema de la evolución, como la teoría sintética, con Dobzhandsdy en genética, Mayr en las especies de seres vivos y Simpson en las grandes categorías de los organismos. La teoría biológica del neodarwinista, en que se incluyen aportes de otras áreas del conocimiento como la economía y la sociología. Esta como teoría de la unificación de la interacción social en y entre especie ha conducido a una integración del análisis económico en biología (Montoya, 2009). Dentro de las aplicaciones que los modelos biológicos evolutivos transfieren a la teoría de gestión y modelos organizacionales, se tiene el modelo evolucionista de gestión, cuyas premisas son: a. el objetivo general es la sobrevivencia, b. la competencia es la solución para la sobrevivencia, c. lo relevante es adaptarse, d. los humanos reaccionan a la ecuación estímulo respuesta y e. las partes tienen disfunción (Montoya, 2009).

19 Revista de Investigación

do imagen, relacionando dialécticamente lo abstracto con lo concreto, la lógica formal con la lógica figurativa, la sintáctica, la semántica con la pragmática, la complejidad con la simplicidad. (Mendoza, p. 12)


Las organizaciones como sistemas biológicos: la metáfora política

Por otro lado, Lara y Taboada (2005) proponen, como otra aplicación, la cooperación empresarial. Esta teoría se interesa en la idiosincrasia entre firmas y el avance técnico (innovación), y su base conceptual tiene como marco las rutinas organizacionales (reglas de decisión) como medio para responder a los estímulos del mercado. Tiene como supuestos la racionalidad limitada, firmas heterogéneas, las innovaciones pueden ser endógenas, hay conocimiento tácito y codificado, hay desequilibrio, el funcionamiento es en tiempo real lo que hace que existan posibles trayectorias dependientes de las decisiones pasadas. El objetivo principal es sobrevivir en medio del cambio buscando obtener beneficios positivos.

Revista de Investigación

20

Una tercera aplicación, los ecosistemas de negocios, es un concepto de Moore, que se basa en que una comunidad económica apoyada por una fundación de la interacción de organizaciones e individuos se convierte en los organismos del mundo de negocios. Esta comunidad económica produce bienes y servicios de valor a clientes que son los miembros del ecosistema. Las organizaciones miembro también incluyen a los proveedores, productores líderes, competidores, y otras organizaciones que apoyan. Con el tiempo, ellos codesenvuelven sus capacidades y papeles, y tiende a encuadrarse con las direcciones ponga por uno o las compañías más centrales. Esas compañías que sostienen los papeles de dirección pueden cambiar con el tiempo, pero la función de líder del ecosistema es estimada por la comunidad porque les permite a los miembros que

se acerquen a las visiones compartidas alinear sus inversiones y encontrar los papeles que se soportan mutuamente. (Moore, 1996, 2005) Montoya, Montoya y Castellanos (2009) indagan por dos modelos adicionales, como son: la bioingeniería y el metabolismo socioeconómico, vinculados con el modelo de ecosistema de negocios. ORGANIZACIONES COMO SISTEMAS POLÍTICOS

La idea de la política, como lo expresaron Montoya y Montoya (2003) proviene de la visión de que, donde los intereses divergen, la sociedad debería proporcionar a los individuos un medio que les permitiera arreglar sus diferencias mediante la consulta y la negociación. La política conlleva a analizar las relaciones que se dan en ella: intereses, conflictos y poder. Los intereses como un complejo conjunto de predisposiciones que abarcan deseos, expectativas e inclinaciones que conducen a la persona u organización a actuar en una dirección en vez de otra. Existen intereses de función y de carrera. Los conflictos surgen siempre que los intereses chocan y el poder es el medio a través del cual los conflictos de intereses son resueltos en última instancia (Montoya y Montoya, 2003). Con la metáfora política se anima a ver las organizaciones como amplias redes de gente con intereses divergentes que se reúnen por conveniencia y cooperación.


TECCIENCIA COMENTARIOS FINALES

Con esto no estamos justificando las acciones que las organizaciones toman, evadiendo un marco regulatorio, para sobrevivir. La estrategia con la que se arropa la organización, puede en determinados momentos saltar los marcos normativos, jurídicos o éticos para lograr su finalidad. De aquí se suscitan varias preguntas que se pueden desarrollar en futuros trabajos: ¿Qué estrategias deberán adoptar las empresas para que sus acciones y relaciones políticas tengan un carácter sostenible para el suprasistema en el que se encuentra? ¿Qué nos aporta el estudio de modelos biológicos para encontrar estrategias benéficas para la organización y su entorno?

Castellanos Oscar, Montoya Alexandra. 2002. Biogestión. En: Revista Innovar. No. 18, Julio - Diciembre De 2002. P. 55 Castellanos, Oscar, Montoya, Alexandra, Montoya Iván. 2004. La gerencia genética: una metáfora biológica aplicada a la gestión de la biotecnología. En: Revista Innovar, Julio – Diciembre De 2004, No. 24 ISSN 0121-5051. P. 93-104 García Alejandro, Lara Arturo, Taboada, Eunice. 2004. La coordinación “híbrida” desde las perspectivas de Williamson y de Nooteboom. Análisis Económico Núm. 40, vol. XIX. Primer cuatrimestre de 2004 Guyot, Violeta, Becerra, Marcela. 2005 La Epistemología Y Las Prácticas De Conocimiento. En: Centro Latinoamericano De Estudios De Ilya Prigogine, Unsl. Méndez Iglesias Marcos, 2007 La Evolución en marcha: conceptos, lógica y metodología en la Ecología Evolutiva. Depto. Biología de Organismos y Sistemas (Ecología), Universidad de Oviedo. Uppsala (Sverige)

REFERENCIAS

Montoya, Alexandra, Montoya Iván. 2004. Las organizaciones y su método de entendimiento. En: Revista Innovar, Julio – Diciembre De 2003, No. 22 ISSN 0121-5051. P. 63-72

Capra. Frijof. 1998 La trama de la vida: Una nueva perspectiva de los sistemas vivos. Anagrama, Colección Argumentos, Barcelona,

Montoya, Alexandra. 1999 Gerencia Genética. Universidad Nacional de Colombia, Bogota. Tesis de Maestría en administración de empresas

21 Revista de Investigación

En todos los modelos biológicos evolucionistas que fueron revisados con anterioridad hay varios elementos en común y tienen que ver con la finalidad última de los entes biológicos: la sobrevivencia. Es por ello que los estos entes biológicos, en los cuales ahora incluimos a las organizaciones, en el sentido que lo expresa Dávila () “…son organismos sociales, orientados al logro de objetivos, con una división dada del trabajo, etc.” generan acciones a corto y largo plazo para alcanzar ese objetivo.


Las tecnologías de la información y la comunicación al servicio de la ciencia de la estadística

LAS TECNOLOGÍAS DE LA INFORMACIÓN Y LA COMUNICACIÓN AL SERVICIO DE LA CIENCIA DE LA ESTADÍSTICA W. Castiblanco Vargas1 WILLIAM CASTIBLANCO VARGAS

1

Ingeniero Mecánico, Universidad de los Andes, Santafé de Bogotá – 1997, Especialización, Estadística aplicada, Universidad los Libertadores –2010, Maestría: candidato a Magister en Estadística, Universidad Nacional. Asesor Estadístico, Docente en las carreras de Ingeniería Biomédica, Ingeniería Ambiental, Ingeniería de Sistemas; en las áreas de estadística y probabilidad, matemáticas, físicas, gerencia de proyectos, administración, evaluación de proyectos, mecánica de fluidos y termodinámica.

RESUMEN

Revista de Investigación

22

Gracias a los grandes avances tecnológicos que la humanidad se ha estado viendo inmersa en todos los ámbitos de la ciencia y el conocimiento, ha obligado a la utilización e innovación de la Tecnología de la Información y la Comunicación como medio útil y eficiente para la búsqueda de solución de problemas sociales y ambientales. El desarrollo tecnológico en el campo informático ha permitido la aplicación de herramientas que facilitan la búsqueda y solución de problemas donde se involucre los estudios estadísticos. La Ciencia de la Estadística se ha visto beneficiada con estos adelantos, hoy en día cuenta con software que permite la búsqueda, análisis, clasificación e interpretación de los datos de manera eficiente y sobre todo, de fácil manejo por el investigador. Palabras claves: Estadística, Tecnologías de la información y la comunicación, estadística descriptiva y estadística inferencial.

SUMMARY

Taking into account the different technological advances that the humanity has been involving in all fields of science and knowledge, has been necessary the use and the innovation of Information and Communication Technology as an useful and efficient way to search the solution of social and environmental problems. The


TECCIENCIA technological development in the area of information technology computing has allowed the application of tools that make possible searching the solution of problems where it is (has) involved the statistics studies. The Statistics Science has been benefit with this development, today it has software that has allowed the search, analyses, classification and understanding of data in accuracy way and also the easy way to handle by the investigator.

Toda investigación experimental realizada en las ciencias sociales, de la salud, la ingeniería, entre otras, implica la captura, ordenamiento, clasificación, interpretación y análisis de datos (William Mendenhall, 1997), en la actualidad esta rutina de actividades se lleva a cabo siempre y cuando se cuente con un software que agilice el procesamiento y permita interactuar con el usuario y los datos mismos, sin importar la clase, origen o fenómeno de estudio. Los métodos de

estudio se comportan de manera similar en donde se genera un patrón del manejo de la información computacional para los cálculos estadísticos1 . Dentro de la tecnología de la información y la comunicación existe diversos softwares especializados para el cálculo de dichos cálculos; de los cuales se destaca SPSS (Statistical Package for the Social Sciences), R (software libre), SAS, MINITAB, además existen otros menos especializados pero que de igual forma se puede trabajar con ellos y obtener el máximo provecho, entre ellos se encuentra el programa EXCEL considerado como un software de fácil manejo, no es necesario poseer conocimientos avanzados para su operatividad, no requiere programación especializada para la ejecución de tareas específicas, por otra parte, es de fácil consecución debido a que se encuentra instalado en el hardware de las computadoras que posee el paquete de Microsoft Office2 . Este software contiene un paquete estadístico que realiza con los datos cálculos, gráficos y proyecciones entre otras funciones.

1

Ingeniero Mecánico, Especialista en Estadística Aplicada. Docente Universitario. Candidato a maestría en Estadística.

2

Pérez López, Cesar. Técnicas estadísticas con SPSS. Madrid: Prentice Hall, 2001.

23 Revista de Investigación

La era del modernismo y los grandes avances industriales y tecnológicos a nivel mundial durante el siglo XXI están realizando constantes cambios en el uso y manejo de las tecnologías de la información y la comunicación (TIC). En donde la sociedad juega un papel trascendental en este proceso de transformación tanto cultural como social y se ha preparado con el propósito de adquirir estos novedosos conocimientos que la conduzcan a la exploración y hallazgos de la ciencia misma, en donde la estadística como ciencia juega un papel primordial para el conocimiento.


Las tecnologías de la información y la comunicación al servicio de la ciencia de la estadística

Terminología más común. Estadística descriptiva. Para ver su aplicabilidad se debe conocer y dominar determinada terminología especializada propia de la ciencia de la estadística. Por ejemplo, la estadística se divide en descriptiva, inferencial y no paramétrica, dentro de la rama de la descriptiva que se encarga de resumir, describir y explorar datos3 , existe el análisis y cálculo de los datos cuantitativos. Según William Mendenhall para describir los datos cuantitativos los clasifica en métodos numéricos y métodos gráficos. Los primeros los clasifica como medidas de tendencia central que muestran la concentración de los datos con respecto a un valor específico, medidas de variación que miden la dispersión de los datos y medidas de posición relativa que muestran la posición de algún o algunos datos específicos con respecto al conjunto de datos.

Revista de Investigación

24

Las medidas más importantes de tendencia central se encuentran la media aritmética, la mediana y la moda. La media es la más común y la más utilizada en diferentes campos de la ciencia. Se clasifica en media aritmética simple (se trabaja con datos sin agrupar), la media aritmética ponderada (se trabaja con datos organizados en tablas de frecuencias), la media geométrica se utiliza cuando los datos tienen un crecimiento o su progresión es geométrica o aproximadamente geométrica, la media

armónica que es afectada por todas las observaciones y la media cuadrática entre otras4 . Adicionalmente, se encuentra la mediana que muestra el punto de equilibrio 50% a lado y lado de los datos ordenados bien sea en forma ascendente o descendente y finalmente, se tiene la moda que representa el dato que más se repite en la muestra o en la población. Con relación a las medidas de variación se encuentra la varianza; según Ciro Martínez la define como la media aritmética de los cuadrados de las diferencias entre los valores que toma la variable y su media aritmética; adicionalmente, se encuentra la desviación estándar que mide el grado de dispersión que tienen los datos con respecto a la media. Por otra parte, dentro de las medidas de posición relativa se encuentra el valor de z de algún valor específico de la muestra que mide la posición relativa del dato con respecto a la media aritmética. Es importante resaltar que dichos cálculos se realizan a una población o a una muestra seleccionada. Lo importante que se debe recordar es si se está trabajando con datos estadísticos en el caso de la muestra o si se está trabajando con datos paramétricos para el caso de la población.

3

Mendenhall, William. Probabilidad y Estadística para Ingeniería y Ciencias. México: Prentice Hall, 1997.

4

Martínez Bencardino, Ciro. Estadística y Muestreo. Bogotá. D.C: Ecoe Ediciones Ltda, 2005.


TECCIENCIA Uso de la Tecnología

¿Cómo por medio de la herramienta de EXCEL se realiza dicha actividad? A manera de ejemplo se busca analizar e inferir la edad de los niños de un colegio determinado de grado 6° a 11°; se selecciona de forma aleatoria una muestra de tamaño n = 20 de una población de tamaño N definida, los datos se muestran en la tabla 1. La variable de interés es la edad de los niños y se debe realizar la estadística correspondiente, el procedimiento es el siguiente: con el cursor se dirige a la barra de herramientas y se selecciona el ícono Datos; luego se elige en la ventana desplegada el icono Análisis de Datos en donde se despliega una ventana en que se escoge la función Estadística descriptiva y se da Aceptar, ver figura 1. El siguiente paso, es diligenciar la tabla de Estadística descriptiva, hay que incluir la información requerida como: Rango de entrada donde se selecciona los

datos correspondientes para su análisis, debe encontrarse en forma de columna o fila con el propósito de ser evaluados, subsecuentemente por defecto aparece Ordenado por columna o fila de acuerdo como se hayan seleccionado los datos, luego se elige Rótulos en la primera fila donde al seleccionar los datos también se incluye el título. posteriormente en el cuadro de Opciones de salida se activa la ventana Rango de salida que al escoger la banderilla ubicada al lado derecho de la casilla y luego en la hoja de Excel se ubica el lugar que se pretende que aparezca la información al pulsar en la banderilla de nuevo, ver figura 2. Siguiendo el procedimiento se activa la casilla Resumen de estadísticas con el propósito de mostrar la tabla con los cálculos estadísticos, como último paso se pulsa la casilla Aceptar que enseña el Resumen Estadístico. Para una mejor interpretación y comprensión de la información allí existente se puede modificar los nombres de las casillas que representan los cálculos estadísticos, ver figura 3. Lo más importante a la hora de mostrar una tabla estadística es la manera clara como se expone los resultados. Esta es la recomendación más importante que se debe tener en cuenta en el instante de realizar cálculos estadísticos, independiente del software estadístico que se utilice.

25 Revista de Investigación

Aunque los cálculos de las estadísticas anteriormente enunciadas son fáciles pero dispendiosos de realizar por medio manual su ejecución conduce a continuas equivocaciones, aparece la funcionalidad de la tecnología de la información y la comunicación como herramienta computacional especializada que subsana dicha dificultad.


Las tecnologías de la información y la comunicación al servicio de la ciencia de la estadística

TABLA No 1 EDAD DE LOS NIÑOS DE COLEGIO X

FIGURA No 1. ANÁLIS DE DATOS

FIGURA No 2. ESTADÍSTICA DESCRIPTIVA

Revista de Investigación

26

FIGURA No 3. RESUMEN ESTADÍSTICO


TECCIENCIA CONCLUSIONES

REFERENCIAS

Los cambios culturales acompañados de los grandes y rápidos avances tecnológicos del siglo XXI, conlleva a la ciencia de la estadística al uso de las TIC. El conocimiento de las diferentes herramientas informáticas estadísticas permite de manera clara y rápida la interpretación e inferencia de los resultados.

PÉREZ LÓPEZ, CESAR. Técnicas estadísticas con SPSS. Madrid: Prentice Hall, 2010

HAIR, ANDERSON,TATHAM, BLACK. Análisis Multivariantes. 5° Ed. PEARSON, Prentice Hall. 2008. JHONSON,Dallas E. Métodos Multivariados aplicados al análisis de datos. Soluciones empresariales. 2000 MENDEHALL,William.ProbabilidadyEstadística para ingeniería y ciencias. Prentice Hall. 1995

27 Revista de Investigación

Es una dualidad que conduce a la generación de conocimiento en campos donde el análisis observacional y las mediciones manuales o mentales se encuentran limitadas, de esta manera, ciencia y tecnología se fusionan para aportar a la exploración del conocimiento.

MARTÍNEZ BENCARDINO, CIRO. Estadística y Muestreo. Bogotá. D.C: Ecoe Ediciones Ltda, 2005


Lectura de dosímetro TLD en el contexto de la protección radiológica

LECTURA DE DOSÍMETROS TLD EN EL CONTEXTO DE LA PROTECCIÓN RADIOLÓGICA. E. Cruz Salazar 1 D.F. Aponte Castañeda2 EMETERIO CRUZ SALAZAR

1

EMETERIO CRUZ SALAZAR, Ms(c) en Física Medica , Universidad Nacional de Colombia, especialista en Gerencia y Gestión de Proyectos, Universidad Distrital, docente de Física de la Escuela Colombiana de Carreras Industriales.

RESUMEN

Revista de Investigación

28

En el tema de protección radiológica del personal ocupacionalmente expuesto a radiaciones ionizantes en diferentes campos, es necesario hablar de los Dosímetros TLD, que son instrumentos sensibles a la radiación y permiten medir la Dósis acumulada en un determinado periodo de tiempo por una persona que lo porta, de ésta manera se controla la Dósis de radiación recibida por el personal ocupacionalmente expuesto; el presente artículo muestra el procedimiento seguido para obtener la lectura de un grupo de Dosímetros TLD que de manera controlada han sido expuesto a radiaciones ionizantes durante espacios de tiempo diferentes. Palabras Claves: Dosimetría, termoluminiscencia, protección radilógica.

INTRODUCCIÓN La termoluminiscencia es la emisión de luz desde un material aislante o un semiconductor cuando es calentado, en otras palabras es la emisión térmicamente estimulada de luz siguiendo previamente a la absorción de energía de radiación. Una de las aplicaciones que aprovecha este fenómeno es la dosimetría de radiaciones, ya que la absorción de radiación incrementa el nivel de termoluminiscencia por llenado

de los niveles de energía localizados con electrones atrapados. Así, la intensidad de la termoluminiscencia de una muestra es el resultado de una competencia entre las trampas ocupadas por la radiación y las trampas vacías por excitación térmica. A una temperatura dada de irradiación, muchos materiales muestran una intensidad de termoluminiscencia que es proporcional a la cantidad de radiación absorbida.[1, 2]


TECCIENCIA 1 MARCO TEÓRICO 1.1 Detectores termoluminiscentes La luminiscencia es el proceso de emisión de la radiación óptica de un material por causas no térmicas [2]. Existen tres elementos esenciales que son necesarios para la producción de la termoluminiscencia: 1. El material debe ser un aislante o un semiconductor ya que los metales no presentan propiedades luminiscentes. 2. El material debe tener algún tiempo para absorber la energía durante la exposición a la radiación. 3. La emisión luminiscente es provocada por el calentamiento del material.

1.2 Luminiscencia Cuando la radiación está incidiendo sobre un material algo de su energía podría ser absorbida y reemitida como luz de una longitud de onda grande (Ley de Stoke’s). Este es el proceso de luminiscencia. La longitud de onda de la luz emitida es característica de la sustancia luminiscente y no de la radiación incidente. En la emisión de luz toma lugar un tiempo característico tc después de la absorción de la radiación y este parámetro permite sub clasicar el proceso de la luminiscencia Figura 1a. De esta manera se puede distinguir entre la fluorescencia en que τc < 10-8 s y la fosforescencia en que τc > 10-8 s.

29 Revista de Investigación

Esta última es la característica particular de la termoluminiscencia, ya que una vez el material es calentado se excita siguiendo la emisión de luz. El material no puede emitir de nuevo por simple enfriamiento y recalentamiento de la muestra, para

que se de nuevamente la luminiscencia el material deber ser expuesto otra vez a la radiación, después de lo cual el aumento en la temperatura producirá la emisión de luz. [1]

Figura 1: (a) Fenómenos de Luminiscencia. (b) Relación entre la absorción de la radiación y la emisión de fluorescencia, fosforescencia y termoluminiscencia[1].


Lectura de dosímetro TLD en el contexto de la protección radiológica

El valor de τc < 10-8 proporciona una definición esencial para el proceso espontáneo de emisión por fluorescencia. Así, en la figura 1a, la emisión por fluorescencia está representada tomando simultáneamente lugar con la absorción de radiación y detenida inmediatamente con el cese de la misma [1]. Una manera de visualizar los valores de termoluminiscencia es mediante una gráca de ‘intensidad de luminiscencia’ como función de la temperatura, conocida como curva Glow. Una curva glow típica para LiF uno de los fósforos termoluminiscentes más estudiados , es mostrada en la Figura 2. La temperatura para la cual aparece el máximo pico está relacionada con la profundidad de la trampa.

Revista de Investigación

30

En dicha gráfica aparecen 4 picos (2-5) indicando que 4 tipos diferentes de trampas están siendo activadas dentro de este rango particular de temperatura. El área bajo la curva de cada pico está relacionada con el número de trampas ocupadas, que, a su vez está relacionado con la cantidad de radiación impartida inicialmente a la muestra[1]. De acuerdo al modelo de bandas asociado a semiconductores y aislantes Figura 3, la absorción de energía de radiación incrementa la población de electrones atrapados; la estimulación térmica libera a los electrones seguido por la recombinación y emisión luminiscente. Además, es posible ver como una irradiación secundaria es necesaria si la termoluminiscencia es inducida de nuevo después del primer calentamiento[1].

Figura 2: ‘Curva Glow’ de LiF, dopada con Mg y Ti con una irradiación de rayos de 250 rad [1]. La radiación ionizante excita un electrón fuera de la banda de valencia a la banda de conducción dejando una vacancia en la banda de valencia llamado agujero ó hueco. Los electrones y agujeros son libres para moverse independientemente a través de sus respectivas bandas y son llamados portadores de carga. Todos los cristales reales presentan defectos en su red cristalina, ellos juegan un papel preponderante en el proceso termoluminiscente. Sucintamente se pueden enumerar dos categorías de defectos en la red. • Defectos intrínsecos (vacancias, ubicaciones intersticiales, etc): la temperatura de la red determina el número de defectos. • Defectos extrínsecos o de sustitución de iones por impurezas: la sustitución afecta la concentración de vacancias.


TECCIENCIA Ventajas del uso de materiales termoluminiscentes en dosimetría • El dosímetro termoluminiscente es de bastante aceptación porque permite realizar medidas de dosis a largo plazo sin perder información (fading). Del orden de 2% por mes.

1.3 Uso de cristales TLDs en la dosimetría personal Desde el punto de vista de la radioprotección los cristales termoluminiscentes son utilizados en la dosimetría personal también llamada vigilancia radiológica individual. Los cristales se deben acoplar a un dispositivo pasivo que a través de unos filtros permita determinar la dosis de un trabajador ocupacionalmente expuesto con mayor precisión. Este dispositivo es llamado un dosímetro.[5]

• El hecho de que sea un detector pasivo y no posea alimentación eléctrica para el registro de la dosis hace que el dosímetro sea confiable y no pierda información por desperfectos electrónicos o alimentación eléctrica. • El rango de medida en los cristales termoluminiscentes varía desde 10µSv hasta 100kSv. • Tiene baja dependencia energética, es decir, la medida de la dosis es independiente si el dosímetro fue irradiado con radiación gamma, equis, beta, etc. • Los diferentes tipos de cristales TLDs, permiten ser utilizados para medir diferentes tipos de radiación como lo muestra la Tabla 1.

Table 1: Diferentes tipos de cristales TLDs, Aplicaciones y tipos de radiación en los cúales pueden ser usados.

31 Revista de Investigación

Figura 3: Esquema simplificado del modelo de bandas de energía del proceso de termoluminiscencia en una estructura cristalina[2].


Lectura de dosímetro TLD en el contexto de la protección radiológica

• La dosimetría personal cuantifica los equivalentes de dosis recibidos por el Personal Ocupacionalmente Expuesto (POE). Los límites respecto a la exposición de radiación del POE están regulados por los criterios recomendados en la publicación número 60 de la Comisión Internacional de Protección Radiológica (CIPR).

32

Beneficios de la aplicación de una vigilancia radiológica individual

Revista de Investigación

• La dosimetría personal es el medio aceptado como mecanismo de vigilancia radiológica individual de referencia, para los trabajadores ocupacionalmente expuestos (POE) a la radiación ionizante. En los últimos años se ha observado una tendencia a la aparición de empresas privadas prestadoras de dosimetría personal utilizando detectores de película, termoluminiscentes y de estimulación óptica (OE).[3, 5]

• Permitir un control a corto y a largo plazo respecto de las sobreexposiciones registradas. • Vericar permanentemente la efectividad de las normas de supervisión, entrenamiento, instrumentación y procedimientos de protección radiológica. • Proporcionar datos indispensables en estudios epidemiológicos de impacto radiológico de una práctica para realizar análisis Costo - Benecio.

• Proporcionar datos en caso de un asunto médico-jurídico: Dar seguridad y confianza al empleado y al empleador, estimulando al trabajador a reducir las exposiciones individuales. Aspectos generales en los registros de dosimetría personal

• Los registros dados por el servicio de dosimetría deben ser archivados y mantenidos para permitir su acceso en un tiempo no inferior a 30 años después de que el trabajador a cesado sus funciones.

Los reportes deben incluir: • Nombres completos del trabajador, las dosis acumuladas del trabajador, las dosis externas e internas y en algunos casos la dosis efectiva o magnitudes operacionales. • Observaciones en casos de errores en el proceso de lectura y evaluación de la información, • Aviso en caso de superar el límite establecido para el registro. • Permitir el acceso a los datos médicos, legales o para estudios epidemiológicos. • Sistematizar mediante una base de datos los registros de los usuarios.


TECCIENCIA • No debe interferir en la ejecución de las actividades del trabajador (peso, tamaño). • Debe estar plenamente identicado. • Su calibración debe ser able. El servicio de dosimetría debe estar acreditado. • Debe estar protegido contra la humedad y demás condiciones ambientales.

cual todos los valores por debajo de él no son registrados. En dosimetría personal debe ser un valor inferior al límite derivado por período de uso. Límite por mes de 1.7 mSv • NIVEL DE INVESTIGACIÓN. Cuando las dosis equivalentes superan un valor considerado justicado, la autoridad debe investigar las posibles causas para que no vuelva a ocurrir (Lo determina el Ocial de Protección Radiológica).

• La pérdida de información luego de la entrega del dosímetro y su respectiva evaluación debe ser mínima.

• NIVEL DE INTERVENCIÓN. Se fija de tal forma que justique la intervención de la autoridad regulatoria para lograr una corrección de la práctica radiológica.

• El dosímetro debe ser portado durante todo el tiempo en que el trabajador se encuentre en la instalación radiactiva.

Desempeño de un sistema dosimétrico

• Se debe ubicar en la parte del cuerpo más representativa. • Si el campo de radiación no es uniforme en todo el cuerpo es necesario usar dosímetros para las extremidades. • En caso de usar delantales plomados se deben utilizar dosímetros extras, dentro y por fuera del delantal. Niveles de referencia en un servicio de dosimetría personal Son establecidos mediante un programa de protección radiológica.[3, 4] • NIVEL DE REGISTRO. Es el valor en dosis equivalente o exposición en el

Cuando una entidad presta el servicio de dosimetría personal debe someterse a una auditoría de calidad dosimétrica. La cual consiste en que el servicio envía un lote de dosímetros para que sean irradiados de manera controlada para varias energías y dosis. Posterior a la irradiación en el laboratorio de calibración se les devuelven los dosímetros para que el servicio de dosimetría evalúe las dosis a ciegas. Cuando se reportan las dosis se evalúa su desempeño a través de las curvas trompeta. El desempeño un servicio dosimétrico se analiza en términos de la precisión global en la evaluación de la dosis equivalente personal, cuyos límites están dados por la ecuación 1, representada gráficamente por las curvas trompeta.

33 Revista de Investigación

Cualidades que debe poseer un dosímetro personal


Lectura de dosímetro TLD en el contexto de la protección radiológica

(1) Donde H0 = 0.080 mSv, corresponde al valor típico de umbral de detección de un servicio de dosimetría termoluminiscente, Hequiv es la dosis evaluada por cada empresa participante y Hp es la dosis equivalente personal a 10mm de profundidad dado por el laboratorio de calibración.

porcentual entre el número de puntos de irradiación por fuera de los límites por el número total de puntos. La forma abierta de las curvas trompeta se debe a que la incertidumbre es grande para bajas dosis impartida donde la radiación acumulada por fondo natural es importante.[3]

2. Materiales y métodos

Figura 4: curva trompeta El índice de desempeño ID del servicio de dosimetría se evalúa mediante la relación

Se tomaron treinta Dosímetros TLD 100 sin una selección previa, es decir que sus características debido al uso que se les ha dado no se conocen, las dimensiones de éstos Dosímetros son de (3x3x1) mm, por tal razón se procede a realizar un borrado de todos los cristales a partir de una curva de calentamiento y posteriormente la irradiación en el laboratorio secundario de Dosimetría de Ingeominas, procesos que de describen a continuación.

34 Revista de Investigación

2.1 Proceso de Anneeling de los TLD 100.

Figura 5: Equipos usados para el borrado de dosímetros. Los cristales se dispusieron en una matríz de carbono, se introducen en el horno que puede desarrollar dos curvas de temperatura como se observa en la figura 5a, se selecciona la opcion “programa1”

mediante el pulsador que se observa en la parte inferior izquierda de la figura 5c, que lleva los cristales hasta una temperatura máxima de 400 °C, se mantiene constante en 400 °C durante un tiempo de 60 min,


TECCIENCIA

2.2 Proceso de Irradiación. Antes de iniciar el proceso de irradiación se tomaron cinco cristales de manera aleatoria como referencia y se procedió a irradiar los

veinticinco restantes mediante la fuente de 137Cs, como indica la Figura 2a, la distancia de la fuente al campo de irradiación fue de 85 cm, el diámetro del campo de 25 cm y el rendimiento de la fuente de 5,2 mSv/h, los tiempos de irradiación fueron 8, 15, 30, 45 y 60 minutos, y cada vez que se cumplía un tiempo de éstos se retiraban cinco cristales, se ubicaban en un matriz de acrílico identicados, de esta manera se realizó la irradiación proceso que se describe mediante las Figuras 6.

Figure 6: Montaje de los equipos usados en el proceso de Irradiación. 2.3 Proceso de lectura de los cristales. Se realizó la lectura por medio de un equipo Harshaw 4500 y se usó el programa “Winrems” como muestra la figura 7a.

Figure 7: Montaje de los equipos usados en la lectura de los cristales.

35 Revista de Investigación

posteriormente desciende hasta una temperatura de 80°C se mantiene a esta temperatura durante unos 20 min y desciende hasta temperatura ambiente, permitiendo el borrado de los cristales.


Lectura de dosímetro TLD en el contexto de la protección radiológica

Se programó el equipo para la lectura de los dosímetros en el perfíl “Cobalto” y se procedió a realizar las pruebas internas del equipo las cuales son: Lectura de ruido (ruido de fondo) que corresponde a la luz que llega al fotomultiplicador por defecto en el equipo.

Revista de Investigación

36

Prueba de luz con la lámpara interna del equipo para vericar la eficiencia del fotomultiplicador. Luego de pasar los dos “test” se procedió a realizar las lecturas de los dosímetros.

Figura 8: Lectura de fondo Se realizó la lectura de un conjunto de dosimetros incluyendo un dosímetro de contról cuyas lecturas se muestran en la tabla 2

Figura 9: curvas Glow de las lecturas de los dosímetros del grupo .


TECCIENCIA

Table 2: Lectura de carga de los dosímetros. 3 Resultados Teniendo el valor de la ganancia encontramos el valor de la dosis equivalente para cada uno de los tiempos de irradiación y la desviacion estandar de la dosis equivalente como ilústra la tabla 3.

Table 3: Valores de dosis equivalente, lectura de carga y desviacion estándar de la dosis.

Y la ecuación característica de la regresión lineal correspondiente es:

Teniendo en cuenta, la relación de la ecuación general se encontró el valor del factor de calibración (RCF) el cúal, es la pendiente de la función lineal, por consiguiente se tiene:

El valor de del factor de corrección por elemento de cada cristal se encontró a partir de la siguiente relación: Figura 10: Dosis equivalente versus lectura de la carga de los dosímetros.

(4)

37 Revista de Investigación

La respectiva gráfica de los datos obtenidos es:


Lectura de dosímetro TLD en el contexto de la protección radiológica

Teniendo como resultado para cada cristal su factor de corrección en la sigiente tabla,

Table 4: Factor de corrección por elemento.

Donde estos valores (Ecci;Rcf) serán introducidos al programa de lectura “Winrems” para que dé la lectura de los dosímetros con las respectivas correcciones tal como la ecuación 5, en unidades de dosis equivalente (mSv). H(mSv) = RCF(mSv/nC)xEccixLi (5)

Revista de Investigación

38

4 Conclusiones • En las curvas de brillo se puede apreciar en algunos dosímetros que hay picos persistentes a altas temperaturas (por encima de 250°C) que contribuyen a que haya una cantidad residual de luminiscencia, esto ocurre en comunmente en los cristales que están deteriorados. • Existen muchos factores por los cuales la medida en la lectura de los cristales difiere enormemente, tales como: La limpieza, el uso que se les a dado, del

lote de fabricación y hasta el equipo de lectura, ya que este no está en constante uso. • Se le debe realizar limpieza a los cristales para mejorar la medida en la lectura, para que no haya quimicoluminicencia, ya que debido al contacto con la goma de la cinta que se usó para guardarlos es posible que por eso, la medida tenga una desviación estándar muy grande y tambien a que los cristales no deben ser del mismo lote de fabricación. • Los valores de los factores de corrección por elemento tienen valores muy dispersos. Existen valores de ECC hasta de 0.2, donde podria conciderarce que el dosímetro deberá cambiarse ya que si está por debajo de 1, el dosímetro tiene poca sensibilidad. • Se aconseja a futuro que los cristales que se adquieran se dejen con un número inicial para toda la vida del


TECCIENCIA

• Los cristales existentes son útiles para prácticas de aprendizaje, pero para realizar trabajos de grado donde se van a realizar medidas precisas y confiables es mejor adquirir un lote de cristales cuya utilización debe hacerse con mucha responsabilidad. No es conveniente mezclar cristales de diferentes lotes. • El equipo de termoluminiscencia debe prenderse periódicamente y realizar pruebas de lectura por lo menos una vez por semana para disminuir el ruido en el PMT (Tubo fotomultiplicador) y se debe también realizar una limpieza periódica a los dispositivos de calentamiento y los lentes. • Para realizar una estimación más precisa del factor RCF se debe contar con una mayor cantidad de puntos de dosis y considerar dosis en el rango de

linealidad que aconseja el fabricante, del orden de 100mSv. REFERENCIAS [1] Thermoluminescence of solids, S.W.S McKEEVER. Department of Physics, Oklahoma State University. [2] ESPECIALIZACIÓN EN APLICACIONES TECNOLÓGICAS DE LA ENERGÍA NUCLEAR. Elementos de Protección Radiológica. [3] International Standard ISO/FDIS 40373 X and gamma reference radiations for calibrating dosemeters and doserate meters and for determining their response as a function of photon energy. [4] Da Silva, T.A Results of the 1999 Intercomparison of Individual Monitoring Systems Under the IAEA Model Project RLA/9/030. [5] IMPLEMENTACIÓN DE UN SISTEMA DE DOSIMETRÍA PERSONAL UTILIZANDO DOSIMETRÍA TERMOLUMINISCENTE. Revista Colombiana de Física Vol.35 No.1 Año 2003. S.O. Benavides, J. C. Rojas, H. Olaya.

39 Revista de Investigación

cristal, se establezcan los factores ECC iniciales y los tratamientos térmicos a 400°C en el horno PTW, se realice una vez al año solamente.


Reconocimiento del Iris

RECONOCIMIENTO DEL IRIS H.V. Robles1 A. Romano2 1

Horderlin Vrangel Robles Vega. Ingeniero en Control

Electrónico e Instrumentación egresado de la Universidad Distrital “Francisco José de Caldas”, facultad Tecnológica. Con grado de Especialización en Bioingeniería de la misma. Actualmente desarrolla su tesis de maestría en la Universidad Nacional de Entre Ríos en Paraná – Argentina. Docente investigador de Tiempo completo de la Escuela Colombiana de Carreras Industriales en la coordinación de Ingeniería Biomédica. Las áreas de interés son: son la instrumentación biomédica, procesamiento y adquisición de señales electrofisiológicas, el control electrónico, los microcontroladores y sistemas digitales avanzados y la inteligencia artificial. RESUMEN

Revista de Investigación

40

Este articulo básicamente se explica el sistema de reconocimiento de Iris desarrollado por John Daugman y los intentos de implementar este algoritmo en Matlab, con algunas modificaciones. La primera parte describe la imagen y el histograma se muestra con ella. A continuación, el algoritmo necesario para la normalización, luego, el filtro se implementa mediante registro Gabor 2-D de filtro para la codificación de la imagen y obtener el IrisCode. Finalmente nos fijamos en el grado de similitud de las imágenes con la distancia de Hamming como estadística herramientas. Palabras Clave: Filtro de Gabor 2D, Reconocimiento de iris, distancia de Hamming, Matlab.

ABSTRACT — This project basically explains the Iris recognition system developed by John Daugman and attempts to implement this algorithm in Matlab, with a few modifications. The first part 1

Maestreando en Ingeniería Biomédica en la Universidad Nacional de Entre Ríos, especialista en Bioingeniería de la Universidad Distrital Francisco José de Caldas, Ingeniero en Control Electrónico e Instrumentacion, docente investigador de la Escuela Colombiana de carreras Industriales – ECCI.

2

Magister en Ingeniería Biomédica de la Universidad Nacional de Entre Ríos, Argentina. Gerente general de SDE Ingeniería Ltda., diseñador de equipamiento biomédico.


TECCIENCIA describes the image and the histogram is shown with it. Then the algorithm is necessary for normalization, and then the filter is implemented using log Gabor 2-D filter for the coding of the image and get the iriscode. Finally we look at the degree of similarity of the images using the Hamming distance as statistical tools Palabras claves: filtro de Gabor 2D, reconocimiento de iris, distancia de Hamming, Matlab.

I. INTRODUCCIÓN

En 1936, el oftalmólogo Frank Burch propuso el concepto de usar patrones del iris como método para reconocer un individuo [2]. En 1985, los doctores Leonard Flom y Aran Safir, oftalmólogos, propusieron el concepto de que no hay dos iris semejantes,

y les fue concedida una patente para el concepto de identificación de iris en 1987. El Dr. Flom propuso al Dr. John Daugman desarrollar un algoritmo para automatizar la identificación del iris humano. En 1993, la agencia nuclear de defensa comenzó el trabajo para probar y para entregar una unidad prototipo, que fue terminada con éxito por 1995 gracias a los esfuerzos combinados de los DRS. Flom, Safir, y Daugman. En 1994, concedieron al Dr. Daugman una patente para sus algoritmos automatizados de reconocimiento de iris. En 1995, los primeros productos comerciales llegaron a estar disponibles [3]. En 2005, la patente que cubría el concepto básico de reconocimiento de iris expiró, proporcionando oportunidades comerciales para otras compañías que han desarrollado sus propios algoritmos para el reconocimiento de iris. La patente de la implementacion de reconocimiento de iris, IrisCodes®, desarrollada por el Dr. Daugman no expira hasta 2011 [4]. Este documento consta de tres partes principales, que son el preprocesamiento y normalización del iris, luego la codificación del iriscode y por

41 Revista de Investigación

La identificación por medio de la observación del iris humano es el proceso de reconocimiento de una persona por el análisis de los patrones aleatorios de iris. Este método es relativamente nuevo, el cual fue expuesto por primera vez por John Daugman [1]. El iris es un musculo dentro del ojo que regula el tamaño de la pupila, controlándo la cantidad de luz que entra al ojo; es la porción coloreada del ojo basado en la cantidad de pigmento de melatonina dentro del musculo. Aunque la estructura y coloración del iris esta genéticamente enlazada, los detalles de los patrones no lo son. Durante el crecimiento prenatal el iris se desarrolla a través de un proceso de plegado y formado ajustado a la membrana del tejido. Antes del nacimiento, ocurre una degeneración, resultando la pupila abierta y aleatoria, únicos patrones del iris.


Reconocimiento del Iris

último la comparación de los iris. Cada sección describe el enfoque teórico y es seguido por la forma en que se aplica. II. RECONOCIMIENTO DE IRIS. A. Normalización de la imagen.

Revista de Investigación

42

Este paso es uno de los más importantes y decisivos para obtener un buen resultado. Una buena imagen clara evita el proceso de eliminación de ruido y también ayuda a a disminuir los errores en el cálculo. En este caso, se evitan errores de cálculo debido a la ausencia de reflexiones, y porque las imágenes han sido tomadas muy cerca. Este proyecto utiliza la imagen proporcionada por CASIA (Instituto de Automatización de la Academia China de Ciencias, http://www.sinobiometrics. com/). Estas imágenes fueron tomadas únicamente con el fin de implementar un software de reconocimiento del iris para investigación y aplicación. La luz infrarroja se utiliza para iluminar el ojo y, por tanto, no existe ningún tipo de reflexión especular.

Fig. 1 Imagen de CASIA v.1 Debido a la facilidad de cálculo, la imagen se redujo en un 60%. La imagen (figura 1) fue filtrada mediante un filtro Gaussiano, lo que desdibuja la imagen y reduce los efectos debidos al ruido. El grado de alisamiento se decide por la desviación estándar, σ, y se

considera en este caso 2. Estos datos son entregados por los desarrolladores de la base de datos CASIA. Localización del iris: La parte del ojo que porta la información es sólo la parte del iris. Se encuentra entre la esclerotica y la pupila. De ahí, que el siguiente paso es separar la parte del iris de la imagen. Las fronteras interiores y exteriores del iris se encuentran utilizando el detector de bordes Canny. En la figura 2 se observa este proceso:

Fig.2 Localización del iris. El detector Canny se hace principalmente en tres etapas, a saber; encontrar la pendiente, no la represión y el máximo umbral de histeresis. Según lo propuesto por Wildes[5], el umbral para la imagen de los ojos se realiza en una dirección vertical, por lo que debido a la influencia de los párpados pueden ser reducidos. Esto reduce los píxeles en el círculo límite, pero con el uso de la transformación de Hough, el éxito de la localización de la frontera se pueden obtener incluso con la ausencia de unos cuantos píxeles. También es computacionalmente más rápido desde la frontera píxeles son menores para el cálculo. Usando el gradiente de la imagen, los picos se localizan mediante la supresión de los máximos.


TECCIENCIA El siguiente paso, elimina a los bordes por debajo de un umbral (figura 3), en otras palabras, los píxeles por encima de un umbral son separados. Luego, estos puntos están marcados como puntos de ventaja sólo si todos los píxeles de su entorno son mayores que otro umbral.

escala cartesiana a la escala polar, como se muestra a continuacion:

Fig.3 Imagen de los bordes detectados.

Fig.4 Proceso de Normalización.

B. Normalización del iris

Ec 1 Donde rI es el radio del iris,

43 Ec 2 La resolución radial y la resolución angular depende del número de píxeles que se deseen implementar. Para cada píxel en el iris, una situación equivalente se encuentra en ejes polares. La imagen se normalizó luego interpolando el tamaño de la imagen original, utilizando la función interpola. La figura 5 muestra el esquema del iris desenrrollado.

Revista de Investigación

Una vez que la región del iris está segmentada, la siguiente etapa es la normalización de esta parte, para permitir la generación de iriscode y sus comparaciones. Dado que las variaciones en el ojo, como el tamaño de la óptica del iris, la posición de la pupila, el iris y el cambio de orientación de persona a persona, es necesario para normalizar la imagen del iris utilizar dimensiones similares en cada muestra. El proceso de normalización trata de desenrrollar el iris y convertirlo en su equivalente polar. Se realiza utilizando el modelo de Daugman [6]. El centro de la pupila es considerado como el punto de referencia y una reasignación de la fórmula se usa para convertir los puntos de la


Reconocimiento del Iris

Fig.5 Desenrrollado del iris.

Revista de Investigación

44

Codificación del iris: El siguiente proceso es la generación de la iriscode. Para ello, la característica más discriminatorias en el patrón del iris son extraídas. La información de fase en el modelo se utiliza debido a que la fase de ángulos se asignan independientemente del contraste de la imagen. La amplitud de la información no se utiliza, ya que depende de factores externos. La extracción de la información de fase, de acuerdo con Daugman, se hace usando la transfromada de Gabor. Esta determina en cual cuadrante el fasor resultante se encuentra, esto es utilizando la wavelet:

Ec 3 Donde tiene la parte real e imaginaria, cada uno con el valor 1 o 0, dependiendo de en cual cuadrante se encuentra. Una forma más fácil de utilizar el filtro de Gabor es romper el modelo normalizado en 2D en una serie de wavelets de 1D y, a continuación, estas señales son convolucionadas con la wavelet Gabor en 1D.

Los filtros Gabor se utilizan para extraer información de la frecuencia localizada. Pero, debido a algunas de sus limitaciones, los filtros logarítmicos de Gabor son más ampliamente utilizados para la codificación de imágenes naturales. Dichos filtros utilizan funciones de transferencia gaussiana vistas en una escala logarítmica, pueden codificar imágenes naturales mejor que los filtros de Gabor, visto en una escala lineal. Dado que el filtro Gabor ordinario representa menores componentes de alta frecuencia, el registro de los filtros Log-Gabor es la mejor opción. Los filtros Log-Gabor están construidos con:

Ec 4 La función de Gabor-convdución escrita por Peter Kovesi [7] se utilizó para obtener estos valores. Los resultados contienen el valor complejo de los resultados de la convolución, del mismo tamaño que la imagen de entrada. Los parámetros usados para la función son: nscale = 1 norient = 1 minwavelength = 3 mult = 2 sigmaOnf = 0.5 dThetaOnSigma = 1.5 la salida de la funcion, debe luego ser convertida de tipo cell a una matriz simple. El iriscode está formado por 2 elementos de la asignación de cada píxel de la imagen. Cada elemento contiene un valor 1 o 0 dependiendo del signo + o - de la parte real y la parte imaginaria, respectivamente.


TECCIENCIA Luego son asignados los valores de unos y ceros de acuerdo al valor y signo de la parte real y la imaginaria, así:

C. Comparación de Iris. La comparación de los patrones generados se hace calculando la distancia Hamming (HD) entre varias imágenes. La distancia de Hamming (HD) es una fracción de la medida el número de bits diferentes entre dos patrones binarios. Dado que este código utiliza la comparación de datos iriscode, la forma de HD es dada por: Ec 5 Los resultados obtenidos nos muestra el grado de similitud entre los diferentes iris, cuando los iris son completamente iguales el valor de HD es de cero y cuando son completamente diferentes el valor de HD = 1. El valor promedio de las com-paraciones hechas fue de 0.4496.

El IrisCode generado se muestra a continuacion (figura 7).

Fig.7 Iriscode.

III. CONCLUSIONES La técnica de identificación personal desarrollados por John Daugman se puso en práctica, con algunas modificaciones debido a la participación de la velocidad de procesamiento. Se ha probado sólo para la base de datos de imagen de Casia que es muy robusto dicho algoritmo. Debido a la eficiencia computacional, la zona de búsqueda en un par de iris se ha reducido, y la eliminación de errores debido a las reflexiones en el ojo la imagen no se ha aplicado. Los filtros implementados con la función de Peter Kovesi demostraron un alto grado de eficiencia al encontrar los valores de fases de la imagen normalizada.

45 Revista de Investigación

Fig.6 Codificación del iriscode.


Reconocimiento del Iris

El IrisCodes generado muestran el grado de disimilitud que tienen los diferentes iris, la exactitud de los resultados no se pudo determinar debido a la falta de mas imágenes y tiempo. Sin embargo, los resultados obtenidos al implementar el algoritmo en Matlab nos muestran nuevamente la capacidad del hombre en encontrar soluciones computacionales a procesos complejos de reconocimiento de patrones, necesarios para la clasificación de objetos.

Revista de Investigación

[4] Kelly Smith, “Iris Patent Question,” Email to Jim Cambier. 9 June 2005. [5] R. Wildes. Iris recognition: an emerging biometric technology. Proceedings of the IEEE, Vol. 85, No. 9, 1997.

REFERENCIAS

[6] J. Daugman. Biometric personal identification system based on iris analysis. United States Patent, Patent Number: 5,291,560, 1994

[1] John Daugman, University of Cambridge, How Iris Recognition Works. Proceedings at International Conference on Image Processing.

[7] P. Kovesi. MATLAB Functions for Computer Vision and Image Analysis. Disponible en: http://www.cs.uwa.edu. au/~pk/Research/MatlabFns/index.html

[2] “Individual Biometrics: Iris Scan” 5 July 05, National Center for State Courts 6 July 06. 46

[3] Iridian Technologies, “Historical Timeline,” 2003 http://www.iridiantech. com/about.php?page=4.


TECCIENCIA SEGURIDAD DE UNA CASA CONTROLADA POR MEDIO DE UNA LINEA TELEFONICA ALÁMBRICA E INALÁMBRICA J. Parra Plazas 1 L. A. Martínez Santana2 L. P. Pardo Herrera3 JAIME ALBERTO PARRA PLAZAS

1

Ingeniero Mecánico de la Universidad INCCA de Colombia, Especialista en Pedagogía y Docencia Universitaria de la Universidad San Buenaventura 2003, Magister en Ingeniería Mecánica Universidad de los Andes, 1997, años es docente universitario hace 16 años. Desde el 2003 hasta el momento actual es docente y Gestor – Asesor en Ingeniería Electrónica de la Escuela Colombiana de Carreras Industriales en Ingeniería Electrónica.

El objetivo de este proyecto fue desarrollar un sistema automatizado de bajo costo para el control de la seguridad (alarmas de intrusión, cierre de persianas), y el confort (iluminación, apagado/encendido general de todas las luces). Esto se logró diseñando un sistema que permite, a través de una línea telefónica, alámbrica o inalámbrica, manejar las funciones de seguridad y confort de un hogar. Este sistema cuenta con una clave personal, la cual permite ingresar al menú principal y así realizar las funciones que desee el usuario. Además de manejar la seguridad del hogar, también puede activar una de las funciones de la casa como, encender la luz, abrir o cerrar las cortinas, activar o desactivar la alarma, con solo una simple orden desde un celular o un teléfono móvil. En el caso de que se le olvide la clave o por algún motivo alguien resulta enterándose de la clave, el sistema le da la opción de cambiarla por una nueva. El proyecto se implementó con un Microcontrolador, un generador, un detector de DTMF, un detector de tonos, una pantalla de LCD de dos líneas por 16 caracteres cada una, un relé y algunos componentes pasivos. Palabras Claves: Domótica, Microcontrolador, DTMF

alarma,

teléfono,

control,

47 Revista de Investigación

RESUMEN


Seguridad de una casa controlada por medio de una línea telefonica alámbrica e inalámbrica

ABSTRAC

Revista de Investigación

48

The objective of this project was to develop a low-cost automated system for control of security (intruder alarms, closed blinds, presence simulation, fire alarms, gas leaks, water leaks, carbon monoxide concentration in garages when using combustion vehicles, medical alert, remote assistance, access to IP cameras), and comfort (lighting, general off all lights, automated on / off at each point of light, lighting control according to the level luminosity environment, automation of all the different systems / facilities / equipment control by providing them with efficient and easy to use, integration of the phone intercom, door entry or the TV, Internet control, multimedia management and electronic entertainment). This was achieved by designing a system which, through a telephone line, wired or wireless, manage security features and comfort of home. This system has a password, which may enter the main menu and perform the functions desired by the user. In addition to managing the security of home, you can activate one of the functions of the house as the light switch, open or close the curtains, turn on or off the alarm, just a simple order from your cell phone or mobile phone. In case you forget the password or for some reason someone is entirely in error of your password, the system gives the option of changing to a new. The project was implemented with a microcontroller, a generator and a DTMF detector, tone detector, an LCD display with two lines of 16 characters each, a relay and some passive components. Key Words: Alarm, telephone, domotique, control, microcontroller, DTMF

INTRODUCCIÓN Estudios realizados sobre seguridad en los hogares, muestran que las formas más empleadas para la seguridad en el hogar son: el pago de vigilancia privada por mensualidades, o el pago de un sistema de seguridad electrónico que es demasiado costoso.

Dado a que estas modalidades no representan una posibilidad efectiva de controlar la seguridad de su propia casa, se realizo el desarrollo de este proyecto que tiene unas características como la sencillez, facilidad de instalación, facilidad de manejo y lo mejor que es de bajo costo.


TECCIENCIA PROBLEMA

“Una historia que es muy común como la que le ha sucedido a Jaime Mantilla 15 de junio del 2005. Ese día, cinco hombres armados entraron a la casa contigua a la suya a las afueras de Bogotá, ataron y amordazaron a sus ocupantes y durante más de cuatro horas estuvieron cargando en un camión todas las pertenencias que encontraron. Aunque los asaltantes no evitaron hacer ruido, nadie vio ni oyó nada. Cuando la policía llegó, alertada por la propia víctima minutos después de que sus captores se marcharon, el hecho se había convertido uno más de los 4.691 robos a residencias que cada año se registran en Bogotá. Se supone que la casa es un refugio siempre seguro –explica Mantilla, y darse cuenta de que es tan vulnerable como cualquier otro lugar es muy angustiante”. Durante noches, Mantilla fue incapaz de conciliar el sueño y se mantuvo en vela, tratando de convencerse de que los ruidos que salían de la cocina eran producto de su imaginación. Una semana después descubrió que no era el único. Los vecinos del sector se reunieron para escuchar soluciones a lo que consideraban ‘la creciente criminalidad del barrio’ y decidieron llamar a una compañía de seguridad para instalar sistemas de vigilancia en todas las casas. Aunque no

estaba seguro de que la medida le devolvería el sueño, Mantilla aprobó la propuesta. Los usuarios se preocupan por los sistemas de control luego de que se han convertido en víctimas. Lo cierto es que sin importar cuánto dinero ganemos o a qué nos dediquemos, todos somos susceptibles de un robo, y todos necesitamos un sistema de seguridad adecuado. En la actualidad es obligatorio usar otro tipo de aparatos que ayuden a garantizar la tranquilidad, entre estos tenemos el manejo de luces, cortinas y puertas que interactúen en la seguridad de nuestros hogares” DESARROLLO En la figura-1 se aprecia el diagrama de bloques del sistema que se desarrolló. 49 Revista de Investigación

Hoy en día nos aqueja una problemática de inseguridad en nuestro país, la cual no nos deja dormir, ni viajar tranquilos, para ello se explora una solución que esté al alcance de todos los hogares.

Figura 1: Diagrama de Bloques


Seguridad de una casa controlada por medio de una línea telefonica alámbrica e inalámbrica

DESCRIPCIÓN DE BLOQUES:

Sensores:

Modulo de control:

IR (infrarrojo movimiento), sensores magnéticos. Son aquellos que están, de forma, permanente monitoreando el entorno con objeto de generar una señal que será procesada por el controlador.

Microcontrolador 16f870 de la familia de Microchip, tiene 28 pines, 3 puertos de salida o entrada, en total 16 entradas o salidas. Se hizo una programación y simulación por Assembler, este es el cerebro del sistema ya que desde allí maneja toda la información para el buen desempeño de todo el sistema.

Revista de Investigación

50

Detector de ring: Encargado de detectar un llamada entrante (ring).

En pocas palabras en este reside toda la inteligencia del sistema y suele tener los interfaces de usuario necesarios para presentar la información a este (pantalla, teclado, monitor, etc.).

Descolgar y colgar:

Pantalla:

Decodificador de DTMF:

Teniendo en cuenta los tamaños de los mensajes que el equipo debe mostrar para poder interactuar con el usuario, se optó por una pantalla de cristal líquido de 16 x 2 caracteres. Este tipo de pantallas tiene incorporado un Microcontrolador, lo que simplifica el manejo

Para esto se utilizó el circuito integrado MT 8870. Éste es el encargado de entregarle al Microcontrolador un código binario de 4 bits correspondiente a la tecla pulsada en un teléfono, mediante tonos multifrecuencia.

Actuadores: Los actuadores son: el motor, electroimán, sirena, y los componentes pasivos que intervienen en el funcionamiento. Estos son los dispositivos de salida capaces de recibir una orden del controlador y realizar una acción (encendido/apagado, subida/ bajada de persiana, apertura/cierre de electro válvula, etc.).

Como su nombre lo dice es el encargado de iniciar y finalizar el sistema de control telefónico.

Además, posee excelentes características en cuanto a su relación costo / prestaciones. Experimentación Se realizaron varias pruebas de funcionamiento, las cuales fueron muy satisfactorias. El sistema se puso a prueba trabajando dos semanas día y noche, comprobando que el sistema diseñado si es funcional.


TECCIENCIA

Figura 4: Montaje final del sistema de tarjeta de Control Figura 2: Tarjeta de Control

El resultado es un sistema de bajo costo, de fácil instalación y manejo, con una gran capacidad de control a través de una línea telefónica.

Figura 3: Montaje de prototipo de actuadores demóticos.

Conclusiones El resultado del sistema domótico diseñado fue muy satisfactorio. El producto cumplió con todos los objetivos de prestaciones y funcionamiento propuestos en la etapa de diseño. Se consiguió un equipo económico y versátil, que le otorga al habitante de una casa la posibilidad de controlarla. En cuanto a las futuras mejoras que se podrían realizar al sistema, se puede mencionar el agregado de funciones, las cuales deberían realizarse por software. Para ello se puede reemplazar el Microcontrolador por uno con una memoria ROM mayor, ya que el 16f870 fue utilizado al máximo de su capacidad. Otra opción sería utilizar dos microcontroladores, de forma tal que uno maneje la pantalla mientras el otro realiza el control del equipo.

51 Revista de Investigación

Resultados


Seguridad de una casa controlada por medio de una línea telefonica alámbrica e inalámbrica

REFERENCIAS 1. Castro Hernán, Revista el Portafolio, Por 11 millones de pesos puede hacer su casa inteligente, 2005. 2. Bendito Marcel, Revista Casa Viva, Wikipedia, Enciclopedia Libre, 2005. 3. Fradique Méndez Carlos, Correo de Lectores, El Tiempo, Robo a Viviendas, Bogotá, Mayo 27 de 2006. 4. Manrique Alfredo, Caracol Radio, Fiscalía de Bogotá alerta sobre robos a colegios, hospitales y residencias, Marzo 14 de 2006.

Revista de Investigación

52

5. Rodríguez Raúl, El Tiempo, Cae banda que robaba residencias en barrios como Cedritos y Santa Bárbara, Bogotá, Septiembre 22 de 2005. 6. CIC Policía Metropolitana, Balance comportamiento violento y delictivo, Enero, Marzo de 2002 y 2003, Bogotá. 7. Noticias Caracol radio, Fiscalía de Bogotá alerta sobre robos a colegios, hospitales y residencias, Viernes Junio 30 de 2006, Bogotá.


TECCIENCIA EL USO DE UN PORTAFOLIO DOCENTE EN LA ENSEÑANZA DEL CONCEPTO DE DERIVADA: UNA EXPERIENCIA DE AULA INSPIRADA EN LA HISTORIA DE LA CIENCIA L.M. Álvarez García 1 LIDA MILENA ÁLVAREZ GARCÍA

1

Licenciada en Física Universidad Distrital Francisco José de Caldas. Magister en Didáctica de la Ciencias Universidad Autónoma de Colombia. Docente de la Secretaria de Educación de Bogotá. Docente de Cátedra de la Escuela Colombiana de Carreras Industriales ECCI Coordinación de Ingeniería Mecánica.

El siguiente documento muestra la experiencia que se obtuvo haciendo uso de un portafolio de trabajo docente como estrategia didáctica dentro del desarrollo del concepto de derivada durante el curso de cálculo diferencial. El modelo de portafolio que se abordó contempla las siguientes etapas: planeación de las actividades, evidencias del trabajo desarrollado por los estudiantes, diario de campo de la planeación y de las observaciones del profesor y las reflexiones en torno al trabajo desarrollado. La planeación de las actividades que se desarrollaron dentro de la mediación, está basada bajo las etapas referenciadas por News Sanmartí: exploración, introducción, síntesis y aplicación. El pretexto de intervención pedagógica innovadora está inspirado en la historia de la ciencia, el cual subyace a las actividades de exploración, introducción y aplicación. El valor de este portafolio le significa a quien lo diseña un conjunto de datos que encuentran su asidero en la continua reflexión con la que se emprende las actividades en cada una de sus etapas, no solo desde la planeación inicial de las actividades, sino desde la reelaboración de las mismas luego de registrar el impacto que tuvieron en los estudiantes, hécho que se considera como relevante dentro del uso del portafolio en la enseñanza de las ciencias. Palabras claves: Portafolio, Derivada, Historia de la Ciencia, Enseñanza de las Ciencias.

53 Revista de Investigación

RESUMEN


El uso de un portafolio docente en la enseñanza del concepto de la derivada: una experiencia de aula

ABSTRACT

The following document shows the experience that was obtained making use of a briefcase of educational work as didactic strategy inside the development of the concept of having derived during the course of differential calculation. The briefcase pattern that was approached contemplates the following stages: organization of the activities, evidences of the work developed by the students, newspaper of field of the organization and of the professor’s observations and the reflections around the developed work. The organization of the activities that were developed inside the mediation, is based under the stages indexed by News Sanmartí: exploration, introduction, synthesis and application. The pretext of intervention pedagogic innovator is inspired by the history of the science, which underlies to the exploration activities, introduction and application. The value of this briefcase means who not designs it a group of data that you/they find its handle in the continuous reflection with which is undertaken the activities in each one of its stages, alone from the initial organization of the activities, but from the re-thinking of the same ones after registering the impact that you/they had in the students, fact that is considered as outstanding inside the use of the briefcase in the teaching of the sciences. Key words: Briefcase, Derived, History of the Science, Teaching of the Sciences.

Revista de Investigación

54 INTRODUCCION El portafolio se ha configurado como una estrategia de enseñanza/aprendizaje que ha sido abordada tanto en estudiantes como en docentes. Su matiz principal está orientado hacia la recopilación y sistematización de evidencias de actividades aportadas por estudiantes dentro de una mediación pedagógica, las cuales a su vez, pueden ser juzgadas dentro de una disciplina en particular o dentro de aquello que orienta los objetivos de la mediación aplicada. Su implementación metodológica ha impactado tanto el ámbito de la evaluación como el que

atañe a la didáctica. En este último, porque el componente metodológico demanda de una estrategia didáctica visible y relevante dentro del proceso de mediación; y desde la evaluación, por el matiz mismo que lo caracteriza de “sistematizador de experiencias”, ya que en este punto en donde se adquiere el “poder de juzgar”, pero con el ánimo de informar del progreso personal alcanzado por cada estudiante y por un grupo en general, alrededor de los objetivos de aprendizaje y criterios de evaluación planteados inicialmente.


TECCIENCIA

El sentido crítico y reflexivo que menciona Shulman fue considerado desde el diseño de las actividades de introducción, exploración y aplicación ya que fueron inspiradas desde contextos históricos que motivaron el estudio de la derivada. Se rastrearon los inicios aproximados de la derivada desde la época griega hasta la época en que se consolidó como un constructo formal en las matemáticas por parte de Newton y Leibniz. El hecho de incluir este espectro histórico dentro de la mediación, tiene como

objetivo, siguiendo a Shulman, suscitar “la deliberación y la conversación”, como parte fundamental dentro del desarrollo del concepto de derivada, debatir las necesidades de su estudio dentro de las matemáticas y aterrizarlo en el ejercicio del aula. De la misma manera, la etapa de aplicación preliminar de la derivada se planteo desde un contexto histórico en donde se abordo la caída de los cuerpos como pretexto de aprendizaje. Se intento recrear en el aula las posturas de Aristóteles, Galileo, Newton y Einstein respecto a la explicación de la caída de un cuerpo de cara a las posturas de los estudiantes. La continúa reflexión y análisis de las posturas de estos iconos en la ciencia permitirá identificar las posturas epistemológicas iníciales de cada estudiante y cómo éstas se trasforman o no durante la intervención. MODELO DE PORTAFOLIO Partiendo del hecho de que el portafolio constituye una recopilación de evidencias de las actividades que se desarrollan durante la intervención pedagógica y que a la vez son el resultado de una constante retroalimentación y deliberación de los docentes diseñadores principales y de los estudiantes, se estructuró el portafolio contemplando los siguientes aspectos que se muestran en el cuadro:

55 Revista de Investigación

En el caso especifico, se reporta la experiencia de trabajar con el portafolio desde el ámbito docente, partiendo de la concepción de Shulman (1992) para quien el portafolio constituye una “Historia documental estructurada de un conjunto de desempeños que han recibido tutorías que adoptan la forma de muestras de trabajo de un estudiante que solo alcanza realización plena en la escritura reflexiva, la deliberación y la conversación”. Para abordar este hecho se abordo el concepto de derivada y algunas aplicaciones preliminares en el curso de cálculo diferencial, allí se relacionarán aspectos como modelo del portafolio, planeación de las actividades y reflexión alrededor de la planeación, diarios de campo donde se reportaron las observaciones de la clase y las reflexiones acerca de los resultados alcanzados.


El uso de un portafolio docente en la enseñanza del concepto de la derivada: una experiencia de aula

Figura 1: Etapas del Modelo del portafolio

Revista de Investigación

56

Las etapas en que se desarrolló este portafolio, fueron consensuadas con ayuda del docente diseñador quien manejo un portafolio similar solo que enfocado en otro objetivo especifico de enseñanza/ aprendizaje. La reflexión y debate con otros profesores de la misma área o de aéreas similares a las matemáticas dentro de un encuentro general que se realizó para socializar los portafolios de todos los docentes diseñadores y co-equiperos en el diseño de este portafolio, significo la reflexión profunda en cuanto a la selección de las actividades, la selección de los textos históricos y la actividad que se escogería en la etapa de aplicación para los diseñadores principales del portafolio. INTRODUCCIÓN Y PRESENTACIÓN La primera etapa aborda dos aspectos, por un lado, se presentan los elementos y

atributos teóricos que justifican el empleo de un portafolio en la enseñanza de las ciencias al tiempo que se presenta una estrategia didáctica que se abordará en la mediación que en este caso particular, es el empleo de textos históricos como eje principal y subyacente a las actividades de la intervención; por otro lado, se hace referencia a la caracterización de la población no sólo desde las características sociales de los estudiantes participantes, sino también desde los presupuestos cognitivos con los que llegan. Este aspecto se evaluó en la etapa inicial del curso mediante otras estrategias metodológicas las cuales reportaron que los matices principales del grupo radican en el tiempo que han dejado de estudiar por un largo periodo de tiempo y algunos son repitentes del curso. Dada esta condición se han olvidado muchos conceptos y por tanto muchos algoritmos necesarios para la comprensión del concepto de derivada.


TECCIENCIA La planeación de las actividades nace desde tres ejes orientadores: el diagnostico inicial, el referente didáctico y teórico sobre el cual se inspira el empleo del portafolio y finalmente las reflexiones y debates que se dan en los encuentros con lo co-equiperos del portafolio. En este sentido se trabajó bajo los siguientes referentes. 1. Didáctico: Para el diseño de las actividades se tomó como referente los aportes Sanmartí (2002), para quien el diseño de un dispositivo pedagógico, es considerado como: un conjunto de acciones planificadas por el profesorado que tienen como finalidad promover el aprendizaje de los alumnos en relación con determinados contenidos. De tal forma, que plantea cuatro clases de actividades que conforman una unidad didáctica. • Actividades de exploración iníciales son actividades que tienen como objetivo facilitar que los estudiantes planteen problemas, percibiendo los objetos de aprendizaje. Promueven el planteamiento de preguntas o problemas de investigación, manejando diversos puntos de vista o hipótesis. • Actividades de introducción de nuevos puntos de vista para la modelización, que están orientadas a que los estudiantes puedan construir

sus ideas coherentemente con las aceptadas actualmente por la ciencia, siendo configuradas en modelos de ciencia escolar para poder explicar predictivamente el conjunto de fenómenos que se irán evolucionando. • Actividades de síntesis, recapitulación o estructuración, en ella se miran todas las ideas reflexionando sobre que se está aprendiendo y sobre las nuevas ideas incorporadas. La explicación se aborda desde el modelo que ha servido para explicarlo, reflexionando sobre las bases de orientación, favoreciendo su contraste a través de diversos recursos. • Actividades de aplicación y generación tienen como propósito ampliar el campo de situaciones y fenómenos que se pueden explicar con el modelo construido inicialmente para, al mismo tiempo, favorecer su evolución. 2. Teórico: Las actividades de exploración, introducción y aplicación serán diseñadas usando textos históricos, teniendo como referente que la historia y la filosofía de las ciencias, en las últimas décadas, se han reconciliado para convertirse en una herramienta de innovación en la Didáctica de la ciencia como lo afirman Navarro, (1983) y Matthews, (1990), faceta que se había perdido con el pragmatismo reduccionista que la influencia del positivismo había dejado en ciencia y que este nuevo elemento pretende rescatar y llevar a las aulas de clase.

57 Revista de Investigación

PLANEACIÓN DE LAS ACTIVIDADES


El uso de un portafolio docente en la enseñanza del concepto de la derivada: una experiencia de aula

Muchos son los trabajos que reportan el uso de la Historia de la ciencia en la enseñanza de manera exitosa; se han encontrado varias investigaciones que mostraban el impacto que ha tenido la implementación de la historia de la ciencia en distintos facetas: en el diseño de currículos escolares y en las practicas de enseñanza en la educación media, bien sea, como narrativas soportadas en episodios históricos dentro de textos escolares, replica de experimentos de pensadores como Arquímedes, desde distintos ámbitos de la ciencia e incluso como instrumento para entablar paralelos entre las lógicas de pensamiento de estudiantes en contraste con los de algunos pensadores antiguos.

No cabe duda que una aproximación al conocimiento científico desde los aportes que brinda la historia y la filosofía contemporánea, como marco de referencia para la investigación didáctica y la práctica educativa, demanda lo que muchos autores ya han planteado de manera reiterada y es la necesidad de una estrecha colaboración entre Historiadores de la Ciencia, Filósofos de la Ciencia, Científicos Cognitivistas y Didactas de la Ciencia (Matthews, 1994). DESCRIPCIÓN DE LAS ACTIVIDADES

Teniendo en cuenta el referente didáctico de News Sanmarti, se planteo un esquema general para ser desarrollado en cada fase.

Revista de Investigación

58

Figura 2: esquema de actividades descritas por News Sanmartí (2002)


TECCIENCIA

En la fase exploratoria se eligió un problema histórico que suscitó el estudio de la derivada desde hace mas de 250o años a.c. El problema consiste en estimar un valor para la pendiente de una curva dado un punto en el plano. La reflexión de los estudiantes alrededor de este problema permitió revisar pre-teorias de los estudiantes respecto a algunos aspectos de tipo geométrico los cuales serán definitivos en el entendimiento del concepto de derivada. En la fase introductoria se trabajó con un texto histórico sucinto que recogió los aportes de Apolonio, Descartes, Fermat, Newton y Leibniz acerca de cómo se avanzo en la solución de la pregunta que se les planteo inicialmente. El propósito de la lectura es poner de manifiesto que el problema planteado en esta fase, más que una situación aislada, es un problema que adquirió relevancia dentro del estudio del cálculo. Abordar este problema desencadenó una serie de propuestas muy significativas, como ejemplo, se resalta la que propuso Apolonio (200 a.C.) el libro II de su obra Cónicas, desde allí realizó un estudio de los diámetros conjugados y de las tangentes a una cónica con lo que construyó todo un acervo de teoremas que ameritarían un curso completo para su comprensión. Por su parte Newton propuso nueve maneras para trazar la tangente a una curva y por tanto su pendiente, estas nueve

maneras y todos los detalles alrededor de este punto están descritos en su método de fluxiones publicado en 1671, su obra Methodus fluxionum et serierum infiniturum lo que más tarde conformaría parte del cálculo deferencial que hoy conocemos. A través de la historia, fueron varios y variados los aportes que se dieron para solucionar el problema planteado, de la misma manera que fueron variados los aportes que los estudiantes plantearon en esta fase hecho que permite analizar la cercanía de sus planteamientos con los que se presentaron en la historia de la ciencia. En esta misma fase se trabajo con un video del Instituto Tecnológico de California que recoge los elementos más fuertes que se requieren en el estudio de la derivada como las aplicaciones representativas presentes en la cotidianidad, de esta manera se pretendía engranar los elementos teóricos presentados en la lectura con los elementos prácticos presentados en el video. Con los elementos que aportaba el video se procedió a entrar en la fase de síntesis; allí abrió un espacio para que, a través de sencillas historietas (aquí las historietas se entienden como representaciones graficas que mediante distintas escenas recogen los hechos más llamativos del video), los estudiantes pudieran seleccionar los momentos que mas atrajeran su atención con respecto a la historia de la derivada que se les presentó y fueran plasmados gráficamente. Al final de esta activad se retomaron los elementos fuertes que se necesitaban para formalizar le definición de la derivada. Se trabajo en los seis grupos

59 Revista de Investigación

Luego de la reunión con los co -equiperos del portafolio y teniendo en cuenta el diagnóstico preliminar de los estudiantes se decidió que tipo de actividades se desarrollarían en cada fase.


El uso de un portafolio docente en la enseñanza del concepto de la derivada: una experiencia de aula

para calcular la derivada de distintas funciones usando la definición formal de limite. De esta manera se pretendía armonizar los elementos conceptuales con los algorítmicos. Una vez adquiridos los algoritmos iníciales, se trabajaron sobre ejercicios de lápiz y papel referidos a las técnicas de derivación sin usar la definición de límite. Esta fase requiere un tiempo de dedicación importante, máxime cuando muchos de los estudiantes no contaban con los fundamentos mínimos para avanzar. Este hecho afectó esta experiencia, ya que sólo se puedo dedicar tres sesiones a su desarrollo.

Revista de Investigación

60

En la fase de aplicación se trabajó el estudio de la caída libre de los cuerpos ya que este fenómeno permitía enlazar elementos de la historia de la ciencia con el concepto de derivada. Realizar este estudio significaba retomar elementos sucintos de la historia para sustentar las diferentes posturas que se tenían alrededor de la explicación de la caída de los cuerpos, de la misma manera que se requería dar especial importancia a las explicaciones de los estudiantes alrededor de las ideas previas sobre la pregunta: ¿cuáles son los factores que inciden en la caída de los cuerpos y de qué manera era posible encontrar la aceleración con que caen?. Para esto, se escogieron los aportes más paradigmáticos como los de Aristóteles, Galileo, Newton y Einstein, ya que cada uno muestra panoramas distintos y explicaciones que rompen con esquemas de pensamiento que perduraron en la historia por mucho tiempo. En este sentido es posible identificar en los estudiantes el

lugar que ocupan sus ideas previas en la historia y cómo ellas pueden convertirse a otras o arraigarse por más tiempo. Para propiciar ese cambio de concepción alternativa en el estudiante, se les invitó a realizar la prueba experimental de lanzar distintos objetos a distintas alturas y calcular un valor para la aceleración de caída. Esta prueba no solo pondriá en entredicho sus posturas epistemológicas sino que les significaría enfrentar el concepto de derivada desde el ámbito de la aplicación superando el de la especulación, ya que tendrián que usar la segunda deriva de la función posición del objeto para calcular su aceleración de caída. Los resultados que encuentren los estudiantes serán reportados por grupos de trabajo mediante un formato de artículo científico que se les propuso con anterioridad. ANÁLISIS DE LAS EVIDENCIAS RECOGIDAS En la fase de exploración se obtuvieron los siguientes resultados teniendo en cuenta que para el desarrollo de las cinco sesiones de este portafolio, siempre se usaron grupos de tres estudiantes: Los estudiantes respondieron sucintamente a la pregunta así: Grupo 1: Usando otro punto Grupo 2: Usando una recta tangente que pase por el punto Grupo 3: Usando una recta secante


TECCIENCIA Grupo 4: Usando un triangulo de Pitágoras Grupo 5: Usando dos puntos que se encuentren tan cercanos que se pueda tomar un limite cuando su cercanía tienda a cero Grupo 6: Usando la idea tradicional de pendiente

Figura 3: Evidencia de uno de los grupos en la etapa exploración

La figura 3 muestra el trabajo que desarrolló uno de los grupos con relacion a la pregunta que se les hizo; en él muestran que la pendiente de una curva se puede trabajar si se empleará un triangulo de pitágoras. Una postura interesante pues desde mi punto de vista su aporte esconde muchos aspectos teóricos que se pueden desarrollar con más detalle; no se descarta la posibilidad que se pueda aproximar a una explicación acertada al interrogante. Los demás grupos

sólo verbalizaron sus respuestas para el auditorio pero no graficaron nada. Se nota que el grupo 2,3 y 5 e incluso, el grupo que propuso el triangulo de Pitágoras, tienen un pensamiento más formal respecto al interrogante, pues sus respuestas apuntan a muchos atributos de la derivada. En la fase de síntesis se obtuvieron las siguientes evidencias:

Revista de Investigación

61


El uso de un portafolio docente en la enseñanza del concepto de la derivada: una experiencia de aula

Revista de Investigación

62

Las exposiciones de las historietas de todos los grupos privilegiaron aspectos diferentes abordados tanto en la lectura como en el video. A unos grupos les interesó más hablar de la explicación de la derivada a la luz de su aplicabilidad como fue el caso de

una bicicleta subiendo distintas cuestas, mientras que a otros les interesó más rememorar los problemas históricos que dieron origen al estudio de la derivada y la postura de varios pensadores al respecto. Sólo dos grupos mostraron confusión en su


TECCIENCIA La mayoría de grupos muestra entendimiento por los algoritmos de la derivada, solo el grupo 1 y 6 manifestaron dificultades en adquirirlos. En la etapa de aplicación se encontró en la revisión de ideas previas con relación a las preguntas que se les formuló lo siguiente: ¿Cuáles creen ustedes que son los factores como tamaño, peso, altura, forma, color, material, textura, estado climático, entre otros, que puedan afectar la caída de un cuerpo?

Dado que el tiempo de intervención se agotó, se apelo a los medios virtuales para realizar tutorías con algunos grupos, y allí se aclaró inquietudes respecto algunos elementos conceptuales y algorítmicos respecto a cómo usar la segunda derivada en el cálculo de la aceleración de caída de los cuerpos elegidos. Allí se revisaron algunos escritos y se vió mucho interés por su realización. Los resultados de todos los grupos se presentaron en el formato de artículo científico y allí se observo lo siguiente:

Grupo 1: El Peso Grupo 2: El Clima Grupo 3: La Altura Grupo 4: El Peso Grupo 5: La Fricción Del Aire Grupo 6: Tamaño Es sorprendente que únicamente el grupo 4 tenga distintas posturas a las Aristotélicas, todos creen firmemente que los cuerpos caen con una velocidad proporcional a su peso y dependiendo del estado climático puede verse comprometida su velocidad pues el peso que se incorpora al cuerpo por efecto del agua cambia sensiblemente su velocidad. Luego de la prueba de laboratorio so pena de los instrumentos que usaron y de las pocas veces que pudieron repetir la experiencia, tres grupos confirman que las posturas Aristotélicas son correctas, aunque confunden el concepto de velocidad con el de aceleración sin detenerse a meditar sobre ello.

63

Figura 10: grafica de t vs x encontrada por el grupo 4 Esta es una de las curvas que se encontró el grupo 4, se observa que el coeficiente de correlación de las variables de tiempo y altura es bastante alejado del valor esperado, al parecer debido a deficiencias en el proceso de medición y en el número de veces en que repitieron el experimento, aun así encontraron una función no lineal lo cual es positivo pues concluyeron que no existía una proporcionalidad directa entre las variables medidas.

Revista de Investigación

historieta y apelaron a copiar apartados del video pero lejos de un significado claro.


El uso de un portafolio docente en la enseñanza del concepto de la derivada: una experiencia de aula

La mayoría de los grupos encontraron graficas similares a estas con valores para los coeficientes de correlación similares, solo el grupo 3 logró un valor aproximado. Este mismo grupo fue el único que calculó la aceleración de la caída de los cuerpos con los que experimentó, los demás lo pasaron por alto o lo hicieron mal como sucedió con el grupo 5, quienes se preocuparon por hacer una excelente disertación acerca de la obra de Galileo “Diálogos” con lo que construyeron un marco teórico que debatió una a una las hipótesis que plantearon al inicio de la experiencia. Esta disertación les permitió cambiar de postura sin necesidad de hacer la experiencia, sin embargo, los datos que este grupo tomó, fueron muy aproximados aunque hayan realizado mal los algoritmos de la derivada. Como conclusión de la intervención y de modo resumido se tiene los siguientes resultados:

Revista de Investigación

64

• Al final del curso sólo 3 personas no configuraron la idea de derivada o manifiestan una explicación errónea de ella. • Solo 5 personas manifestaron no dominar los algoritmos de la derivada. • En general, todos asocian la explicación de la caída de los cuerpos con la de Aristóteles excepto un grupo. • Solo uno de los grupos encontró un valor aproximado de la gravedad y fue el único que uso la derivada para hacer los cálculos. • Todos publicaron en un formato de artículo científico los resultados de medición. • A pesar que no calcularon la aceleración de caída de los cuerpos con que

• •

trabajaron, solo dos grupos siguieron pensando como Aristóteles. Estos dos grupos confundieron el concepto de aceleración con el de velocidad. Al finalizar el curso solo una persona reprobó y los resultados de todos en el tercer corte estuvieron en un nivel medio. Un grupo manifestó especial agrado por la historia de la caída de los cuerpos e hizo un análisis profundo del libro de Diálogos de Galileo en el marco teórico de su articulo. El tiempo no fue lo suficiente para ahondar en las dificultades particulares de cada grupo, tanto en la adquisición de algoritmos como en la experiencia de medición, a pesar de que se usaron medio virtuales para apoyar las actividades.

A MODO DE CONCLUSION El uso de un portafolio docente para este tipo de intervención pedagógica, siguiendo a Fernández y Maiqués (2001), supone todo un giro metodológico en relación con los modelos anteriores de análisis o evaluación de la enseñanza, es un mecanismo que permite repensar cada actuación del profesor y del estudiante en un todo, dentro de las dinámicas que se dan al interior de un proceso de enseñanza/ aprendizaje sin privilegiar una o la otra. Advierte sus inconvenientes y de algún modo predice una ruta para su solución, por el hecho de reflexionar constantemente sobre lo que se está haciendo y diciendo, pues logra encontrar las potencialidades de


TECCIENCIA El lado axiológico e innovador de este portafolio, en particular, tiene que ver con el uso de la historia de la ciencia, ya que su inclusión permitió abrir los espacios para la discusión y la disertación al tiempo que generó mejor disposición hacia lo que se estaba abordando, tanto así que uno de los grupos de trabajo decidió emprender la lectura de una de las obras de Galileo para ahondar en sus posturas y rebatir más las hipótesis de trabajo, permitiéndoles así abrirse a un cambio conceptual. El hecho de poder comparar las posturas de los estudiantes con las de un científico muestra una cara de la ciencia más humana con sus errores y rectificación y no una historia de héroes y villanos, despierta el interés al tiempo que propicia la articulación entre la estrategia didáctica y la metodología abordada. Usar esta estrategia fue recibida favorablemente por los estudiantes y máxime por los que se encontraban repitiendo el curso quienes manifestaron haber formalizado el concepto de derivada a pesar de no haber adquirido los algoritmos plenamente. A pesar que no se obtuvo resultados favorables en todos los grupos de trabajo, se deja planteada esta estrategia como una herramienta potencial que puede explotarse más y con mejores resultados en un espacio de tiempo más prolongado.

REFERENCIAS Fernandez, A. y Maiques, JM. (2001). La carpeta docente como herramienta de evaluación y mejora de la calidad de la enseñanza. En Evaluación de políticas educativas: VIII Congreso Nacional de Teoría de la Educación, pp 86-90 Matthews, M.R. (1991) Un lugar para la historia y la filosofía en la enseñanza de las ciencias. Comunicación, lenguaje y educación, 11-12, 141-155. Matthews, M. (1994). Historia, filosofía y enseñanza de las ciencias: la aproximación actual. Enseñanza de las Ciencias, 12, 255-277. Navarro, V. (1983). La Historia de las Ciencias y la enseñanza, Enseñanza de las Ciencias, 1(1), pp. 50-53 Sanmartí, N. (2002). Organización y secuencia de las actividades de enseñanza/ aprendizaje. Didáctica de las ciencias en la educación secundaria, 3(8): 169-196. Shulman, L (1992). El portafolio como herramienta de análisis en experiencias de formación on-line y presenciales http://www.uv.es/sfp/pdi/ PORTAFOLIOESTUD.pdf http://edutec2004.lmi.ub.es/pdf/179.pdf http://www3.usal.es/~teoriaeducacion/ rev_numero_06_2/n6_02_art_rodrigue z_conde.htm http://redalyc.uaemex.mx/redalyc/ pdf/356/35603110.pdf http://www.uprm.edu/ideal/portafolio.pdf

65 Revista de Investigación

los estudiantes y del profesor así como sus debilidades y desacuerdos.


Revista de Investigaci贸n 66


TECCIENCIA