Cociente8

Page 1

Un panorama de software y hardware para las ciencias y las ingenierías

Redes neuronales en cascada

Redes neuronales artificiales como representación de los conocimientos dentro de la inteligencia artificial. > Model-Based Design en los sistemas mecatrónicos. > Lógica difusa en nuestras vidas. > El CAD en 3D debe estar “listo para usarse”. > Implementación de algoritmos de control inteligente en LabVIEW. > Controlando la complejidad. > Mision PHOENIX, el inicio.

8

r e c u e nt o mayo - junio / 0 8 w w w.c o c ie nt e .com . mx


Programe Rápidamente Programación Gráfica Intuitiva con LabVIEW de NI

Programación Basada en Texto

Programación Gráfica LabVIEW

LabVIEW de National Instruments está diseñado para incrementar la productividad de ingenieros y científicos que desarrollan aplicaciones de prueba, medición y control. A diferencia de los lenguajes de programación tradicional, la programación gráfica LabVIEW proporciona una aproximación intuitiva y fácil de usar que ayuda a los usuarios a adquirir, analizar y presentar datos en tiempo real con rapidez. LabVIEW ofrece una integración transparente con un amplio rango de hardware de instrumentación y adquisición de datos, así como bibliotecas comprensibles para presentar datos en interfaces de usuario comunes.

>>

Experimente una visita guiada de LabVIEW en ni.com/labview/tour

©2008 National Instruments Corporation. Todos los derechos reservados. LabVIEW, National Instruments, NI, y ni.com son marcas registradas de National Instruments. Los nombres de los otros productos y las razones sociales mencionados son marcas registradas o nombres comerciales de sus respectivas compañías. 2008-9279-821-189-D

01 800 010 0793

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


Contenido

12

09

09> 12>

mayo - junio / 08 www.cociente.com.mx

En portada fractal

18

Directorio» Editor en jefe: Andrea Domínguez Medina | Editor adjunto: Modesto Vázquez Coronel | Arte y Diseño: Ricardo Velasco Mora | Dru-mx | Colaboradores: Claudia Domínguez | Aldo Cruz Monroy | Dr. Guillermo Alfonso Parra Rodríguez | Federico Estrada | Emiliano Fernández-Peña | Alex Eisenring |

Software: Oportunidad transversal para el desarrollo Por Guillermo Alfonso Parra Rodríguez

Model-Based Design en los sistemas mecatrónicos. En el mundo de hoy es raro encontrar dispositivos electromecánicos sin algún tipo de sistema embebido. La inteligencia de un sistema embebido permite un desempeño mejorado, reduce consumo de energía, mejora la confiabilidad, y la operación segura, que son diferenciales clave y valores dominantes en cualquier parte del equipo. Por: Tony Lennon Industry Marketing Manager The MathWorks Traducción: Carlos Jiménez Gallegos.

18>

Redes neuronales en cascada.

23>

Lógica difusa en nuestras vidas.

25>

El CAD en 3D debe estar “listo para usarse”

27>

Controlando la complejidad.

23

“Los artículos publicados en esta revista reflejan opiniones de la exclusiva responsabilidad del autor”

La otra columna.

La representación de los conocimientos dentro de la Inteligencia Artificial (IA) ha seguido principalmente dos estrategias: los métodos simbólicos (uso de lógica matemática) y los métodos conexionistas (Redes Neuronales Artificiales). Por: Jonathan Villanueva Tavira, Vianey Cruz Sánchez, Gerardo Reyes Salgado, Luis E. Morán López, Andrea Magadán Salazar

¿Qué es y cómo incide la llamada “lógica difusa” –fuzzy logic- en nuestras vidas? La pregunta respecto a la forma en la que interactuamos con la tecnología y cómo esa relación cobra cada día más importancia, prestándose al debate y sobre todo, a la imaginación. Por: Lizette de la Garza y Pedro Ponce

El diseño asistido por computadora (CAD) vino a agilizar el proceso de creación de nuevos productos, pero su complejidad obliga a los ingenieros de diseño a capacitarse profundamente, lo cual lleva largo tiempo. ¿Será posible que los usuarios pudieran gozar de los beneficios que brinda el CAD en 3D, pero sin que sea necesario tanto entrenamiento? Por: Ing. Ángel Ribó

SOA introduce velocidad de reacción por medio del modelado y configuración de los sistemas de software. El resultado es un ambiente de software efectivo y costo eficiente donde los empleados que están trabajando dentro de un área pueden ajustar las funciones de la solución conforme a los nuevos requisitos específicos. Por: Paulo Ramos

Es una publicación Bimestral de Cómputo Científico y Técnico S.A. de C.V. Insurgentes Sur 1188-104, Col. Tlacoquemécatl del Valle, C.P. 03200 México D.F. Tel. 55.59.48.26 Fax. 55.59.80.83, Tiraje 7,500 ejemplares. Año 2, No. 7. Edición marzo-abril/08. Circulación entre suscriptores de los principales centros de investigación y manufactura en México. Prohibida la reproducción total o parcial del contenido de esta revista por cualquier medio electrónico o magnético con fines comerciales sin el permiso previo de los editores. Reserva de la Dirección General de Derechos de Autor: 04-2006-11113130000-102. Certificado de licitud de título No. 13568. Certificado de licitud de contenido No. 11141. Marca registrada ante el IMPI 657903. Distribución: Autorización de Registro Postal PP09-1498. Impresión: art-impresos s.a. de c.v. Calle 32 No. Col. Porvenir, 02960 México D.F.

w w w.cociente.com.m x


Editorial

Noticias ciencia

Wjsuvbmj{bs-! pqujnj{bs-!joopwbs-! sfevdjs!fnjtjpoft!ef!DP3-! qfotbs!fo!m hjdb!ejgvtb-! wjbkbs!b!Nbsuf!fo!Qipfojy-! fncfcjept-!joufmjhfodjb! bsujgjdjbm-!DBE!mjtup!qbsb! vtbstf-!qbsbmfmj{bs!!z! dpnp!ibdfsmp

!

!

Últimas versiones Matemáticas Maple 12 ya está disponible! La novedad es que esta última versión se encuentra disponible en varios idiomas. GAUSS Mathematical y Statistical System™ 9.0 Gaussx 9.0 Con nuevas características que le ayudarán a tomar ventaja del poder de los procesadores multi-nucleo o multi-core. Al dividir su código en hilos separados que corren simultaneamente en múltiples procesadores usted reducirá dramaticamente el tiempo en el que necesita correr el código.

DOE New Design-Expert 7.1 Software para diseño de experimentos (DOE por sus siglas en inglés) herramienta perfecta para ingenieros, investigadores, profesionales de la calidad y de Six Sigma. www.statease.com/

Instrumentación: Agilent Technologies lanza el sitio en internet www.proteomics-lab.com, un sitio que informa sobre lo último en software e instrumentos.

HPC: Nvidia lanzó el Nvidia Quadro FX 3600M profesional, unidad de procesamiento gráfico (GPU por sus siglas en inglés). Que incluye Shader Model 4.0, tecnología CUDA y cómputo GPU para visualización. Especialmente para profesionales que trabajan con CAD (computer -aided design) y DCC(digital content creation). Tech-X (www.txcorp.com) lanza la “GPULib software library” la cual ejecuta funciones matemáticas vectorizadas en unidades de procesamiento gráfico (GPUs) de Nvidia, resolviendo operaciones numéricas de alto desempeño a computadoras de escritorio.

Computación y empirismo unidos para desentrañar cómo están regulados los genes y así saber cómo las células se diferencian. Es necesaria una unión más fuerte entre los investigadores empíricos y los computaciones para progresar en uno de los retos más grandes que enfrenta la biología: entender cómo las marcas hipogenéticas contribuyen a la regulación de la expresión genética. Lo anterior fue tratado en el reciente seminario organizado por la Fundación Europea de la Ciencia (ESF) titulado “Enfoques computacionales del papel de las marcas epigenéticas en la regulación de la transcripción”. Se ha establecido que algunas características epigenéticas influyen en el proceso de transcripción mediante el cual secuencias de ADN en los genes son enviadas al ARN y a la producción de proteínas que determinan estructuras y funciones. También se cree que la epigenética además permite cambios a estos patrones de expresión genética que serán registrados, así diferentes órganos y tejidos pueden surgir durante el desarrollo embrionario, manteniendo su identidad y función durante el resto de la vida del organismo. Cambios en la expresión genética pueden ser resultado de la modificación de la cromatina, que es la estructura formada de proteínas y ADN que sirve de repositorio de información genética. Las marcas impuestas sirven como plantillas para la modificación de la cromática, alterando la capacidad de los genes para ser leídos por la maquinaria del ADN transcriptor. El resultado es que algunos genes son reprimidos y otros son silenciados por completo. Uno de los temas claves del seminario fue el entendimiento de cómo estos cambios son “recordados” durante la división celular a través de la replicación de las marcas epigenéticas y, sin embargo, el algunos casos puede ser reversible, permitiendo que la célula sea reprogramada para que tome otro papel o realice una función distinta. Para más información (en inglés) visite: http://www.esf.org/fileadmin/be_user/ew_docs/06-069_Programme.pdf

Investigaciones europeas sobre la luz abren la puerta para cómputo y almacenamiento ópticos. El objetivo de la sustitución de la electrónica por la óptica en el procesamiento de datos, está más cercano gracias a investigaciones de punta sobre las propiedades de luz “rápida y lenta”. El objetivo a largo plazo es impulsar las velocidades de procesamiento y las densidades de almacenamiento de datos en varios órdenes de magnitud, para llevar a una nueva era a la industria de la tecnología de la información. Lo anterior combinando un rendimiento muy superior con una considerable disminución en el consumo de energía. El fenómeno de luz “rápida y lenta” surge de la dispersión de las ondas electromagnéticas cuando éstas interactúan con, y viajan a través de, un soporte físico como lo es un cristal. Esto puede tener el efecto de desacelerar la pulsión de la luz o, en ocasiones, generar la aceleración a nivel local. Estas variaciones de velocidad tienen el potencial para el desarrollo de dispositivos basados en óptica utilizando tan sólo las radiaciones electromagnéticas, en lugar de señales eléctricas, para almacenar y procesar la información. En un futuro más inmediato, estas propiedades serán utilizadas para mejorar los actuales sistemas de comunicación híbridos que combinan dispositivos electrónicos y fotónicos (basados en luz). Pero primero es necesaria más investigación básica, por lo que el estado actual de las mismas, además de un plan de trabajo para futuros proyectos se debatieron en un reciente seminario organizado por la Fundación Europea de la Ciencia(FSE). El proyecto logró sus principales objetivos de la revisión de las investigaciones de punta en el tema, las posibles aplicaciones, y la reunión de una dispersa comunidad científica europea, según el realizador del seminario Marco Santagiustin. Para mayor información (en inglés) visite: http://www.esf.org/fileadmin/be_user/ew_docs/06081_Programme.pdf

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


Europa desarrolla nuevas tecnologías para incrementar la salud del ganado. Iniciativas a nivel europeo y global promueven el mejoramiento de la salud de los animales en las granjas gracias a tecnologías que incluyen modificación genética (MG) e interferencia en el Ácido Ribo-Nucléico ARN. Las bases de dichas iniciativas para desarrollar nuevos tratamientos que aprovechen al máximo estas tecnologías, se dieron a conocer en un seminario organizado recientemente por la Fundación Europea de la Ciencia (ESF por sus siglas en inglés). El seminario se enfocó en temas relacionados con investigaciones de enfermedades en el ganado. También se abordaron los temas de las epidemias y pandemias de alto perfil, de las últimas dos décadas, incluyendo EEB (vacas locas), fiebre aftosa, gripe aviar y PRRSV (Virus del Síndrome Reproductivo y Respiratorio Porcino), lo anterior junto con los problemas de relaciones públicas que enfrentan las tecnologías MG. Es evidente que las nuevas tecnologías bajo la bandera de MG tienen la posibilidad de ofrecer resistencia a las enfermedades, con enormes beneficios para la salud humana, el bienestar animal, y el sector agrícola, pero sólo si la confianza de la población puede recuperarse. Por tanto, el impacto ético y social fueron prioritarios durante el seminario de la ESF. Para más información (en inglés) visite: http://www.esf.org/fileadmin/be_user/ew_docs/06-032_Programme.pdf

de lograr éxitos profesionales en el sector energético, donde ha obtenido logros importantes, entre los que destacan la consolidación del Laboratorio de Pruebas de Equipos y Materiales (LAPEM) de la Comisión Federal de Electricidad (CFE), empresa a la que puso a la vanguardia, al convertirla en una empresa de clase mundial, certificando a varias de sus unidades en los sistemas de calidad. Asimismo ha estado involucrado con otros centros de investigación independientes o ligados a las instituciones de educación superior. La XXIV Mesa Directiva de la AIUME la integran, además: el Ing. Rubén de la Barreda Sanz como Secretario; el Ing. Guillermo Rivera Nova como Tesorero y Vicepresidentes, Directores y Coordinadores de diferentes sectores, institutos y centros, relacionados con la ingeniería en México.

Siguiendo el Macro... El Macroproyecto en el Instituto de Matemáticas Julián Adolfo Adame Miranda toma posesión como presidente de la Asociación de Ingenieros Universitarios Mecánicos Electricistas (AIUME). Por Federico Estrada y Emiliano Fernández-Peña. El pasado viernes 30 de mayo, el ingeniero Julián Adolfo Adame Miranda, Director Ejecutivo del Instituto de Investigaciones Eléctricas tomó posesión como Presidente de la XXIV Mesa Directiva de la Asociación de Ingenieros Universitarios Mecánicos Electricistas (AIUME), en una ceremonia realizada en el salón de actos del Palacio de Minería de la ciudad de México. Julián Adame es Ingeniero Mecánico Electricista y Maestro en Ingeniería Eléctrica de Potencia por la UNAM. Realizó estudios en Economía Energética en el Instituto de Economía Energética de Japón y cuenta con especializaciones en Aseguramiento de Calidad, en Dirección Estratégica y en Alta Dirección de Empresas, trayectoria que lo ha llevado a perfilarse como un gran estratega, capaz w w w.cociente.com.m x

En el Instituto de Matemáticas se ha logrado realizar investigación en computación que abarca todo el espectro, desde problemas teóricos con fuerte componente matemático, hasta aplicaciones que ya se usan con éxito, publicando los resultados en los foros internacionales del más alto prestigio y colaborando con investigadores de Canadá, España, EUA, Japón y Francia, principalmente. Los miembros del Instituto son reconocidos internacionalmente, invitados a participar en los comités de los foros académicos de computación, impartir conferencias plenarias en foros internacionales, así como a exponer los resultados en congresos y universidades. Subproyectos que se desarrollan en el Instituto de Matemáticas con el apoyo del Macroproyecto “Tecnologías para la Universidad de la Información y la Computación”: A) Geometría Discreta y Computacional: Cuyo responsable es el Dr. Jorge Urrutia. La labor principal de este grupo, es el estudio de la Geometría Combinatoria y Computacional. La Geometría Discreta y Computacional estudia de forma primordial problemas de Geometría discreta y el desarrollo de algoritmos eficientes para sus soluciones. Se trabaja en problemas de tipo teórico y aplicado. Como: problemas sobre familias de puntos en el plano, problemas de separabilidad, clasificación, triangulaciones, cuadrangulaciones y construcciones de gráficas geométricas. En una línea de investigación mas aplicada se trabaja en problemas de enrutamiento en redes inalámbricas, redes ad-hoc y


celulares. Se colabora intensamente con grupos de investigación en España (Barcelona, Sevilla, Zaragoza y Madrid), Japón (Tokio) y Canadá (Ottawa). Asimismo se tiene colaboración con investigadores en Los Ángeles, California. B) Desarrollo de fundamentos teóricos de sistemas distribuidos y redes de computadoras y Desarrollo de aplicaciones: como responsable está el Dr. Sergio Rajsbaum. Tiene como objetivos. 1. Identificar y estudiar problemas fundamentales de cómputo distribuido, en modelos que abstraen propiedades importantes de sistemas distribuidos, de manera que los resultados, tanto algorítmicos como de imposibilidad, sean relevantes no solamente a una tecnología particular del momento, sino que contribuyan a la formación de una teoría básica de los sistemas distribuidos. 2. El advenimiento del Web y del Web Semántico nos brinda oportunidades invaluables para el desarrollo de nuevas tecnologías basadas en nuevos principios, y para la investigación de nuevas formas de cooperación. Se ha ido creando un grupo de investigación y desarrollo que intenta mantener a la UNAM en la frontera de estas áreas, aprovechando los conocimientos de los fundamentos teóricos descritos. En particular, se está desarrollando un sistema robusto, eficiente y flexible que está poniendo al día la administración académica del Instituto de Matemáticas, usando técnicas modernas del Web y software libre. C) Software abierto y Cómputo Científico. Responsable: Dr. Micho Durdevich. Tiene como objetivos: (1) Estudios de sistemas BSD, su arquitectura, administración general de software y programación de núcleo. Desarrollo de varias soluciones no-triviales con máquinas interconectadas (como la inicialización remota vía DHCP/PXE, o clusters). También, estudiar Darwin (la parte no-gráfica y libre de Mac OSX). (2) Programación orientada a objetos en lenguaje de máquina, con el enfoque a la arquitectura amd64. (3) Estudio, promoción y desarrollo de cálculo simbólico basado en Máxima. Promover dentro de la comunidad académica la cultura de uso de Máxima en lugar de paquetes cerrados como Matemática. En este subproyecto se pretende atraer estudiantes de la Facultad de Ciencias, del Posgrado en Computación, e inclusive de fuera de la UNAM. Se tienen ya lazos muy estrechos con la Benemérita Universidad Autónoma de Puebla. Logros dentro del laboratorio: --Encapsulación de Windows en una pequeña granja de servidores (actualmente 2) que permiten acceso remoto a Windows desde escritorios Linux/BSD. --Desarrollo de la distribución de software abierto Quetzal: un disco DVD vivo basado en el sistema operativo OpenBSD, con varias herramientas de trabajo científico que incluyen TeX, Maxima, GNUPlot, Gimp, OpenOffice. --Siguiendo la filosofía de Open Courseware, se ha puesto en marcha un portal para cursos en línea, basado en el sistema Moodle. Se está desarrollando otro portal complementario, para matemáticas simbólicas virtuales en línea. --El paquete X-BSD: una extensión del sistema PC-BSD donde la interfaz grafica KDE se ha complementado con funciones similares a Mac OSX y los paquetes principales para trabajos matemáticos en forma de imágenes de disco. --Organización de tres talleres dedicados a Maxima y GNUplot y tres talleres dedicados a software libre con enfoque en trabajos científicos dentro de la plataforma Ubuntu Linux.

El Laboratorio también sirve como un centro de ensamblaje y experimentación. Por ejemplo todas las cosas de la nueva red NFS4, el nuevo servidor de email, Kerberos, firewall PF, primero se han probado dentro del laboratorio antes de ponerlas en marcha a nivel global. Laboratorio de Ciencias de la Computación El laboratorio de Ciencias de la Computación se encuentra ubicado en el ala nueva del Instituto de Matemáticas de la UNAM y comenzó a funcionar en 2007. Con apoyo del Macroproyecto se equipó al laboratorio con: Dos MacPro doble Xeon 64-bits dual-core, con 2GB de RAM y 256MB video PCI-E NVidia, y 250GB de disco duro. Seis Suns (con monitores LCD 17”) AMD64 Opteron dual-core; tres con 2GB de RAM, 256MB de video PCI-E NVidia y 250GB de disco duro y tres con 128MB de video PCI-E NVidia, 1GB de RAM y 160GB de disco duro.

HPC Super Cómputo para las masas! Interactive Supercomputing (ISC) lanza un servicio de software para cómputo de alto desempeño(HPC) dedicado a ingenieros, científicos y analistas que no tengan acceso a hardware de alto desempeño con multiprocesadores y tengan aplicaciones de cómputo técnico que puedan beneficiarse del procesamiento en paralelo. Aunque existen muchos recursos disponibles para laboratorios de investigación en supercómputo y vendedores de sistemas HPC como IBM, Sun y Hp, han sido principalmente recursos de hardware que necesitan que los usuarios adquieran e integren software. Star-P On-demand es uno de los primeros servicios que combina alto desempeño, hardware para multiprocesadores y una plataforma de software de cómputo paralelo, en una solución única que permite al usuario conectarse fácilmente a un sistema de alto desempeño desde su computadora de escritorio.

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


InforSense (www.inforsense.com) muestra la “InforSense Virtual Machine (IVM), una máquina sobresaliente con flujo de trabajo ligero, que puede ser embebida en aplicaciones de terceros que corren en una amplia variedad de plataformas, incluyendo estaciones de trabajo, servidores, instrumentación científica, instrumentos embebidos o instrumentos móviles. Las características de esta IVM incluyen análisis de datos embebidos, calificación en tiempo real entre otros.

La Conferencia Internacional de Supercomputación 2008 (ISC’08), el evento más importante a nivel europeo en el campo de la computación de alto desempeño. En esta 23ª edición, el ISC cuenta con un programa técnico de tres días encabezado por un amplio abanico de reconocidos ponentes e incluye la exhibición de centros de investigación e industria privada líderes en el sector. El ISC se celebrará este año en Dresden, una de las Ciudades de la Ciencia en Alemania. La ciudad tiene una larga historia en innovación técnica y es la sede de un número creciente de empresas de alta tecnología e instituciones de investigación. Para más información sobre esta conferencia, visite la web http://www.isc08.org.

“Supercomputadora” basada en red comunitaria mundial de IBM, se ocupará de la crisis del arroz. Ante la creciente preocupación por la crisis mundial de alimentos, IBM y los investigadores de la Universidad de Washington lanzaron un nuevo programa para desarrollar cepas de arroz más fuertes que podrían producir cultivos con rendimientos mayores y más nutritivos. Con una potencia de cómputo de 167 teraflops, equivalente a la supercomputadora numero tres del mundo, la red World Community Grid de IBM aplicará la potencia no utilizada y donada de casi un millón de PCs individuales a una nueva iniciativa, “Arroz Nutritivo para el Mundo”, un proyecto que estudiará el arroz a nivel atómico y luego lo combinará con técnicas tradicionales de cruce de variedades utilizadas por agricultores a lo largo de la historia. El proyecto puede completarse en menos de dos años, en comparación con los 200 años que hubiera tardado utilizando la potencia de sistemas más convencionales. World Community Grid ejecutará un programa de modelado tridimensional creado por biólogos de la Universidad de Washington para estudiar las estructuras de las proteínas que componen el arroz. Comprender la estructura es necesario para identificar la función de las proteínas y permitir a los investigadores discernir cuáles podrían ayudar a producir más granos de arroz, evitar pestes, resistir la enfermedad o contener más nutrientes. En definitiva, este proyecto creará el mapa más grande y completo de las proteínas del arroz y sus funciones relacionadas, ayudando a los agricultores a identificar las plantas que deben seleccionarse para realizar cruces, con el objetivo de obtener mejores cultivos. Por información adicional sobre IBM, visite: www.ibm.com

w w w.cociente.com.m x

Análisis de datos Sigma Plot 11 listo en el mercado. Systat Software, Inc., desarrollador líder y proveedor de galardonados sofwares, productos y servicios científicos, lanzó SigmaPlot 11, el software más avanzado disponible en el mercado para realización de gráficas y análisis de datos. Utilizado por más de 250,000 científicos, investigadores e ingenieros de diversas disciplinas relacionadas con el análisis de datos y la estadística, SigmaPlot permite a sus usuarios presentaciones con una calidad equiparable a las de publicaciones respetadas. Para más información, por favor visite www.systat.com

Exact Graphs and Data Analysis

GAUSS Mathematical y Statistical System™ 9.0 Gaussx 9.0 Con nuevas características que le ayudarán a tomar ventaja del poder de los procesadores multi-núcleo o multi-core. Al dividir su código en hilos separados que corren simultáneamente en múltiples procesadores usted reducirá dramáticamente el tiempo en el que necesita correr el código.

GAUSSX 9.0 Listo!

By Econotron Software, Inc. www.Econotron.com

OriginLab Corporation anunció el lanzamiento de Origin 8, un software para análisis y gráficas basado en Windows. Por 15 años Origin se ha mantenido como una solución de fácil uso para científicos, ingenieros, investigadores y analistas que requieren de graficar, analizar y hacer presentaciones profesionales con sus bases de datos. Hoy en día, Origin 8 ofrece un libro de trabajo completamente nuevo, pieza central del espacio de trabajo de este software. Con este libro de trabajo multi-hoja, los usuarios de Origin podrán organizar y gestionar sus datos, análisis, reportes, gráficas e imágenes, gracias al uso de una interface flexible e intuitiva. Para más información por favor visite http://www.originlab.com/

Waters UPLC y HDMS Ignite Scientific Ingenuity con un nuevo sistema de soluciones en Pittcon 2008. El Analizador de proceso PATROL™ UPLC® es una tecnología de análisis de proceso (Process Analysis Technology o PAT) en tiempo real que detecta y cuantifica muestras de fabricación complejas con varios componentes y muestras del producto final directamente en la planta de producción. Diseñado con la misma tecnología avanzada que controla el sistema ACQUITY UPLC®, el PATROL UPLC lleva los análisis de cromatografía líquida (LC) existentes de los laboratorios de control de calidad (QC) fuera de la línea de producción directamente al proceso de fabricación, lo que produce mejoras significativas en la eficacia de la producción. Diseñado para que sea fácil de utilizar, resistente y fiable, el Analizador de procesos PATROL™ UPLC® lleva la cromatografía de procesos con alta reproducibilidad a los laboratorios de QC, satisfaciendo necesidades críticas como la automatización de los resultados de pureza y rendimiento, la validación con firma electrónica automatizada y la liberación de lotes en tiempo real.


Mision PHOENIX a Marte el inicio. Lanzada en agosto de 2007, la misión Phoenix a Marte es la primera del Programa Explorador de la NASA. Phoenix está diseñada para estudiar la historia del agua y el potencial de habitabilidad del suelo ártico marciano, rico en hielo. La misión Phoenix a Marte es un acercamiento a la exploración del espacio a través de colaboraciones. Al ser la primera misión de la NASA destinada a la exploración de Marte, Phoenix combina tanto herencia como innovación en un marco de una gran alianza: gobierno, instituciones académicas e industria. Las misiones de tipo exploración están dirigidas por el científico, Peter Smith, del laboratorio Lunar y Planetario de la Universidad de Arizona el cual funje como el Investigador Principal (IP) de Phoenix y es responsable de todos los aspectos de la misión. La Misión de Phoenix tiene una columna de tres vértebras: el IP en la Universidad de Arizona, el director del proyecto en el Laboratorio Jet Propulsion (JPL por sus siglas en inglés), y el administrador de sistema de vuelo en los Sistemas Espaciales Lockheed Martin (LMSS). Estos tres se comunican con frecuencia y velan porque las decisiones se entiendan y se ejecuten rápidamente por el equipo. El IP Smith delegó la responsabilidad de la gestión del proyecto al JPL, con Barry Goldstein al frente, el cual es director del proyecto y está a cargo de un experimentado equipo de ingenieros y científicos. Bajo la dirección de Goldstein, el equipo del JPL lleva a cabo funciones vitales en el manejo de la carga útil, los sistemas de vuelo y otras operaciones de la misión. Estas funciones están apoyadas por ingeniería de sistemas, aseguramiento de la misión, y una oficina de negocios. El JPL también proporciona la interfaz para la Red del Espacio Lejano, enviando secuencias de comandos y recibiendo datos. Durante los 10 meses de fase de crucero a Marte, el JPL mantiene la trayectoria adecuada para lograr que la nave espacial legue a Marte, gracias a la realización de maniobras correctivas. Por último, el JLP guiará la nave espacial Phoenix en el

muy riesgoso proceso de entrada y descenso. Ningun equipo supera al JPL en su habilidad para aterrizar eficazmente naves espaciales en la superficie de Marte. Ed Sedivy está a la cabeza del equipo de ingenieros del Lockheed Martin en el diseño, construcción y realización de pruebas de la nave Phoenix. Sedivy fue el ingeniero en jefe de Lockheed Martin, que estuvo a cargo del desarrollo del aterrizaje en Marte de la Surveyor en 2001. Dicha nave espacial de alta capacidad es la predecesora de la Misión Phoenix. El equipo de Lockheed Martin restaura la nave que aterrizó en 2001, para que esté lista para volar con el proyecto Phoenix; asimismo, desarrolla un sin fin de pruebas para una mayor fiabilidad en la nave espacial. A lo largo de todas las fases de la misión, el equipo de Lockheed Martin seguirá de cerca la salud de Phoenix a través de la vinculación de los centros de operaciones de la nave con los que se encuentran en el JPL y la Universidad de Arizona. Desde la Universidad de Arizona, el IP Smith trabaja de cerca con Leslie Tamppari, científico del proyecto en JPL, para encabezar una asamblea internacional de científicos de una amplia gama de institiciones académicas, tanto del sector privado como del gobierno. Este equipo de científicos tiene experiencia en todas las misiones previas de aterrizaje en Marte. Esta experiencia incluye hidrología, geología, química, biología y ciencias de la atmósfera. Para las operaciones, el equipo está conceptualmente dividido en cuatro grupos instrumentales, cada uno con un científico co-investigador principal (Co-I). Los grupos no pretenden ser restrictivos, pues se entiende que los Co-I’s habrán de tener una participación amplia y transversal alentada por objetivos científicos. El equipo de científicos compartirá residencia en los tres primeros meses de la misión, para poder operar todos los instrumentos, y llevar a cabo el primer análisis en los datos que pueda proporcionar importantes respuestas a las siguientes preguntas: (1) ¿el Ártico de Marte es capaz de mantener vida?, ( 2) ¿cuál es la historia del agua en el lugar de aterrizaje? y (3) ¿cómo afectan las dinámicas de los polos el clima de Marte? Para responder a estas preguntas, Phoenix utiliza tecnología de punta y gran sofisticación como nunca antes había sido enviada a Marte. Un robusto brazo robótico construido por el JPL excava

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


La otra columna

través de la tierra, hasta la capa, el agua de hielo, y proporciona muestras del suelo y el hielo para los experimentos de la misión. Sobre la cubierta, hornos miniatura y un espectrómetro de masas, construidos por la Universidad de Arizona y la Universidad de Texas en Dallas, proporcionan análisis químicos de restos de materia. Un laboratorio transportable de Química, armado por el JPL, dará datos de las caracterizas químicas del suelo y del hielo. Sistemas de imágenes, diseñados por la Universidad de Arizona, la Universidad de Neuchatel (Suiza) (que proporcionó un microscopio de fuerza atómica), el Instituto Max Planck (Alemania) y y Malin Space Science Systems, proporcionarán una vista sin precedentes de Marte,abarcando escalas con 12 de 10 poderes. La Agencia Espacial Canadiense proporciona una estación meteorológica, la primera participación importante de Canadá en una misión a Marte. La Universidad de Arizona será además sede del Centro de Operaciones Científicas (SOC, por sus siglas en inglés) de la Misión Phoenix, en su instalaciones en Tucson. Desde el SOC, los equipos de ciencia e ingeniería se harán cargo de la nave una vez que haya aterrizado correctamente en Marte, y también recibirán datos, que se transmite directamente a la Tierra. Un banco de pruebas de interoperabilidad de carga útil (PIT, por sus siglas en inglés) se alojará en el SOC para verificar la integración óptima de la compleja indumentaria científica del Phoenix. De manera conjunta, el SOC y el PIT garantizarán un proceso perfecto, desde la meta científica en sí, hasta los comandos de los intrumentos y el análisis de los datos. Al igual que con todas las principales misiones de la NASA, Phoenix dispone de un gran programa educativo y de divulgación. El IP Smith conduce el programa, el cual es administrado por la Universidad de Arizona, y tiene conexiones con excelentes recursos educativos de la región suroeste del desierto, y en todos los EE.UU. Este gran equipo es la piedra angular de la misión Phoenix, que tiene grandes esperanzas de ser la primera misión que “toque” y examine el agua en Marte con miras a futuras misiones robóticas y, posiblemente, la exploración humana.

Creditos y más información:

Software: Oportunidad transversal para el desarrollo

Dr. Guillermo Alfonso Parra R.

H

ace unos días el International Institute for Management Development, publicó el índice de competitividad para cincuenta y cinco naciones del orbe. El índice es calculado tomando en cuenta más de trescientos treinta factores diferentes, clasificados en cuatro grandes grupos a saber: desempeño económico, eficiencia gubernamental, eficiencia en los negocios e infraestructura. Es en este último grupo en donde encontramos los indicadores relacionados con infraestructura básica, tecnológica, científica, medioambiental, salud y educación. El primer lugar con la máxima puntuación lo obtuvieron los Estados Unidos, seguidos por Singapur, Hong Kong y Suiza que se constituye en el primer país europeo en aparecer en la lista. De este lado del Atlántico podemos mencionar el octavo lugar de Canadá, el lugar veintiséis para Chile, treinta y cinco para Perú, cuarenta y uno para Colombia, cuarenta y tres para Brasil, cincuenta México, cincuenta y dos para Argentina y cincuenta y cinco para Venezuela. Si consideramos el avance/ retroceso relativo de cada país respecto al lugar que ocupaba el año anterior y hacemos esta suma por bloques económicos/ geográficos, tenemos que los países del TLALCAN, retroceden un lugar, de la misma manera que los siete países de América Latina. Si Brasil no estuviera incluido el retroceso para AL sería de siete lugares pues Brasil avanza seis respecto al año anterior. Un grupo de países que llaman la atención son las denominadas economías emergentes agrupadas en el BRIC - Brasil(43), Rusia(47), India(29), China(17). México ha insistido en que se reconozca el BRIC-M, pero eso aún no se ha formalizado. Pues bien, las economías del BRIC avanzan seis lugares en su conjunto respecto al año anterior. Sin contemplar a Rusia avanzarían diez lugares, lo cual muestra una evolución más que impresionante. Estos son los datos y los factores de medición actuales. Pero qué hay acerca del futuro? En qué condiciones

Traducción: Ricardo Velasco Mora http://phoenix.lpl.arizona.edu/mission_content.php Courtesy NASA/JPL-Caltech

w w w.cociente.com.m x


se puede dar y medir la competitividad de un país cuando el precio del petróleo ha superado los 125 USD, cuando la inflación de alimentos parece desatada en todo el mundo, cuando los efectos del calentamiento global están provocando veranos y/o inviernos más largos e intensos? No hay que dejar de lado fenómenos como el factor demográfico, que causa que en algunos países europeos la tasa de natalidad sea tan baja que conlleva una contracción de la población y por la expectativa de vida, haya cada vez más personas mayores y proporcionalmente menos jóvenes. El mismo IMD toma en cuenta estos elementos relativamente conocidos y los combina con otros muy importantes para el futuro del desarrollo de software, lo cual se constituye en México en una oportunidad a tomar. Las compañías de países como China e India, se encuentran desesperadamente en busca de jóvenes talentos quienes son relativamente abordables desde el punto de vista salarial, están altamente motivados y a través de la tecnología, estos cerebros pueden ser empleados desde cualquier punto alrededor del mundo. Los ingenieros en sistemas y computación latinoamericanos, de manera individual, o incluso organizados en pequeñas empresas son apetecidos por estos nuevos monstruos emergentes de la tecnología. Tanto es así que Infosys Technologies, ya ha abierto su sede en Monterrey, N.L. Por otro lado, el eterno debate entre los amantes de la propiedad intelectual, es decir del respeto a la innovación y los derechos sobre la invención, y aquellos que prefieren una sociedad más abierta y colaborativa, donde la información es compartida por todos, es parte de los desafíos a resolver en cuanto a concepción de modelo de negocio. Una cosa es cierta: con el auge de las comunidades de todo tipo en Internet, le será cada vez más difícil a las compañías y a los gobiernos, contralar el f lujo de información y de conocimiento. En México, el programa que con metas ambiciosas ha dado apoyo a la industria del software ha sido el denominado Prosoft en alguna de sus versiones pasadas, presentes o futuras. La meta que se fijó para el 2013 es conseguir una producción cercana en valor a los 5.000 millones de dólares. Si bien es elevada, pudiera quedarse corta, pues en peso relativo llega a ser apenas la cuarta parte de las remesas enviadas por los migrantes y menos de la mitad de los ingresos por turismo.

Considero que como país México cuenta con al menos tres nichos en los cuáles puede destacar logrando un efecto importante en gran parte de la población. El primer sector tiene que ver con el impulso al turismo. Informes oficiales muestran que en pocos años uno de cada diez empleos se lo deberemos a este sector. Sin embargo los sistemas de reservaciones de hotel, restaurantes, viajes no se encuentran debidamente acoplados, y mucho menos en las PYMES del sector que son usuarias de TI básicas para la administración y conducción de la empresa. El sector de servicios tiene una gran oportunidad. El segundo sector a destacar se encuentra ligado directamente al sector de telecomunicaciones. La banda ancha y el triple play, por no decir el cuádruple play, son un hecho, no así los precios que aún continúan muy altos, pero que tarde o temprano tendrán que bajar. El número de aplicaciones y servicios nuevos -aún no existentes- y que nadie ha aún considerado son una oportunidad a no dejar pasar. En los últimos días jóvenes compañías mexicanas dedicadas al área de juegos de video han sido noticia, confirmando que ese nicho está en auge. Finalmente el sector manufacturero el cual ha incrementado su productividad, en parte gracias a la incorporación de tecnología, va a continuar requiriéndola para poder mantener su competitividad relativa. Me refiero notablemente al sector de automotor, al de autopartes, y a la maquila de commodities electrónicos. Todos ellos además requieren de transporte y logística, y por la tanto de software, abriendo una oportunidad transversal más para aquellos que quieran iniciar una nueva empresa exitosa. Si todo esto sucediera, tendríamos más y mejores empleos para nuestros talentos, mejor calidad de vida, más multinacionales mexicanas y como consecuencia México figuraría entre los diez países más competitivos del mundo, en el 2020. C

Sobre el autor: Guillermo Alfonso Parra Rodríguez es Director de la Escuela de Graduados en Ingeniería y Arquitectura - EGIA. Tecnológico de Monterrey, Campus Ciudad de México. gparra@itesm.mx http://www.ccm.itesm.mx/egia

Considero que las tecnologías de información, inf luyen de manera transversal en múltiples sectores de la economía, por no decir en todos. 10

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


w w w.cociente.com.m x

11


Model-Based Design en los Sistemas Mecatrónicos

Por: Tony Lennon Industry Marketing Manager The MathWorks Traducción: Carlos Jiménez Gallegos, MultiON Consulting Muchos ingenieros se sorprenden al saber que el término Mecatrónica tiene cerca de 40 años de edad. Fue usado por primera vez en 1969 por Tetsuro Mori, un ingeniero de la Yaskawa Company, para describir un sistema compuesto por elementos mecánicos y eléctricos que es controlado por un sistema embebido (Figura 1). En el mundo de hoy es raro encontrar dispositivos electromecánicos sin algún tipo de sistema embebido. La inteligencia de un sistema embebido permite un desempeño mejorado, reduce consumo de energía, mejora la confiabilidad, y la operación segura, que son diferenciales clave y valores dominantes en cualquier parte del equipo.

el diseño y la comunicación entre los ingenieros de diferentes disciplinas. Model Based Design extiende el mundo de la ingeniería asistida por computadora (CAE) con una perspectiva original en el diseño a nivel sistema. Sí como el diseño el diseño asistido por computadora (CAD) provee una descripción geométrica o estática del equipo, Model Based Design incorpora los requerimientos en dinámica y desempeño requeridos para describir de manera apropiada el sistema. Dado que esta propuesta es realizada vía software, los ingenieros pueden investigar de manera fluida diseños competentes y explorar nuevos conceptos sin el extenso costo de inversión en hardware. Los ingenieros pueden de manera continua probar el diseño al tiempo que evoluciona, checarlo frente a requerimientos y encontrar errores en etapas tempranas del proceso de desarrollo cuando es más fácil y menos caro corregirlos. Además, Model Based Design automatiza la generación de código para sistemas embebidos eliminando la necesidad de necesitar de escribir a mano los algoritmos de lazo abierto y lazo cerrado.

figura 1. La mecatrónica es una sinergia de sistemas mecánicos y eléctricos controlados por un sistema embebido.

Los beneficios de un sistema embebido devienen en precio. Así como el sistema mecatrónico toma ventaja de microprocesadores más poderosos, que proveen la inteligencia para sistemas embebidos, la interacción entre software y hardware se vuelve más compleja. Maniobrar esta complejidad puede proponer desafíos a los equipos de ingenieros de hardware y software, quienes establecen requerimientos, describen problemas, prueban e implementan soluciones de diferentes maneras. Además, los ingenieros deben diseñar estrategias de control en lazo cerrado para compensar interacciones electromecánicas y perturbaciones externas, así como incorporar control supervisado de lazo abierto para cumplir requerimientos operacionales, como encendido y apagado, seguridad del equipo y del personal, detección y remediación de fallas. En los métodos más tradicionales, los ingenieros prueban prototipos de software y hardware, direccionando la validación del software muy tarde en el proceso de desarrollo. Los errores de hardware y software que se descubren en esta etapa crean retrasos costosos y pueden consumir tiempo buscando la raíz de lo que los causa. Los errores relacionados a requerimientos incompletos, incorrectos, o requerimientos en conflicto pueden incluso necesitar un rediseño fundamental. Mejorar el Desarrollo Usando Model-Based Design Model Based Design (Figura 2) simplifica el desarrollo de sistemas mecatrónicos al proveer un ambiente común para 12

Figure 2. Model-Based Design pone el modelo a nivel sistema como centro del proceso de desarrollo de los sistemas mecatrónicos.

Model Based Design usa un modelado a nivel sistema que define especificaciones ejecutables describiendo el comportamiento natural y el controlado del equipo en una forma matemática. Los ingenieros pueden ejecutar el modelo simulando la dinámica real y el desempeño del sistema. El modelo especifica una definición matemática no ambigua del desempeño esperado del modelo mecatrónico. Como una especificación ejecutable, el modelo a nivel sistema provee una clara ventaja sobre documentos escritos, los cuales, dado que son sujetos a interpretación, pueden conducir a requerimientos incumplidos, redundantes o en conflicto con otros requerimientos. Los requerimientos escritos siempre existen, pero los ingenieros pueden ligar sus formatos electrónicos al modelo a nivel sis Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


w w w.cociente.com.m x

13


tema y ayuda a establecer el cumplimiento de estándares tales como el ISO 9001 o el IEC 61508. El rastreo de requerimientos a partir de las especificaciones escritas hasta el modelo a nivel sistema clarifica como el ingeniero interpreta dicho requerimiento. Las ligas electrónicas entre requerimientos y el modelo permiten a los ingenieros conectar criterios de prueba a casos de prueba usados a través del proceso de desarrollo. Un diagrama de bloques es un método natural para expresar un modelos a nivel sistema (figura 3). El modelo tiene entradas –señales proporcionadas por instancias externas, y salidasmediciones de lo que realmente está haciendo el sistema. Las entradas y salidas representan valores reales, como voltaje, temperatura y pH.

Figure 3. Un diagrama de bloques provee una visión intuitiva del modelo a nivel sistema.

Adentro del modelo, los bloques representan operaciones matemáticas entre las señales de entrada y salida del modelo. Algunos bloques, llamados la planta o proceso, representan el comportamiento natural de un sistema mecatrónico. Por ejemplo el modelo puede contener un bloque representando un motor. El modelo matemático del motor puede ser muy simple, tomando el voltaje de entrada y convirtiéndolo en una salida de torque. La complejidad del modelo del motor puede incrementarse añadiendo más entradas al modelo, como ruido en el voltaje, o añadiendo más parámetros, como los efectos de la temperatura y la saturación magnética. Un solo bloque o un grupo de ellos, filtrando y procesando señales basadas en errores de la salida o eventos que ocurren en el modelo, pueden representar la compensación o control en el sistema. Las bases de un modelo a nivel sistema es aglutinar los parámetros matemáticos que definen el sistema. Las ecuaciones diferenciales ordinarias (ODEs) y las ecuaciones diferenciales algebráicas (DAEs) expresan la relación entrada salida del sistema mecatrónico. En el ejemplo del motor, una ODE describe la relación entre voltaje de entrada y el torque de salida del la flecha. Las ecuaciones diferenciales son una vía computacionalmente eficiente para describir dinámicas aglutinadas, en oposición a las herramientas de modelado basado en ecuaciones diferenciales parciales, como análisis de elemento finito (FEA). El software FEA puede ser usado para resolver la distribución del estrés inducida por el torque como en una sección clave de la fleca del motor. Usar ODESs para describir el comportamiento a nivel sistema de un sistema mecatrónico que involucra diferentes disciplinas de la ingeniería no puede venir sin una serie de retos. Expresar 14

matemáticamente el comportamiento de un sistema requiere que se posea el conocimiento de la física subyacente del sistema. La realidad de los sistemas mecatrónicos es que todos los sistemas son no lineales y deben contarse efectos térmicos, de histéresis y fricción que exhiben, de manera normal, los equipos mecatrónicos. Mejorando el Modelado a Nivel Sistema Cuando las matemáticas del sistema se vuelven muy complicadas o consumidoras de tiempo para desarrollarlas, los ingenieros pueden girar hacia otras alternativas del modelado a nivel sistema. Un método común para suplir la metodología del uso de los principios básicos es el modelado empírico basado en datos, como es el caso de la identificación de sistemas o las redes neuronales. Estas propuestas tipo caja negra usan datos de mediciones entrada-salida para construir un conjunto lineal o no lineal de ODEs del comportamiento del sistema para incorporarse dentro del modelo nivel sistema. Estas propuestas no dan una visión completa dentro de la física del sistema, pero pueden conducir a descripciones precisas de la dinámica del sistema dentro de la región de los datos de prueba. Los datos medidos pueden mejorar la precisión de u modelado por principios elementales utilizando técnicas de estimación de parámetros. Este modelado tipo caja gris, involucra técnicas de optimización para el ajuste de parámetros del modelo, como el coeficiente de fricción, para igualar la salida del modelo con los datos de prueba. Model Base Design permite a los ingenieros comenzar con un modelo a nivel sistema poco detallado e ir incrementando su fidelidad al tiempo que el desarrollo progresa. Una modelo prueba de concepto representado por un conjunto de ODEs de orden bajo puede ser todo lo requerido para de manera inicial ayuda a los ingenieros a eliminar conceptos con baja expectativa. Para ideas fuertes, pueden añadir fidelidad al incorporar subcomponentes de proveedores para evaluar más rápido las mejores combinaciones de componentes. Los modelos se desarrollan con una combinación de dominios múltiples proveyendo solamente el detalle necesario para asegurar el desempeño bajo condiciones operacionales expresadas en los documentos de requerimientos. CAD se encuentra con Model Based Design en razón de que los ingenieros incrementan la fidelidad utilizando propiedades de masa e inercia de un sistema mecánico traducido de un archivo CAD de ensambles tridimensionales. Los ingenieros pueden remplazar una representación matemática con bloques que representan los cuerpos mecánicos y uniones traducidas automáticamente desde el archivo CAD. Además de agilizar el desarrollo de modelos mecánicos complejos a nivel sistema, esta propuesta asegura que los diseñadores del sistema y los ingenieros mecánicos acuerden un comportamiento del modelo una vez que represente el sistema mecatrónico real cuando sea construido. Desarrollando la estrategia de control Después de describir el comportamiento natural del sistema, el siguiente paso es el desarrollo y evaluación de una estrategia de control, la cual puede incorporar muchos niveles de control en lazo abierto y lazo cerrado dentro del sistema mecatrónico. El control en lazo abierto, el cual incluye todo el control de Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


interfaces, modos de operación, lógica y supervisión, es el cómo los ingenieros implementan la operación segura, la detección de fallas, y las características de recuperación. El control en lazo cerrado puede estar en un rango de sofisticación que va desde algoritmos de compensadores básicos como el Proporcionalintegral-derivativo (PID) hasta una implementación de controladores multi-variables Lineales-cuadráticos-Gausianos (LQG). El control en lazo abierto realiza control supervisorio y los modos de operación dentro del equipo y direcciona la interacción con el operador del equipo. Los diseñadores del equipo que usan microprocesadores más poderosos pueden desarrollar interfaces de usuario complejas que proveen un mejor control sobre la operación del equipo. Como resultado, los desarrolladores pueden crear sistemas de auto-diagnóstico, detección de fallas y desactivado seguro cada vez más sofisticados dentro del equipo. Model Based Design ayuda a los ingenieros a desarrollar y probar sistemas de control en lazo abierto cada vez más complejos frente al modelado a nivel sistema. La simulación permite estar probando desde etapas tempranas del proceso de diseño para mejorar la ergonomía del equipo y encontrar escenarios que pueden causar daño al equipo o crear condiciones inseguras de trabajo. Un sistema mecatrónico puede emplear un número de controladores en lazo cerrado operando sobre un rango de condiciones. Usar un modelo a nivel sistema ayuda en el diseño y sintonización de los controladores que exhiben comportamientos acoplados. Sintonizar los controladores en el hardware es difícil y consume tiempo, y frecuentemente resulta en la sintonización del sistema por debajo del desempeño esperado para evitar la inestabilidad del sistema. Un modelo a nivel sistema permite a los ingenieros analizar la interacción de los lazos de control, desarrollar estrategias de desacople, y sintonizar las ganancias con una variedad de métodos que recaen en las técnicas directas y técnicas basadas en optimización. En esta etapa, el modelo a nivel sistema, expone las inestabilidades dinámicas que son físicamente o económicamente no realizables para eliminarlas al usar métodos de compensación de lazo cerrado. El modelo hace fácil identificar y ajustar los parámetros físicos como masa, largo, y capacitancia, los cuales pueden causar inestabilidad. Como resultado, se pueden identificar los problemas durante la etapa más económica que es la etapa de simulación por software, más que encontrar dichos problemas al probar prototipos físicos. Model Based Design ayuda a los ingenieros a realizar estudios de costo-beneficio dentro del sistema de control. El modelo a nivel sistema es una herramienta de análisis para decidir cuando un sensor menos caro con una mayor tolerancia provee los valores deseados de precisión y desempeño. Los ingenieros pueden evaluar prácticamente cualquier componente usado en el sistema mecatrónico para ver la relación costo contra impacto en el desempeño del sistema. Prueba y Verificación Continua del Sistema La prueba y verificación a través del proceso de desarrollo involucra la definición y uso de pruebas estándares en conjunto con el procesos de desarrollo del sistema de control. Usar pruebas estándares asegura que los ingenieros prueben la evolución del modelo a nivel sistema de una manera consistente y con el mismo conjunto de medidas. Los criterios de prueba como w w w.cociente.com.m x

paso/fallo y bandas de tolerancia son asociados con la prueba a través de ligas electrónicas hacia los requerimientos del sistema. La prueba continua con pruebas de confianza estándares expone de manera inmediata el impacto que tiene cualquier cambio en el diseño sobre las salidas del sistema lo que ayuda a rastrear rápidamente del cambio a la causa. Además, los ingenieros pueden usar las pruebas para determinar cuándo se tiene una cobertura complete del modelo, una medida completa de cómo se ejecuta la prueba por sobre todos los escenarios del equipo. Verificar que las pruebas estándares ejecutan totalmente al sistema para todas las condiciones de operación durante la fase de modelado asegura a los desarrolladores que la prueba es completa y correcta antes de que las pruebas comiencen en el prototipo físico. Model Based Design ayuda a los ingenieros a crear pruebas completas que pueden usar durante todas las etapas del proceso de desarrollo y dentro de las pruebas de producción. Elaboración de Modelo a Nivel Sistema para Despliegue Una vez que la estrategia de control ha sido desarrollada y probada en simulación, los ingeneiros además elaboran el modelo para despliegue. Despliegue se refiere a convertir el algoritmo de control hacia código C, lenguaje para descripción de hardware (HDL), o un lenguaje IEC 61131-3, como texto estructurado (ST), para ejecución en tiempo real. Este proceso involucra convertir los algoritmos de control de un formato continuo (analógico) a uno discreto (digital), frecuentemente en aritmética de punto dijo. Durante la prueba continua, los ingenieros prueban la forma digital de sus algoritmos de control frente a la forma continua de la planta para conocer cuando la conversión digital afecta de manera adversa el desempeño deseado del sistema. La elaboración del modelo permite a los ingenieros examinar otros aspectos en la conversión a señales digitales. Los diseñadores del sistema modelan los dispositivos de entrada/salida (I/O) y ningún convertidor A/D y D/A asegura que no habrá corrupción o encubrimiento de señales en la implementación real del sistema. Los sistemas mecatrónicos frecuentemente usan una combinación de diferentes procesadores que operan a diferentes velocidades y diferentes tasas de muestreo. El modelo a nivel sistema permite simular y probar varias combinaciones para determinar opciones de costo y de implementación, tales como usar un arreglo programable de compuertas (FPGA) en vez que un procesador digital de señales (DSP), o cálculo en punto fijo en vez de cálculos de punto flotante. Prueba del Sistemas Mecatrónicos Utilizando Sistemas de Tiempo Real Probar el modelo a nivel sistema en un sistema de tiempo real es el siguiente paso de Model Based Design. En esta etapa, los ingenieros convierten de manera automática el modelo a nivel sistema en código C, HDL o código PLC. Los ingenieros pueden generar código para sus algoritmos de control, la planta, el modelo o ambos, dependiendo en cómo escogen probar el sistema. En Model Based Design, convertir de manera automática el modelo a nivel sistema a código elimina la necesidad de que los ingenieros del sistema sean expertos en escritura de código, previene la introducción de errores y ahorra tiempo. 15


El proceso de generación automática de código es análogo a generar una trayectoria para la herramienta en el maquinado de una pieza de un archivo CAD tridimensional. Si un error ocurre en la parte después del maquinado, el ingeniero checa y modifica el archivo CAD y genera nuevamente el código para la trayectoria de la herramienta. En Model Based Design, los ingenieros cambian el código vía el modelo a nivel sistema, un ambiente natural para eliminación de problemas del sistema. Ellos actualizan y prueban el modelo y generan de nueva cuenta el código. Usar sistemas de prueba dedicados de tiempo real, involucra dos tipos de pruebas: prototipos rápidos (RP) y Hardare-inthe-loop (HIL). Durante estas pruebas, los ingenieros pueden recolectar datos en tiempo real y modificar parámetros en el código al tiempo que el código se ejecuta. La Tabla 1 muestra algunas de las opciones para pruebas en tiempo real e ilustran la flexibilidad de las pruebas que permiten a los ingenieros atrapar errores críticos que consumen tiempo antes de que el hardware real esté disponible. Cómo lo establecimos anteriormente, rastrear los errores hacia su fuente es mucho más fácil dado que el modelo a nivel sistema es la especificación, atado directamente a los documentos de los requerimientos.

optimización completa y simplifica el uso de código por los ingenieros de software, responsables usualmente de integrar el código dentro de un conjunto grande de código. Resumen Model Based Design es un CAE para diseños a nivel sistema en sistemas mecatrónicos. Los ingenieros desarrollan y prueban un modelo conductual para sus equipos en software con los siguientes beneficios: 1. La capacidad de diseños y pruebas económicas para probar múltiples propuestas sin el costo de realización de prototipos en las etapas tempranas del diseño. 2. Un ambiente colaborativo de diseño que usa especificaciones ejecutables comunes que conectan los documentos de requerimientos y permite que ingenieros de múltiples disciplinas se comuniquen en un lenguaje común. 3. La habilidad de reducir los costos de desarrollo al encontrar y corregir fácilmente errores durante la etapa temprana de simulación. 4. La capacidad de desarrollar sistemas embebidos complejos que proveen valor agregado al cliente, calidad de producción, y sofisticación de los sistemas mecatrónicos. C

Table 1. Escenarios de prueba Rapid prototyping y hardware-in-the loop.

Durante el llamado rapid prototyping, el sistema de tiempo real se conecta con el hardware real. Dado que el sistema de control en el modelo contiene todas las I/O necesitadas en la mayoría de los casos, el modelo a nivel sistema crea de manera automática del código para esas características, eliminando la necesidad de que lso ingenieros la codifiquen a mano. Las pruebas de HIL despliegan el modelo de la planta del equipo en un sistema de tiempo real. En esta situación, los ingenieros despliegan los algoritmos de control en un sistema de prueba de tiempo real o en el procesador seleccionado, y conectan el modelo de la planta, la cual también corre en tiempo real. Las pruebas HIL pueden ser también realizadas usando el modelo simulado de la planta en una computadora de escritorio o estación de trabajo. Calidad de Producción en la Generación de Código Model Based Design Permite a los ingenieros usar el modelo a nivel sistema para desplegar los algoritmos de control en código C, HDL, o código PLC, dirigiendo la producción hacia el procesador o sistema en tiempo real. El proceso de generación de código optimiza la calidad de producción para un procesador en específico. Esto difiere del código usado en pruebas de tiempo real porque el proceso deja de lado todos los parámetros requeridos durante las pruebas y optimiza el código para un mínimo circuito impreso, para reducir memoria o para maximizar la velocidad computacional. Los ingenieros tienen control sobre el proceso de generación de código para incluir datos tipo objeto, clases de almacenamiento definidas por el usuario, tipos, y sobrenombres. Además, Personalizar el formato del código para cumplir automáticamente con la guía de estilo del software de la compañía ayudando a hacer una 16

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


w w w.cociente.com.m x

17


Redes neuronales en cascada Por: Jonathan Villanueva Tavira, Vianey Cruz Sánchez, Gerardo Reyes Salgado, Luis E. Morán López, Andrea Magadán Salazar

La representación de los conocimientos dentro de la Inteligencia Artificial (IA) ha seguido principalmente dos estrategias: los métodos simbólicos (uso de lógica matemática) y los métodos conexionistas (Redes Neuronales Artificiales). Estas dos estrategias de representación se han opuesto durante varios años, afirmando que cada una de ellas es la óptima para representar el conocimiento. Entre los recientes desarrollos de la IA, se han propuesto estrategias que intentan incorporar las ventajas de una y otra. El estudio de los Sistemas Híbridos que combinan Redes Neuronales Artificiales y representaciones simbólicas, ha abierto una nueva perspectiva de solución para los problemas de aprendizaje y explicitación (o extracción) de conocimientos a partir de las bases de ejemplos. Un Sistema Híbrido está formado por la integración de varios subsistemas inteligentes, en el que cada uno mantiene su propio lenguaje de representación y un mecanismo diferente de inferir soluciones. El objetivo de los Sistemas Híbridos es mejorar la eficiencia y la potencia de razonamiento así como la expresión de los sistemas inteligentes aislados. En general la investigación en el campo de los Sistemas Híbridos trata de mejorar la forma de desarrollar Sistemas y construir mecanismos más potentes, utilizando menos esfuerzo que el necesario para generar un sistema basado en un solo sistema inteligente [Corchado99]. Soft Computing Es una colección de técnicas de Inteligencia Artificial, basado en la forma en que piensa el humano. A diferencia del cómputo convencional (hard computing), el soft computing posee características como la incertidumbre, la verdad parcial y aproximación [Zadeh79]. Las técnicas que constituyen al Soft Computing son: lógica difusa, redes 18

neuronales artificiales, computación evolutiva, aprendizaje automático y razonamiento probabilístico (Figura 1).

Figura 1. Técnicas de soft computing.

Sistemas híbridos Son sistemas que integran técnicas de soft computing. El objetivo de estos sistemas es utilizar las técnicas de soft computing combinadas para aprovechar las fortalezas de cada una y compensar sus debilidades. Los sistemas híbridos permiten la representación y manipulación de diferentes tipos de datos, que pueden provenir de diversas fuentes. Los sistemas híbridos [Kandel92, Medsker94, Nikolopoulos97, Sun97, Cloete2000] son sistemas que están basados en la integración de técnicas como las redes neuronales artificiales y los sistemas difusos. También pueden están basados en técnicas tradicionales como la representación simbólica o interacción entre componentes simbólicos (como los sistemas expertos o los sistemas basados en conocimiento). Existen varias formas de combinar los sistemas simbólicos y las técnicas de soft computing,

como también diversas maneras de integrarlos. Por ejemplo las redes neuronales pueden combinarse con la lógica difusa, el razonamiento basado en casos (CBR), o los algoritmos genéticos (AG) para obtener un modelo unificado. (Figura 2). Sistemas híbridos neuro-simbólicos El argumento principal del uso de los sistemas híbridos es que la mayoría de las técnicas de inteligencia artificial son complementarias. De esta forma los sistemas híbridos aprovechan las ventajas de cada uno de los componentes con el fin de aumentar la eficiencia del sistema, además de eliminar sus desventajas de cada uno. Asegurar la integridad de grandes cantidades de conocimiento y manipularlo en las computadoras, es uno de los problemas principales de la IA. El formato de representación de conocimiento que se elija debe considerar las características naturales inexactas e incompletas de los datos. Existen diferentes maneras de representar el conocimiento con datos inciertos, imprecisos

Figura 2 Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


o incorrectos. Algunos métodos son los más adecuados para manejar datos numéricos, mientras otros lo son para manejar datos simbólicos. No existe un método de representación de conocimiento perfecto que pueda representar todos los tipos de conocimiento: numérico y discreto, simbólico y no-simbólico, exacto e inexacto, preciso o incierto, específico y general. El conocimiento humano es difícil de expresar en un formato de computadora, debido a que los humanos resuelven problemas que usan varias “herramientas de razonamiento” como inferencia, analogía y la deducción basadas en su propia experiencia o en algunos conocimientos previamente adquiridos. Algunos objetivos de los sistemas híbridos son: • Aprovechar todo el conocimiento disponible sobre un tema. • Realizar una búsqueda poderosa de respuestas y resultados. • Mezclar los diferentes tipos de información (simbólica, numérica, inexacta, imprecisa). • Mejorar el funcionamiento del sistema. • Eliminar las desventajas de los métodos individuales. • Crear sistemas robustos de razonamiento. En este proyecto de tesis nos enfocaremos al estudio de los Sistemas híbridos neuro -simbólicos. Sistemas híbridos neuro-simbólicos Los Sistemas híbridos neuro-simbólicos manejan información numérica y simbólica de una manera más eficaz que los sistemas individuales. Los Sistemas híbridos neuro-simbólicos (SHNS) [Hilario97, Cloete2000, Welter2000] son sistemas basados en redes neuronales artificiales, pero también interactúan con los componentes simbólicos. Estos sistemas nos permiten integrar el conocimiento simbólico y el conexionista, de esta manera se complementa el conocimiento contenido en cada uno de estos. La representación y manipulación de conocimiento simbólicamente estructurado, codificado en un idioma cerca del lenguaje natural, es exactamente el punto central del conocimiento simbólico como los Sistemas Expertos o Sistemas Basados en Conocimiento. La ventaja de estos sistemas es su habilidad de representar el conocimiento, debido a que su forma de representación es comprensible. Las redes neuronales artificiales se basan en el modelo del cerebro humano. La representación de conocimiento interno de una RNA no es fácil de interpretar, por ello son conocidas como “cajas negras”. Sin embargo, las RNA’s son herramientas muy poderosas que pueden aprender fácilmente y ocuparse de la información inexacta e incierta. Los sistemas expertos que se diseñan ocupan el conocimiento de un especialista representado por las reglas simbólicas. Los sistemas conexionistas son herramientas que aprenden y generalizan conocimiento obtenido de los casos prácticos (incluyendo los datos inciertos e inexactos).Combinando estos dos acercamientos, se complementaran para mejorar su funcionamiento. La figura 3 muestra un esquema de un SHNS que sigue estas etapas. Las etapas que involucra un SHNS son las siguientes: a) Compilación de reglas en una RNA inicial.- En esta etapa, las reglas simbólicas proporcionadas por un experto humano son representadas simbólicamente (Módulo Simbólico) y convertidas a una Red Neuronal Artificial, la cual es llamada RNA inicial. w w w.cociente.com.m x

b) Aprendizaje Conexionista.- Para esta etapa se implementa un módulo conexionista el cual recibe la RNA inicial. Esta red es sometida a un proceso de aprendizaje a partir de una base de ejemplos. Al final de esta etapa, se obtiene una Red Neuronal Artificial, la cual es llamada RNA “refinada”. c) Explicitación de reglas de una RNA.- En esta etapa se realiza la extracción de reglas simbólicas a partir de la Red Neuronal Artificial refinada. A estas reglas se les llama reglas “refinadas”. d) Validación de reglas.- En esta etapa se somete al conjunto de reglas generadas a una doble validación.

Figura 3. Funcionamiento del Sistema Hibrido Neuro-Simbolico INSS [Osorio98]

• Con las reglas obtenidas inicialmente por el experto humano. • Las nuevas reglas generadas por el sistema que no han sido consideradas, son validadas directamente por el experto.

Figura 4. Conocimientos en el sistema INSS [Osorio 98].

Algunas ventajas de este sistema son las siguientes: • El algoritmo de aprendizaje con óptimo desempeño (cascade correlation). • Red neuronal artificial de tipo incremental. • Permite el uso de conocimientos (reglas y ejemplos) incompletos. • Proceso incremental de extracción de reglas. • Extracción de reglas con análisis parcial. Las aplicaciones de los SHNS son varias, las más importantes son: los problemas de clasificación, para reforzar los sistemas expertos y la robótica autónoma. Cascade Correlation Las unidades ocultas en una red permiten reducir el error mejorando el funcionamiento de la misma. Sin embargo no es posible saber a priori cuantas unidades ocultas son necesarias en las capas intermedias de la red. Cuando se tiene muy pocas 19


unidades se obtiene una mala generalización, por el contrario, se consideran muchas se obtiene un sistema que requerirá mas tiempo de entrenamiento. A este tipo de problema se le llama efecto de caja negra. Para resolverlo existen algoritmos que modifican su topología durante el entrenamiento. Un ejemplo de estos algoritmos es Cascade Correlation. Cascade Correlation fue propuesta por Falhman y Leiber [Falhman91]. Es una arquitectura y un algoritmo de aprendizaje supervisado para redes neuronales artificiales. Es un algoritmo autoconstructivo cuyo objetivo es generar una red neuronal en donde cada unidad aprende una tarea especifica lo mas rápido posible, evitando algunos problemas inherentes en el algoritmo Backpropagation. Este algoritmo inicia con una red mínima y durante el entrenamiento agrega nuevas unidades ocultas que crean una estructura multicapa. Combina dos ideas principales: > La arquitectura en cascada que agrega unidades ocultas que no cambian. > El algoritmo de aprendizaje que crea e instala las unidades ocultas. Para cada nueva unidad oculta, el algoritmo [ intenta aumentar al máximo la correlación entre las nuevas unidades y el error total de la red. ] Cascade Correlation trabaja de la siguiente manera: a) Primero se entrena la red sin unidades ocultas utilizando el método del gradiente descendente. (Figura 5).

Donde Vi, hace referencia a la unidad de salida para el patrón i y V a la salida promedio, respectivamente.

Figura 6. Red Cascade Correlation durante la fase de entrenamiento de la primera candidata.

El objetivo de este paso es utilizar la unidad oculta para determinar el error residual de la red. Una vez que la unidad oculta ha sido entrenada, es decir cuando la correlación no puede mejorarse, la unidad se añade a la red. (Figura 20). Los pesos de la unidad fija se congelan. La unidad de salida recibe la información de las entradas y de la unidad oculta. Todos los pesos de la unidad de salida se re-entrenan hasta que los niveles de error caen en el rango de aceptabilidad. Se prueba si es necesario añadir una nueva unidad. Cualquier nueva unidad oculta recibirá la señal tanto de las entradas de la red como de cualquier unidad previamente añadida a la misma. El algoritmo continúa añadiendo unidades ocultas hasta que se logra minimizar el error (Figura 7).

Figura 5. Red inicial Cascade Correlation.

b) Posteriormente en las siguientes fases de entrenamiento se inserta una neurona oculta en la red para aumentar al máximo la correlación entre las nuevas unidades y el error total de la red. Este proceso de inserción se divide en varias fases: > Se generan n unidades candidatas. > Generamos pesos aleatorios para cada una de las candidatas. > Se realiza el entrenamiento por separado de las neuronas. > Se elige la mejor candidata y es insertada a la red. Para calcular la covarianza utilizamos: El error medio de la red se representa por Ē y el error por patrón por Ei, donde i=1,2,…p. Cada unidad escondida se entrena en forma aislada del resto de la red, para maximizar el valor absoluto de la correlación entre:

20

Figura 7. Cascade Correlation después de haber insertado la mejor candidata a la red.

Debido a que las unidades una vez colocadas no pueden modificarse, el entrenamiento sucesivo es acumulativo. Este enfoque elimina la necesidad de elegir el tamaño de la red neuronal y provee una topología adecuada para cada problema. Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


La figura tal muestra una red entrenada y estructurada usando cascade correlation [Falhman91]. Las ventajas de utilizar este algoritmo son: • No es necesario establecer el número de neuronas en la capa oculta pues se encarga de determinar la mejor topología de red posible. • La reducción considerable del tiempo de entrenamiento de la red con respecto a los algoritmos de retropropagación, ya que cada iteración se entrena una única capa de pesos. La desventaja de este tipo de red es: • Solo se puede utilizar para problemas de clasificación y no para aproximación de funciones o identificación de procesos. Problema Una red neuronal es un procesador masivamente paralelo distribuido que es propenso por naturaleza a almacenar conocimiento experimental y hacerlo disponible para su uso [Haykin94]. El problema de la investigación consiste en extraer los conocimientos numéricos implícitos en una Red Neuronal Artificial de tipo CasCor, y hacerlos explícitos al usuario mediante una representación simbólica de reglas, la cual es mas clara y fácil de entender. Para esta explicitación se parte del supuesto que al terminar de entrenar una red neuronal, en los pesos y la topología de la misma se encuentra almacenado el conocimiento, que está implícito dentro de la base de ejemplos. Ahora, el reto es hacer explícito ese conocimiento. De esta manera, la explicitación de conocimientos a partir de una RNA pretende encontrar un conjunto de conocimientos (reglas simbólicas), contenido en la RNA. Varios métodos han sido propuestos en [Andrews95] para la explicitación de conocimientos de una red neuronal artificial. El autor Andrews propone la clasificación de los métodos, a partir de su grado de transparencia en: descomposicionales, pedagógicos y eclécticos. Descomposicionales.- Son métodos que intentan analizar la topología y los pesos de las conexiones de una RNA, a fin de deducir algunas reglas simbólicas. Pedagógicos.- Este tipo de métodos no se interesan en el interior de la red, sólo analizan las respuestas globales de la red con respecto a las entradas; es decir, consideran a la RNA como una “caja negra”. Eclécticos.- Éstos analizan tanto el interior de la red como las salidas globales. El sistema que pretendemos desarrollar utilizará un método de explicitación descomposicional. Hasta el momento en el Cenidet se han realizado algunos trabajos de explicitación con métodos pedagógicos [González2004] y eclécticos [Reyes2002]. Entonces la complejidad de esta investigación radica en realizar la explicitación de conocimientos utilizando los métodos descomposicionales que son los que analizan la topología y los pesos de la RNA, con esto se pretende romper el paradigma de que las Redes Neuronales Artificiales son “cajas negras” . La ventaja de usar una RNA de tipo CasCor, es que este paradigma tiene como principal característica la capacidad de construirse a medida que el aprendizaje avanza. Este enfoque constructivista podría facilitar la tarea de extraer reglas a partir de su topología y pesos. w w w.cociente.com.m x

A continuación se describe uno de los algoritmos que se han desarrollado para realizar la explicitación de conocimientos de las redes neuronales artificiales. Algoritmo SUBSET El principal objetivo de este algoritmo es hacer subconjuntos. A continuación se muestra con detalle el funcionamiento del algoritmo (Ver Figura 9).

Figura 9

Conclusiones A continuación describimos algunos de los beneficios que se obtendrían al terminar esta investigación: • Obtener los conocimientos simbólicos de una red neuronal previamente entrenada en el aprendizaje de imágenes y de esta manera poder complementar el conocimiento teórico que se tenga en esta área. A continuación se muestra un ejemplo de la aplicación del algoritmo SUBSET en una red neuronal artificial refinada (Ver Figura 10).

Figura 10. Extracción de reglas simbólicas de una red neuronal artificial refinada.

Algunos de los beneficios que se esperan al terminar este proyecto son: • Hacer que los conocimientos aprendidos por una RNA sean explícitos y por lo tanto más fáciles de interpretar por el usuario de la RNA. De este modo se pretende romper el paradigma de que las RNA son unas “cajas negras”. 21


• Permitirá encontrar explicaciones para el usuario del sistema. Esto ayudará a que un usuario principiante en algún sistema gane visión y entienda la lógica del mismo. • Seguridad en sistemas críticos como el cuidado de la salud o el control y diagnóstico de sistemas peligrosos que deben de producir resultados correctos. • Cuando los datos son insuficientes, la habilidad de generalización de la red puede ser débil. Un sistema de reglas con buena interpretabilidad mejora la generalización de la red. C

REFERENCIAS [Andrews95] Andrews, Robert, Diederich, Joachim, Tickle, Alan B, A Survey and Critique of Techniques for Extracting Rules from Artificial Neural Networks, Queensland University of Technology, 1995. [Cloete2000] Cloete, I. & Zurada, J. (Eds.). Knowledge-Based Neurocomputing. MIT Press, Cambridge, MA. 2000. [Corchado99] Corchado J. M. (1999). Neuro-Symbolic model for realtime forecasting problems . PH. D. thesis, Dec 1999, Dept. of Computing and Information Systems, University of Paisley, United Kingdom. [Cruz2004] Cruz Sánchez Vianey, “Sistema Híbrido Neuro-Simbólico para el reconocimiento de la calidad en un Sistema de Visión Artificial”, Centro Nacional de Investigación y Desarrollo Tecnológico, (2004). [Fahlman91] FAHLMAN, S. E.; LEBIERE, C. The Cascade-Correlation Learning Architecture. Carnegie Mellon University - CMU, Computer Science Technical Report - CMU-CS-90-100. February [Fiesler97] FIESLER, E. & BEALE, R. Handbook of Neural Computation. Institute of Physics and Oxford University Press. New York, NY - U.S.A., 1997. [González2004] Edgardo González Hernández “Monitor Genético para la Explicitación de Conocimientos” Centro Nacional de Investigación y Desarrollo Tecnológico, 2004. [Haykin94] Haykin S., Neural Networks: A Comprehensive Foundation, Macmillan College Publishing Company, 1994. [Hilario,97] Hilario, M. An overview of Strategies for Neurosymbolic Integration. In: Sun, Ron & Alexandre, Frederic (Eds.). ConnectionistSymbolic Integration: From Unified to Hybrid Approaches. Chapter 2. Lawrence Erlbaum Associates, 1997. [Kandel92] Kandel, A. & Langholz, G. (Eds.). Hybrid Architectures for Intelligent Systems. CRC Press, Boca Raton - Florida, 1992. [Medsker94] Medsker, L. R. Hybrid Neural Network and Expert Systems. Kluwer Academic Publishers, Boston. 1994. [Nikolopoulos97] Nikolopoulos, C. Expert Systems - Introduction to First and Second Generation and Hybrid Knowledge Based Systems. Marcel Dekker Inc. Press, 1997. [Osorio98] Osorio F.S. (1998) INSS: an Hybrid system for constructive machine learning. Laboratoire LEIBNIZ – IMAG –INPG 46, avenue Félix Viallet 38031 Grenoble Cedex 1 –FRANCE. [Reyes2002] Gerardo Reyes Salgado (2002) “Aprendizaje y Explicitación de reglas graduales utilizando Redes Neuronales Artificiales” Centro Nacional de Investigación y Desarrollo Tecnológico (Cenidet). [Sun97] Sun, R. & Alexandre, F. (Eds.). Connectionist-Symbolic Integration: From Unified to Hybrid Approaches. Lawrence Erlbaum Associates, 1997. [Zadeh79] Lotfi A. Zadeh A theory of approximate reasoning, Machine Intelligence 9, J. Hayes, D. Michie, and L. I Mikulich (eds.), 149-194. New York: Halstead Press, 1979.

22

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


Lógica difusa en nuestras vidas Por: Lizette de la Garza y Pedro Ponce

¿

Qué es y cómo incide la llamada “lógica difusa” –fuzzy logic- en nuestras vidas? Las preguntas al respecto de la forma en la que interactuamos con la tecnología y cómo esa relación es cada vez más grande es una que se presta a debate y sobre todo, a la imaginación. Cada vez es más complicado pensar que un robot no es sólo esa forma androide que acompaña a los seres humanos, con frecuencia las personas se sorprenden cuando descubren que muchos de los aparatos que usan todos los días son robots y que están articulados con los mecanismos de la lógica difusa. En el siguiente texto haremos un recorrido por la relación cotidiana que entablamos con ella y por qué se da de forma tan natural. La lógica difusa está fundamentada en las raíces de la inteligencia artificial y es gracias a ella que hemos delegado muchos de los engorrosos trabajos -que antes eran exclusivos de seres humanos- a una máquina. Los cimientos ideológicos en los que se basa la lógica difusa, nacen de la querella que se da a partir de la asertividad existente en los conceptos clásicos en torno a “falso” y “verdadero”, ¿qué tan pertinente es hablar en un mundo que sea visto sólo a partir del negro y del blanco? La concepción de lo difuso promueve las afirmaciones dadas desde la “vaguedad”, y ve las cosas más desde la gama de los grises, dentro de los cuales la verdad y/o la falsedad no son más que los casos extremos y están encuadrando un sinfín de posibilidades. Así, para la lógica difusa una proposición puede ser parcialmente verdadera y parcialmente falsa al mismo tiempo, ya que para los principios difusos, todo es cuestión de grado, las aseveraciones están entre el cero (falsedad) y el uno (verdad) y, como ya dijimos, éstos serán los valores extremos. Podemos ver que hay una categorización pero sobre todo, una revaloración de los puntos medios presentes entre el 0 y el 1 y así la relatividad y la precisión cobran un nuevo sentido. Hasta aquí hemos dicho que la lógica difusa se hace cargo de que algunas proposiciones no son claramente verdaderas o falsas sino que tienen cierta graduación y podríamos entrar en el debate ético y decir que, desde esa coyuntura, la lógica difusa promueve la relatividad, es decir existe un punto de subjetividad. Sin embargo, también es incluyente y se adapta mejor al mundo en el que vivimos ya que se apega más a las reglas heurísticas de la forma si (antecedente) entonces (consecuente). Desde esta perspectiva la lógica difusa funciona como en el siguiente caso: si el pantalón está muy sucio entonces aumento la cantidad de jabón. El caso anterior nos sirve para establecer las semejanzas que se dan entre el proceder de la lógica difusa con respecto al del ser humano. Los seres humanos actuamos también desde esa vía para la resolución de los procesos que nos motivan. Nuestro raciocinio se da a partir del conocimiento y la experiencia, esa suma nos hace reaccionar y hacer cosas, la lógica difusa sería el equivalente a la relación que entablamos después de la práctica, nos volvemos expertos después de que aprendemos por la observación y la destreza al hacer repetidamente las cosas. La experiencia nos dice que no siempre podemos lavar la ropa de la misma manera, porque varía el grado de suciedad, el tipo de mancha, tela etc., w w w.cociente.com.m x

también por el conocimiento adquirido sabemos que no siempre podemos tratar igual a las personas y que nuestra relación se basa en un interminable listado de posibilidades. Entonces la lógica difusa atiende esas contingencias y actúa adaptándose de la mejor forma posible. Entendemos así la cercana relación que se da en la manera de operar de los seres humanos y la imitación que de esta hace éste tipo de tecnología. Ahora bien, estamos concientes de que no siempre podemos reaccionar adecuándonos a las posibilidades porque hay asuntos humanos que se solucionan mejor con una relación simple del tipo falso/verdadero, por eso sabemos que los usos más atinados para la tecnología con lógica difusa se dan en procesos con un alto grado de complejidad, para esos que no son muy lineales, y para aquellos en los que se involucran definiciones y conocimiento impreciso o subjetivo. De tal suerte las máquinas que usamos en la vida diaria como por ejemplo los controles del aire acondicionado, los focos automáticos de las cámaras fotográficas, las lavadoras, o los refrigeradores entre muchos otros, están enriquecidos con procesos de la lógica difusa y los hacen adaptarse mejor a las distintas posibilidades que enfrentan. C

Sobre los Autores: Lizette de la Garza es profesor de preparatoria del Tecnológico de Monterrey Campus Ciudad de México. El Profesor Pedro Ponce es Director de la maestría en Ciencias de la Ingeniería del Tecnológico de Monterrey Campus Ciudad de México.

>

23


Implementación de Algoritmos de Control Inteligente en LabVIEW Director de proyecto: Dr. Pedro Ponce El reto Validar de forma experimental el desempeño de algoritmos para controladores inteligentes industriales utilizando una plataforma de software con capacidad de interacción con hardware. La solución Utilizar las capacidades de programación gráfica de LabVIEW y su facilidad de comunicación con hardware para implementar algoritmos de control inteligente y validarlos mediante su interacción con un robot cuadrúpedo. Introducción Hoy en día existe una gran variedad de dispositivos electrónicos como electrodomésticos, vehículos, robots, etc. que utilizan algoritmos de control dentro de sus sistemas centrales de procesamiento. Estos algoritmos pueden ser desde mecanismos tradicionales de on-off o control tipo PID hasta más avanzado como control predictivo o por redes neuronales. Con una tendencia en la industria en contar con más dispositivos autónomos e inteligentes, existe la oportunidad de diseñar e implementar nuevos algoritmos de control más avanzados y complejos para nuevos tipo de aplicaciones.

>

24

Descripción de la aplicación El objetivo de este proyecto es desarrollar y validar un grupo de controladores inteligente de lógica difusa y redes neuronales propuesta como alternativa a los controladores clásicos de lógica difusa (también llamada fuzzy logic) de Mamdani y Sugeno. Este controlador representa una combinación de la lógica difusa y redes neuronales, ya que utiliza redes neuronales basadas en funciones trigonométricas para ajustar en línea las funciones de membresía y las reglas para la lógica difusa. Para validar los beneficios de este nuevo tipo de controlador contra los clásicos, se utilizó un robot cuadrúpedo que tuviera que resolver su salida a través de un laberinto de forma autónoma implementando este controlador. El sistema se diseñó con todos los algoritmos de control ejecutándose en una PC con LabVIEW, y enviando todas las señales de comunicación hacia y desde el robot mediante un enlace por Bluetooth (ver Figura 1). El robot únicamente cuenta con un DSP que se encarga de realizar las lecturas de los diferentes sensores ultrasónicos sobre el robot, además que comunicar las señales de control a los diferentes motores del mismo.

Fig 1. Se utilizó un robot cuadrúpedo para validar los algoritmos de control inteligente.

Conclusión Debido a las capacidades de programación gráfica de LabVIEW, así como su fácil integración con hardware, pudimos reducir el tiempo que tomaba el proceso de diseño y simulación de algoritmos a su implementación en el robot. En un principio, este proceso requería simular el Matlab para posteriormente convertir el código a C y depurarlo antes descargarlo al robot. Ahora, podemos programar y hacer cambios a los algoritmos completamente en línea lo que nos permite mantener la atención en la aplicación y no tanto en la implementación en código tipo C (ver Figura 2). Gracias a la flexibilidad que hemos logrado utilizando LabVIEW, hemos podido implementar en menos de una semana proyectos que anteriormente nos tomaron más de 2 años en desarrollar. Esto nos ha permitido enfocarnos en nuevas ideas y nuevos proyectos para aplicar nuestros algoritmos de control: desde el control autónomo de una silla de ruedas hasta un invernadero de cultivo por hidroponía. Además, desarrollamos un conjunto de librerías de control inteligente avanzado de LabVIEW basados en nuestros algoritmos, lo que permite a los usuarios crear diferentes aplicaciones sin tener que preocuparse por la implementación de los algoritmos. C

Para más información: Dr. Pedro Ponce Cruz:

pedro.ponce@itesm.mx

Figura 2. El Panel Frontal de LabVIEW permite visualizar el control automático o manual de los algoritmos.

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


El CAD en 3D debe estar “listo para usarse” Por: Ing. Ángel Ribo

Sierra que no corta dedos - Sawstop

E

l diseño asistido por computadora (CAD) vino a agilizar el proceso de creación de nuevos productos, pero su complejidad obliga a los ingenieros de diseño a capacitarse profundamente, lo cual lleva largo tiempo. ¿Será posible que los usuarios pudieran gozar de los beneficios que brinda el CAD en 3D, pero sin que sea necesario tanto entrenamiento? ¿Se imagina cuánto trabajo hay detrás de la creación de las consolas de control computarizadas para la NASA, las sierras con sistemas de seguridad, o las maquinas terapéuticas a base de rayos de protones para el tratamiento del cáncer? Es fácil imaginar los grandes cambios que su invención ha traído consigo, pero pocos se ponen a pensar en lo que los ingenieros involucrados en su diseño tuvieron que padecer para darlos a luz. Quepa solo decir que hace décadas, el proceso de diseño se hacía totalmente manual. La tecnología del Diseño Asistido por Computadora (CAD, por sus siglas en inglés) significó un parteaguas en el trabajo de creación de estos productos, pero inicialmente su manejo era en dos dimensiones (2D), lo que significaba ciertas limitantes. Posteriormente, la tecnología en 3D volvió a dar un giro lleno de posibilidades para los ingenieros del diseño mecánico, pues les ha permitido desarrollar proyectos más w w w.cociente.com.m x

creativos y funcionales, y hacerlo de forma más rápida al incrementar la colaboración, por ejemplo. Coreografía paso por paso: Una problemática a resolver Para las compañías el cambio a CAD en 3D ha estado lleno de diferencias a su favor, incluyendo por supuesto un menor tiempo de diseño pero también una consecuente disminución en tiempos destinados a validación y pruebas de funcionamiento de los productos creados. Pero por supuesto que toda esta funcionalidad a su alcance en las mesas de dibujo electrónicas tiene un precio: hay que capacitarse, es necesario aprender todos los secretos del funcionamiento del CAD en 3D; hay que saberse la coreografía paso por paso. En otras palabras, para sacarle el mayor provecho a esta tecnología hay que convertirse en experto. Quienes han estado involucrados en los terrenos del diseño asistido por computadora, y más en su modalidad en 3D, saben a qué nos referimos al decir esto. Los diseñadores se enfrentan a curvas de aprendizaje muy largas que, en un inicio, retrasan el trabajo. Por lo general, estos tiempos se convierten en una barrera para el negocio, que debe esperar a que el diseñador esté listo para explotar el CAD en 3D y, entonces, crear productos más rápidamente, y por supuesto para el mismo ingeniero, pues esta capacitación conforma una barrera a su creatividad. 25


La búsqueda de los Ingenieros y Diseñadores es: el CAD en 3D intuitivo. Saber emplear la herramienta para retroceder en el historial del diseño de una pieza para insertarle ciertas modificaciones, saber eliminar fácilmente dimensiones no deseadas en los croquis o resolver las dificultades que aparecen al montar muchos componentes en el diseño 3D de un ensamble, son cuestiones con las que los ingenieros del diseño mecánico se topan a diario, y a menos que sean expertos en el uso de CAD en 3D, en ocasiones pueden sentirse perdidos, y de seguro han dedicado mucho de su valioso tiempo en reconocer los múltiples beneficios de su plataforma de diseño y en convertirse en expertos de ella. Pero para los diseñadores que aún están en el proceso no todo son malas noticias: ya existe un sistema de CAD en 3D intuitivo sin pasos de coreografía que ejecutar; “listo para usarse”. Se trata de una solución única que garantiza reducir el tiempo dedicado a los procesos de CAD en 3D al permitir a los usuarios (incluso los novatos) centrarse en el diseño y no en aprender cómo funciona esta la herramienta de CAD, haciéndolos diseñar como expertos. El CAD en 3D intuitivo incluye conjuntos de tecnologías expertas que no sólo automatizan funciones comunes, sino que verdaderamente ayudan a resolver problemas complejos de diseño, como lo haría el usuario de CAD en 3D más experto. Tal es el caso de un fabricante de cerraduras para los mercados residencial y empresarial, que bajó en 30% el tiempo de sus ciclos de diseño, en 50% la realización de pruebas de funcionamiento, en 80% el tiempo destinado a análisis y validación de los productos, en 30% la entrega, y en 50% los costos de fabricación de prototipos.

Éste es sólo un ejemplo de cómo el CAD en 3D intuitivo ayuda a los usuarios a superar la paradoja potencia-complejidad del CAD en 3D. Una verdadera innovación en tecnología de ingeniería del diseño en 3D, Esta nueva tecnología soluciona muchas de las tareas más tediosas y, de algún modo, irrelevantes, de un ingeniero de diseño, así como aquellas tareas que les demandan mucho tiempo. Lo que queda es la potencia del CAD en 3D, sin la complejidad. Conclusión Como la responsabilidad de los proveedores de tecnologías de diseño hacia el usuario, es la de ofrecer una herramienta que se enfoque en el diseño, y no en la dificultad de operar el CAD en 3D, ahora, con el CAD en 3 D intuitivo, los diseñadores e ingenieros no tienen que centrarse en el funcionamiento de la herramienta CAD, únicamente se enfocarán en la creatividad y el diseño. ¿Qué más pueden pedir los ingenieros del diseño? Ojalá todo en la vida fuera así de intuitivo. C

Sobre el autor Ing. Ángel Ribo, Gerente de Ventas, SolidWorks México, Centroamérica y Caribe Más información http://www.solidworks.com/ Imágenes cortesía de SolidWorks

Similares resultados obtuvo una compañía de artículos para oficina, escolares y de artes gráficas: en su caso, el uso de CAD en 3D intuitivo le permitió disminuir en 80% su ciclo de diseño de productos y en 95% la incidencia de errores, además de que incrementó 40% su cartera de nuevos productos, mejorando en el mismo porcentaje su calidad. El objetivo principal de un CAD intuitivo, es lograr que los usuarios ya no tengan que aprender los secretos detrás de CAD en 3D y su aprovechamiento total. Imaginación sin límites Lo que mas frustra a los ingenieros del diseño es ver obstaculizada una idea a causa de las limitaciones de su experiencia en el manejo del CAD. Pero esos tiempos se acabaron, porque la nueva tecnología soluciona por si misma estos pequeños detalles. Los usuarios sólo tienen que centrarse en lo que desean conseguir y la intención del diseño que quisieran obtener, y no en las reglas del CAD en 3D. Entre las operaciones que el CAD en 3D intuitivo puede solucionar se encuentran: controlar la gestión de los redondeos y los ángulos de salida, resolver automáticamente conf lictos dimensionales al croquizar secciones así como problemas de los ensambles al establecer relaciones de posición entre los componentes, y dimensionar el dibujo de manera automática e intuitiva. 26

MagistralGrip-Azor

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


Tecnología Informática

Controlando la Complejidad Por: Paulo Ramos

J

unto con el aumento de la complejidad de los procesos de negocio, también existe un aumento en la cantidad de sistemas IT que están involucrados en estos procesos. Tomemos, de ejemplo el proceso de producción: ERP, PLM, CAD y MES trabajan juntos para el diseño e Ingeniería de los componentes. Si un proceso individual en los procesos de producción cambia, por ejemplo, debido a la introducción de nuevas reglamentaciones de seguridad, debe modificarse y se debe representar en el sistema. Un ejercicio elaborado para los ambientes de IT tradicionales, pero súper sencillo para las arquitecturas orientadas al Servicio, con la condición que los obstáculos para la implementación SOA se hayan solucionado. SOA – qué hay detrás Actualmente se dice que el término SOA es más promocionado por los departamentos de marketing de las empresas de software que por los usuarios. El diseño de arquitectura de software flexible no es en realidad algo nuevo. Lo que es nuevo es que las empresas de software promocionan este formato en forma tan amplia. Esto no es una sorpresa, ya que la demanda de una arquitectura diferente ha crecido junto con la complejidad de las infraestructuras. Se ha comprobado que la combinación de grandes software monolíticos y de infraestructuras sobre-dimensionadas no cuentan con la flexibilidad necesaria que permite a las empresas reaccionar rápidamente a las señales del Mercado. SOA introduce esta velocidad de reacción por medio del modelado y configuración de los sistemas de software. Las funciones disponibles como servicios pueden consolidarse rápidamente y eficientemente en procesos nuevos o modificados, sin tener que desarrollar un código de aplicación totalmente nuevo. El resultado es un ambiente de software efectivo y costo eficiente donde los empelados que están trabajando dentro de un área pueden ajustar las funciones de la solución conforme a los nuevos requisitos específicos. Otra ventaja adicional del SOA es el desacoplado de los componentes del software. Estos pueden utilizarse y mantenerse independientemente, La ventaja: anteriormente pequeños cambios en procesos individuales del negocio en soluciones compactadas firmemente afectarían en toda la solución de la empresa. Al desacoplar, las actividades tales como la introducción de nuevas funciones puede limitarse a los componentes afectados del software. Finalmente, el desarrollo SOA ofrece una manera de aumentar la capacidad integradora e interoperabilidad de los sistemas. Desde el punto de vista de IT, las tareas como los upgrades, integraciones o adaptaciones pueden realizarse en forma mas eficiente y por lo tanto a mejores costos. Una mayor flexibilidad w w w.cociente.com.m x

de IT a su vez, aumenta la capacidad de la empresa de reaccionar al nivel de de los procesos del negocio. SOA en acción: velocidad de reacción para cambio en los procesos Hasta acá la teoría. Mirando el proceso de cambio de ingeniería se puede ver la fortaleza de SOA para los temas de integración. Las empresas que hasta ahora han trabajado sin ningún software altamente integrado pueden lograr una buena integración de los procesos de negocios relevantes. En el caso de un defecto cualitativo el ingeniero modifica la configuración del producto en su CAD y por lo tanto también en el sistema PLM. Utilizando SOA significa que se pueden integrar Servicio y Logística a en un parte anterior del proceso. Los componentes encapsulados de los sistemas anteriormente separados pueden comunicarse al nivel de la arquitectura de integración. Los cambios del sistema PLM piden una inspección de inventarios del almacén, Simultáneamente se pregunta el estado de la entrega de un componente: ¿Con qué frecuencia se ha instalado el componente y en qué máquinas? De acá, se puede generar información en el Servicio al cliente, donde se deberá organizar un intercambio preventivo de componentes. Sin embargo, el argumento real para SOA, mayor flexibilidad, se hace mas claro cuando se modifica el proceso mismo: Siguiendo a un cambio en un lineamiento, se debe incluir una inspección adicional dentro del proceso de autorización. Este paso adicional en el proceso no debe ser programado de Nuevo en el sistema si ya se encuentra disponible como un Servicio (“Servicio de Autorización”). Junto con IT, el departamento técnico describe el proceso alterado con el Soporte de una herramienta gráfica, como BPEL (Business Process Execution language)- de acuerdo con el editor. El nuevo paso interino se inserta en el lugar adecuado del modelo de proceso para el proceso de cambio de ingeniería y se muestra en el Servicio de autorización. La descripción del proceso terminada se publica como una versión actual del proceso en un BPEL que controla el proceso de ejecución. De ahí en más, el proceso de cambio de ingeniería recibirá un paso adicional de autorización, y la operación general no debe interrumpirse. Implementación ¿dónde comenzar? No existe ningún concepto mágico para un proyecto que después de todo no es una implementación de software sino una implementación de un concepto integrado de gestión de proceso. En principio, existen dos formas básicas que las empresas pueden usar para comenzar con la implementación del proceso orientado al servicio SOP. La primera forma es el proyecto SOA “individual” donde las aplicaciones de la empresa se dividen inicialmente en servicios específicos. En consecuencia, con la ayuda 27


de la solución que debe seleccionarse, se desarrollan los procesos para modelado, control de proceso e integración del servicio.

tan lenta como el sistema anterior, esto se debe a errores en el diseño y layout del Servicio o al resultado de una selección de herramientas inflexibles.

La segunda forma está representada por el uso de plataformas SOA provistas por grandes manufacturadoras de aplicaciones ERP integradas. Éstas contienen definiciones de Servicio y de proceso listas para usar de todos los componentes estándar que ofrece la empresa manufacturadora, de manera que generalmente todo lo que hace falta es adaptar el Servicio y los procesos a las aplicaciones específicas de la empresa.

Mirándolo más de cerca, se puede ver que la separación fina de procesos en servicios individuales es una causa de los problemas que ocurren en los proyectos SOA, según se describe más arriba. Algunos proveedores ofrecen más de 5,000 servicios para representar procesos de negocios integrales. Si, por ejemplo, una empresa desarrolla un nuevo requisito de proceso que afecta solo el uno por ciento de esos 5000 servicios, teóricamente esto crea un requisito potencial para casi 250.000 nuevas configuraciones. Por supuesto que no todas estas configuraciones potenciales son indicativas; sin embargo, solo el tamaño demuestra la complejidad de este ambiente.

En la práctica ambas formas pueden combinarse, de manera que se utiliza la plataforma SOA de las empresas proveedoras de ERP pero además, las aplicaciones específicas de la empresa o los componentes del software comprados a otras empresas de manufactura de acuerdo al concepto “Mejor en su Clase” también se integran en SOA con un formato único. En especial, los proyectos o componentes del proyecto con un carácter individual demandan mucho “know-how” de la empresa. Los expertos recomiendan un examen inicial detallado del proceso realizado por IT por los profesionales participantes y de la gerencia. Una selección de algunas pocas aplicaciones, que luego se dividen en servicios, resultan ser la forma ideal para empezar, de manera de disminuir la complejidad. En el proceso de evaluación siguiente, se documentan pools de datos y aplicaciones que son el objetivo de la implementación SOA. La meta es continuar utilizando los recursos existentes siempre que sea posible. Una vez que se establecen las bases, se puede pasar a los detalles técnicos: Primero se definen las semánticas de cada servicio individual, donde se pone mucho énfasis en la reutilización. En el próximo paso, se debe preparar las interfases a los distintos sistemas, por ejemplo al sistema contable de un programa AS/400 o del programa CAD de Windows, que se debe preparar de manera que los sistemas pueden entender los servicios. Las descripciones del servicio como los meta datos que describen el uso del servicio se almacenan en el depósito que también sirve de instrumento de control. En este momento, se pueden agregar normas para asegurar que la empresa cumple con las especificaciones y para determinar responsabilidades. Como paso final, se instala la infraestructura recién descrita para el intercambio de mensajes entre los servicios y las aplicaciones. Obstáculos conocidos Los proyectos SOA todavía no tienen mucho éxito. Según algunas estimaciones del grupo de investigación británico Lustratus Research, del 50 al 60 por ciento de los proyectos SOA no logran sus objetivos. Por el momento se han definido algunos obstáculos típicos que están creando dificultades en los proyectos pioneros. La reutilización del sistema no es exitosa si no se sabe de la existencia de estos servicios en la empresa, o si no satisfacen por completo las requisitos del usuario. El problema se vuelve mucho más serio si la implementación de SOA resulta 28

La alternativa: Impulsado por eventos La mayoría de los proveedores siguen el proceso SOA que hemos descripto, el cual se basa en la implementación de un nivel de proceso individual que controla el proceso completo accediendo a las funciones de una o más de las aplicaciones de soporte de software. Estas aplicaciones son “service enabled” para ofrecer las funciones altamente complejas y los modelos de datos para el uso y control dentro del nivel del proceso central. El SOA impulsado por eventos es una alternativa a esto. Asume que cada empresa administra su operación de negocio basada en la expectativa de y en la reacción a los eventos de negocios. Un ejemplo: para el proceso que va desde la recepción de la orden hasta la recepción del pago, cada departamento que participa debe ser informado del cambio del status de la orden, de manera que puede completar su función en el proceso integral. .Esto ya aplica al primer paso del proceso. Cuando se recibe una orden y se procesa, existen una cantidad de participantes que deberían ser informados. Si se trata de un producto de manufactura relacionada con el orden, entonces manufactura requerirá una copia de la orden de manera que se pueda planificar la manufactura de los productos terminados correctos. Al mismo tiempo, flete se beneficia de esta información para poder llevar a cabo el planeamiento a largo plazo correspondiente, y el departamento de finanzas puede prepara pronósticos detallados basándose en la notificación. Mientras la orden recorre todo el proceso, al suscribirse a todos los eventos importantes del negocio, todos los departamentos afectados por el cambio del status de la orden pueden garantizar que está trabajando con suma eficiencia. Desde un punto de vista técnico, el SOA impulsado por eventos, rompe con la estrategia de un nivel de proceso integral. La arquitectura de la aplicación está dividida en componentes de software y soluciones independientes y separados. En este concepto se pueden desentrañar relaciones de distintos sub procesos dentro del proceso integral. Resumiendo, las soluciones están completamente acopladas, no solo flojamente acopladas como en el SOA convencional. En el SOA impulsado por eventos, dependiendo del negocio, sólo alrededor de 500 eventos de negocio pueden considerarse como base para el control de los componentes de software. AdeCómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


más, los cambios para procesar el flujo pueden en muchos casos lograrse con una parametrización dentro de los componentes. De esta manera, se evita la complejidad que resulta de contar con una gran cantidad de servicios y de la demanda de estandarización tecnológica en la etapa de proceso convencional del SOA, según se describe anteriormente. En el SOA impulsado por eventos, cada sub-proceso pasa un mensaje asincrónico al componente del próximo subproceso una vez que se ha llevado a cabo. Esto puede realizarse con ej: Business Objects Documents (BODs) basados en la especificación de la integración del Open Application Group (OAGIS). Esta estricta orientación a standards abiertos permite a las soluciones compatibles SOA a cooperar con las demás soluciones que soportan el mismo BOD. Como resultado las empresas pueden vincular sus soluciones una vez y dejarlas que trabajen juntos con muchas otras soluciones, sin requerir ningún esfuerzo adicional significativo. Infor Open SOA, un proceso consistente basado en standards para el SOA impulsado por eventos, es la respuesta de Infor al argumento que la estrategia SOA es muy compleja y costosa. En lugar de dejar en manos del usuario la creación de requisitos técnicos, la empresa ofrece “habilitadores de SOA” para sus soluciones con cada nueva versión del software.

las aplicaciones. Cuanto más extensivo el SOA, es mas probable que se use una plataforma de integración o el Enterprise Service Bus (ESB). Funciona como el centro de comunicación para los servicios: los mensajes se transforman, validan y agregan, y luego se trasnmiten al receptor adecuado. Además puede servir como adaptador para la integración de distintos sistemas, soportes de gestión y herramientas de monitoreo. • Aplicación / nivel infraestructura: Como en la arquitectura convencional, las aplicaciones e infraestructura base pueden también encontrarse junto con los niveles descriptos de un SOA, que no esta categorizada jerárquicamente y que por lo tanto incluye componentes como almancenamiento, memoria, capacidad de CPU, y también permite para un red virtual. C

Sobre el autor: Paulo Ramos, Director General de Infor México

Componentes SOA Una arquitectura orientada al servicio hace una separación lógica entre el nivel de presentación, los servicios y su orquestación, mecanismos de integración y aplicaciones como también en la infraestructura. • Nivel de Presentación: La interfase del usuario de una aplicación implementada con SOA no tiene que ser distinto de las interfases de usuarios convencionales. Utilizando Portlets es posible, sin embargo representar funciones adicionales e interacciones. Por medio de la combinación de servicios especiales entre las llamadas requisitos del usuario de aplicaciones compuestas se pueden considerar los requisitos del usuario. • Nivel Orquestación: Al nivel orquestación, los procesos de negocios se consideran nada mas que un flujo de servicios requeridos basándose en normas definidas que representan la lógica del negocio. Aparte de esto, el flujo de datos entre lo servicios se controla. Al mismo tiempo, el modelado y ejecución de los procesos se realiza con Business Process Management (BPM) y con Business Process Execution Language (BPEL). • Nivel Servicio: Los servicios representan la interfase a las aplicaciones individuales. Las interfase estandarizadas son el factor pivote en un SOA, ellas garantizan que los servicios interactúen entre ellos y que puedan utilizarse como un elemento base para el desarrollo de las aplicaciones. Si se utilizan tecnologías de interfase propietaria, la reutilización continua e integral del sistema seria restringida considerablemente y la principal ventaja de SOA se perdería. • Nivel Integración: Es donde frecuentemente encontramos, pero no siempre el “middleware” que se ocupa de la vinculación de los servicios como también de la conexión de los servicios con w w w.cociente.com.m x

29


Notas de Prensa

Industria

AMD inaugura en Chiapas los primeros Centros Digitales de la Iniciativa 50x15 en México.

Chiapas, México - En colaboración con las comunidades y las autoridades municipales de San Juan Chamula y Oxchuc, el Dr. Héctor de Jesús Ruiz, Presidente Mundial de AMD, participó en la inauguración de los primeros Learning Labs en México de la Iniciativa 50x15, denominados “Centros Digitales Solidarios”. Lanzada por AMD en 2004 durante el Foro Económico Mundial en Davos, Suiza, la Iniciativa 50X15 es un esfuerzo extensivo para desarrollar nuevas tecnologías y soluciones con el propósito de lograr que el 50 por ciento de la población mundial tenga acceso a Internet con herramientas de cómputo de última generación para el año 2015. Durante el evento, como representante del Gobernador de Chiapas, el Lic. Juan Sabines Guerrero, estuvo presente la Coordinadora de Gabinetes y Secretarías Técnicas Blanca Ruth Esponda Espinosa, acompañada del Secretario de Turismo y Proyectos Estratégicos Roberto Albores Gleason y del Secretario del Trabajo Samuel Toledo Córdova. Ambos Centros están orientados a lograr la interconexión entre comunidades a nivel mundial a través de Internet mediante el uso de tecnologías de información con extraordinario rendimiento y amigables con el medio ambiente por su bajo consumo de energía eléctrica. Los Centros Digitales para México han sido diseñados especialmente bajo un enfoque integral e innovador que facilita la incorporación de las comunidades a programas de educación, agricultura, nutrición y salud, mismas que son prioridades en el Plan de Gobierno del Estado de Chiapas. De igual manera, están focalizados a proveer la intercomunicación con otras comunidades, así como incrementar sus capacidades productivas por medio del comercio electrónico y facilitar el acceso a trámites administrativos y oficiales. Para mayor información, visite, http://www.amd.com.

30

Nuevo Design-Expert® 7.1 software para diseño de experimentos (DOE por sus siglas en inglés) —Stat-Ease, Inc. anunció el lanzamiento de Design-Expert 7.1 Sofisticado, pero muy amigable, debe tener esta versión si desea descubir el punto dulce en su proceso, y hacer una dramática mejora en el desarrollo de su producto, o encontrar formulación óptima. Design-Expert 7.1 (DX7.1) es la herramienta perfecta para ingeniéros, investigadores, profesionales de la calidad, practicantes de Six Sigma, u otros—lo suficientemente fácil de usar para principiantes, pero con el poder que los usuarios avanzados necesitan. Los usuarios ganaran respeto por la anticipación del poder de calculo de diseños factoriales, el cual tiene la disponibilidad de ver la probabilidad de la diferencia deseada (la señal). Para mayor información visite: www.statease.com

Procesadores poderosos y Wimax llevarán toda la experiencia de internet a dispositivos móviles: Intel. Sean Maloney, ejecutivo de Intel Corporation, dijo que gracias a procesadores más poderosos y redes inalámbricas WiMAX de alta velocidad, llegará una nueva era de Internet total en dispositivos móviles. Durante el discurso de inauguración en una de las muestras de tecnología más grandes del mundo, Maloney dio a conocer también nuevos chipsets que hacen que las imágenes de alta definición (HD) se vean más reales en la pantalla de una computadora de escritorio. También anunció la aparición de nuevas versiones de procesadores Intel® Atom™ para una clase emergente de dispositivos compactos y fáciles de usar, llamados netbooks y nettops, que llevarán Internet a nuevos usuarios.

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


mular la concientización sobre el medio ambiente. Este foro fue un encuentro exclusivo en donde las principales empresas de México, CIO’s, organismos de apoyo y reconocidos líderes en la generación de actividades de eficiencia energética, expusieron las iniciativas tecnológicas líderes en el mercado y abordaron temáticas de interés para las distintas empresas corporativas y de gobierno. Durante los últimos años se han generado sociedades productivas, comunicadas y automatizadas, pero al mismo tiempo se ha propiciado un aumento exponencial en el consumo de energía eléctrica que genera un impacto nocivo en el medio ambiente y en los costos energéticos. En el evento se contó con la participación de fabricantes líderes en el mercado, quienes expusieron sus propuestas para el uso eficiente de energía y la optimización de recursos. Más información en http://www. sustentabilidadenergetica.com

IBM en la Conferencia Internacional de Supercómputo en Dresden Roadrunner es la Primera Computadora Petaflop/ iDataplex, un nuevo sistema HPC/ QS22 Cell Processor- basado en el procesador Blades desarrollado por IBM Boeblingen Stuttgart, 12 de Junio de 2008: En la Conferencia Internacional de Supercómputo en Dresde, IBM presentó un amplio espectro de noticias de cómputo intensivo, que van desde el primer sistema Petaflop Roadrunner hasta soluciones de tipo HPC como Procesadores-Cell basados en los servidores Blade. A la par de la presentación de las contribuciones de IBM a la lista Top500 en términos de Sistemas actualmente registradas en la lista, se presentaron sesiones de expertos, sesiones break-out así como seminarios de clientes, actividades de prensa y demostraciones en el sitio a los participantes de ISC en el centro de Convenciones de Dresden. La atracción principal fue la discusión sobre la supercomputadora Roadrunner, el primer sistema a nivel mundial para romper la barrera Petaflop. Don Grice forma parte también en el período de sesiones “Hitos en Cómputo Multicore”.

Del descubrimiento a la publicación, EndNote lo hace mas rápido EndNote® X2 continúa 20 años de historia de innovaciones para convertir en tiempo record tus éxitos en publicaciones. No solamente EndNote X2 te ahorra tiempo eliminando pasos, sino que tambien pone mas acción en tu librería de trabajo, justo donde la quieres. El nuevo localizador de texto une búsquedas en línea y Cite While You Write™ (patente pendiente) tecnología para entregar todo el alto desempeño que posiblemente quieras en un software más que bibliográfico muy fácil de usar. w w w.cociente.com.m x

NIDays 08

AMD anfitrión del Primer Foro de Sustentabilidad Energética y Optimización de Recursos Con el propósito de esti-

NI Days 08

Grata participación y respuesta, de la gente de Monterrey, al evento NIDays 08. Monterrey, Nuevo León - Eloisa Acha, Gerente de Mercadotecnia para el área de las Américas comentó a Cociente sobre este interesante evento. “NIDays es un evento mundial que se lleva a cabo en más de treinta países y ciudades distintos. Donde NI toma las tecnologías más recientes y productos más nuevos y los lleva localmente, a los lugares donde NI tiene usuarios. La intención de NI, es la de poner a los ingenieros y científicos, siempre en la punta de la tecnología; una manera de hacer esto, es a través de estos eventos”.

Eloisa Acha

Rocío Pérez nos comentó sobre la labor de NI en el área académica. Para NI es de suma importancia trabajar con los estudiantes, ya que los estudiantes de hoy son los ingenieros del mañana y a NI le interesa a traves de los estudiantes poder hacer a México competitivo en el mercado global. NI está impulsando muy fuertemente un proyecto de capacitación y de certificación entre los alumnos en LabView. Queremos que está certificación sea un valor agregado entre los estudiantes Rocío Pérez que salen al mercado laboral.

Javier Olea

El Ing. Javier Olea nos explicó brevemente qué es un FPGA y el conocimiento que se tiene en México sobre esta tecnología. “Es una nueva tecnología que se está utilizando para hacer cómputo y procesamiento de sistemas en paralelo. Es un conjunto de compuertas que uno puede programar mediante un lenguaje descriptor de hardware. Es importante porque nos permite hacer cosas que no podemos hacer con los sistemas de medición tradicionales, por ejemplo: con un PLC es muy complicado hacer análisis de vibración para mantenimiento de máquinas, la tecnología de FPGA habilita velocidades de muestreo y resolución. Combinando esta tecnología con otras tecnologías como controladores embebidos y tecnologías etherware se puede armar un sistema completo donde se aproveche lo mejor de los dos mundos; la robustez del hardware de un FPGA junto con las capacidades de software de un controlador o de una PC”. “Mientras que en el continente Europeo y en los Estados Unidos ha habido un boom en el uso de esta tecnología, C todavía en México nos falta mucho...”

31


Seminario de MATLAB - Finanzas Satisfechos y contentos salieron los asistentes del Seminario de MATLAB organizado por MultiON Consulting. Oren Rosen Ingeniero de aplicación en the Mathworks, invitado por MultiON Consulting, visitó México para ofrecer un seminario sobre cómo manejar Matlab para el sector financiero. En breve entrevista para Cociente, nos platicó que el propósito de su visita a México fue el capacitar gente, sobre el uso de MATLAB, para la comunidad financiera. El seminario tuvo como propósito enseñar las nuevas características y capacidades de MATLAB, tanto para personas ya familiarizadas, así como para nuevos usuarios. El seminario se enfocó en mostrar un ejemplo de un portafolio de optimización. Se mostró una aplicación de la tradicional “media de diferencia de optimización” (MVO por sus siglas en inglés) de Markowitz, sin embargo se redujo el análisis del alcance de la optimización, mediante la utilización de un algoritmo genético hecho a la medida, de tal forma que sólo se utilice un subconjunto de las existencias dentro de un universo mayor. También se mostró todo el proceso completo de como las personas pueden utilizar MATLAB para leer datos, conectarse a bases de datos y hojas de datos de Excel, e incluso como compilar algoritmos de MATLAB en ejecutables inigualables, o librerías, o funciones que pueden ser utilizadas por otros lenguajes de programación y aplicaciones como: Excel, Java, cualquiera de los lenguajes de Microsoft, etc. También se demostraron capacidades de cómputo distribuido o paralelo, como el llevar los algoritmos de MATLAB a un procesador múltiple o máquina de múltiples núcleos (cores), o a un cluster. Oren Rosen tiene una Licenciatura en Matemáticas por la universidad de New Hampshire y un Master y PHD de la universidad de California Stanford. Para mayor información visite www.mathworks.com, www.multion.com.mx ó escriba a info@multion.com.mx

Oren Rosen

Comentario sobre el seminario:

Israel Palma Quiroz / Instituto de Ingeniería, UNAM “La presentación fue de primer mundo, muy clara, la persona que la dio es sumamente preparada y domina el tema excelentemente. En el área de finanzas me gustaría recibir más información sobre retorno de inversión, valor actual neto, valor presente neto etc. Para interés propio, que me dedico más al área de telecomunicaciones y sistemas, me gustaría recibir más información sobre análisis de elemento finito y algoritmos genéticos”. C

32

industria a aprovechar esta oportunidad con dispositivos de todos los precios. Se mostraron cerca de 100 motherboards, netbooks y nettops basadas en chipsets y procesadores Intel® que los fabricantes de computadoras demuestran en Computex esta semana. Ahora los fabricantes comienzan a vender netbooks y nettops con el procesador Intel® Atom™. Las netbooks son dispositivos móviles compactos que pueden usar niños, usuarios novatos de Internet y personas que desean tener una PC extra para utilizar aplicaciones básicas, escuchar música, enviar correos electrónicos y navegar por Internet. También se pueden utilizar para jugar juegos básicos en línea, para participar en redes sociales y para hacer llamadas de teléfono voice over IP (VoIP o voz a través de IP).

Nvidia muestra el futuro del cómputo visual y la optimización de las PCs “La computación visual se ha vuelto parte integral de la experiencia diaria al usar nuestras computadoras cuando navegamos en la red o hacemos actividades cotidianas. Las computadoras demandan más capacidad visual que nunca”, dijo Jose Pedro Ranalli, Gerente Corporativo de Mercadotecnia de Nvidia. “Para las aplicaciones computacionales de hoy en día es necesario Chris Daniel que nuestros equipos tengan el balance correcto entre la unidad de procesamiento (CPU) y la unidad de procesamiento gráfico(GPU por sus siglas en inglés) para obtener la mejor de las experiencias. La industria ha cambiado dando paso a una nueva era de cómputo visual en donde la creatividad se abre camino y para ello las soluciones que Nvidia propone lo posicionan como un líder. www.nvidia.com/page/press_room.html

SolidWorks diseña el único sistema de compresión de basura que funciona con energía solar en todo el mundo. El compresor solar de basura BigBelly® compacta kilos de basura y reduce las emisiones por la recolección de basura hasta un 80 por ciento. Avanzando hacia la cabeza del movimiento “verde”, el cubo de basura BigBelly®, diseñado con la solución de CAD para el diseño mecánico en 3D de SolidWorks® es el primer y único compresor solar de basura. BigBelly se emplea en lugares concurridos como zonas comerciales, restaurantes y pabellones para espectáculos, o también en lugares apartados como parques y playas. BigBelly, que mide solo 127 cm de alto y pesa 136 kg, necesita únicamente la energía solar para compactar y guardar cinco veces la cantidad de basura que otros recipientes de las mismas dimensiones. La máquina emplea solo 0,56 kg de fuerza para compactar la basura periódicamente hasta que está llena. Los parques de los municipios y ciudades que antes vaciaban los cubos de basura dos veces al día pueden ahora vaciar BigBelly una vez por semana y así reducir el costo de combustible y las emisiones de carbón de los viajes que realizan los camiones de basura. La compañía BigBelly Solar adoptó SolidWorks como su solución de CAD para el diseño mecánico en 3D, con la cual optimizar el diseño de la unidad y aceleCómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


rar el desarrollo y así responder a las demandas de los clientes. Para más información visite: www.solidworks.com.mx

Siemens plm software presenta la siguiente gran innovación en desarrollo digital de producto con la tecnología sincrónica.

Alfredo Treviño Siemens PLM Software, una unidad de negocios de Siemens Industry Automation Division y un proveedor mundial líder de software y servicios de gestión de ciclo de vida de producto (PLM, por sus siglas en inglés), anunció la siguiente gran innovación en desarrollo digital de producto con la tecnología sincrónica, la primera tecnología de modelado basada en funciones e independiente de la historia de diseño en la industria PLM, la cual proporciona a los usuarios una experiencia de diseño hasta 100 veces más rápida que antes. La nueva tecnología de Siemens PLM Software, combina las técnicas impulsadas por la restricción con el modelado directo y se está integrando a las próximas versiones del software NXTM y Solid Edge®.

Temporada Tecnológica 2008 de Hp. “Tener tiempo para innovar y diferenciarse” fueron las palabras que Fabiano Takahashi compartió para Cociente, después de explicarnos todos los beneficios en ahorro de energía que obtienen las empresas al virtualizar. Al virtualizar se tiene más tiempo para administrar de forma más práctica y simple. Se dieron a conocer soluciones para la Transformación de los Centros de Datos en activos ágiles que puedan mitigar riesgos, reducir costos y acelerar el crecimiento del negocio. HP ofrece un conjunto de soluciones integradas que abarcan hardware, software y servicios diseñados para transformar los centros de datos por medio de la consolidación, mayores ahorros de energía y espacio, automatización de procesos, y mejoras a la continuidad y disponibilidad de los negocios. Las soluciones HP Consolidation simplifican, estandarizan y reducen el número de centros de datos, aplicaciones, almacenamiento, recursos de red y herramientas de administración utilizados actualmente en la mayoría de las empresas. Las soluciones HP Energy and Space Efficiency optimizan el uso de energía, espacio e infraestructura de refrigeración. Con estas soluciones, los clientes pueden aprovechar las capacidades e innovaciones ambientales de HP para mejorar los resultados de negocio y disminuir el impacto ambiental. Las soluciones HP Data Center Automation automatizan la administración de toda la infraestructura tecnológica del Fabiano Takahashi y Diana Gómez centro de datos. w w w.cociente.com.m x

3er Taller Mexicano de Materiales Nanoestructurados En el siglo XXI la nanociencia y la nanotecnología estarán presentes en todos los estilos de vida y todas las sociedades, intervendrán en cualquier investigación científica, en la industria y en la tecnología. Estamos en el umbral de un cambio radical en la forma en que los materiales y los productos son concebidos, esto debido a la convergencia de campos tradicionales como las matemáticas, la física, la química, la ingeniería, la ingeniería y la biología que han formado un nuevo campo: la nanotecnología. El potencial de la nanotecnología es tan grande que prácticamente todos los países industrializados tienen en desarrollo o han establecido estrategias nacionales al respecto. La nanociencia y la nanotecnología son campos de gran interés para la ciencia, la industria y los centros de desarrollo tecnológico ya que prometen ser la base en la construcción de la próxima generación de tecnología. Debido a lo anterior es muy importante establecer contactos multidisciplinarios para llevarla al siguiente nivel como productos de consumo. El 3er congreso mexicano en materiales nanoestructurados organizado por la sección de electrónica del estado sólido del departamento de ingeniería eléctrica del Centro de Investigación y Estudios Avanzados del Instituto Politécnico Nacional(Cinvestav) brinda un escenario común para que destacados científicos, tecnólogos y jovenes investigadores presenten sus logros y avances en el campo y compartan los problemas comunes que enfrentaron. El congreso les da la oportunidad de intercambiar puntos de vista y conocer respecto a la investigación y desarrollo que están llevando a cabo, lo que contribuye a la originalidad evitando la duplicidad de cierto tipo de investigaciones. Al congreso fueron invitados científicos de enorme trayectoria académica, tanto mexicanos como extranjeros, que están trabajando en diferentes campos de la nanotecnología. El congreso también da un panorama de los potenciales de aplicación en sectores que son importantes para la economía en México, tales como las energías renovables, la agricultura, el medio ambiente, la medicina y la salud. La nanotecnología es tan diversa que su desarrollo indudablemente influirá los sistemas socioeconómicos del mundo en un futuro cercano.

Dr. René Asomoza Palacio

33


Próximos eventos junio 2008 Google: Día para los Desarrolladores Web en México Centro Banamex, Ciudad de México, D.F. 23 de junio 2008. http://code.google.com/intl/es_mx/events/developerday/2008/ home.html

Suscripción Anual: 6 Números de cociente por $100 todo el 2008

Mundo Contact 08 World Trade Center de la Ciudad de México, D.F. 24-25 de junio 2008 http://www.mundo-contact.com/congresoip/mx08/

Reciba 6 números de cociente por $100 pesos. Deposite en Banco Santander S.A., Sucursal: 0009, Insurgentes Parroquia, Beneficiario: Cómputo Científico y Técnico S.A. de C.V., Cuenta moneda nacional: 92000612904, o por transferencia electrónica con la Clave interbancaria: 014180920006129049. Envíe por fax esta forma y su comprobante de depósito con nombre y fecha.

PMTOUR Congreso Nacional de Dirección de Proyectos 2008 Hotel Sheraton Centro Histórico, México, D.F. 21-24 de junio 2008 http://www.sg.com.mx/sg08/

Si realizo su suscripción a través de nuestro portal de internet, envíe una imagen escaneada de su comprobante de depósito a: suscripcion@cociente.com.mx ó por fax al 55 59 80 83 indicando su nombre completo y la fecha en que realizo su suscripción. Para obtener más información sobre nuestra publicación, envíe un e-mail a: cociente@cociente,com.mx

Anunciantes

Fecha: Nombre Completo: E-mail:

02 36 13 11 35 17

National Instruments MultiON Consulting The MathWorks Quanser Maple Statistica

c

SÍ deseo recibir la revista

c

NO deseo recibir la revista

Empresa: Departamento: Dirección donde desea recibir Cociente Calle y Número: Colonia: Ciudad: País: Código Postal: Teléfono con clave lada: Fax con clave lada: Otro

34

Cómputo C ientí f ico y Técnico

[ mayo - junio - 0 8 ]


w w w.cociente.com.m x

35



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.