Issuu on Google+

Un panorama de software y hardware para las ciencias y las ingenierias

Diseño de fármacos con métodos computacionales > Dispositivos de adquisición de datos > Un tip “fuera de este mundo” > MIT y las investigaciones sobre cáncer > Ingeniería de software

La Platafoma de eeglab para matlab > LIMS para información de laboratorios > México ante la economía del conocimiento >

4

junio-agosto/07

www.cociente.com.mx


Analice, Depure, Genere.

Durante los últimos 60 años, Tektronix le ha ayudado a resolver sus problemas de análisis, depuración y generación de señales para diferentes aplicaciones, como: pruebas de fabricación, control de calidad, diseño electrónico y automotriz hasta análisis de video, por mencionar algunos. Contamos con un amplio portafolio de productos adecuados a cada una de sus necesidades. Nuestras familias de productos cuentan con las innovaciones tecnológicas que, estamos seguros, harán su trabajo mucho más fácil.

¡Nuevo! Conózcalo en ISA Expocontrol 2007 Stand 1332 www.isaexpocontrol.com/

Contáctenos 01 800 801 1 835 (TEK)

Osciloscopio de Señales Mixtas Serie MSO4000 Para mayor información visite: www.tektronix.com ó envie un e-mail a: tektronix-latinoamerica@tektronix.com

© 2007 Tektronix, Inc. All rights reserved. Tektronix products are covered by U.S. and foreign patents, issued and pending. TEKTRONIX and the Tektronix logo are registered trademarks of Tektronix, Inc.



página

2

Anuncio

C

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


Po r t ad a

24

junio-agosto/07

www.cociente.com.mx

Aplicaciones exitosas del diseño de fármacos asistido por computadora. Para muchas enfermedades se conocen estructuras tridimensionales de potenciales sitios de acción de fármacos. En diversas ocasiones los cálculos computacionales han tenido un papel muy importante en la investigación de moléculas que se unen a estos blancos y que actualmente se encuentran en uso clínico. Por: Dr. Christopher J. Knors

I nd u s t r i a

08

34

PORTADA: Visualización creada usando Chem3D mostrando un enlace inhibidor del sitio activo de una peptidasa del VIH, cortesía Nicole Dieh de Cambridgesoft, 100 CambridgePark Drive Cambridge, MA 02138, U.S.A.

Ac ad e m i a

14

Editor Ejecutivo: Andrea Domínguez Medina. Editor Adjunto: Modesto Vázquez Coronel. Ilustración y Diseño: Cinthya Dominguez, Fernando Tapia Rodríguez. Colaboradores: Gustavo Vega Gama, Ricardo Hernández Pérez, Claudia Ivonne Domínguez, Gloria Ovalle Cabazos, Alex Eisenring.

36

Cómputo Científico y Técnico S.A. de C.V. es una publicación Trimestral. Insurgentes Sur 1188-104, Col. Tlacoquemécatl del Valle C.P. 03200 México D.F. Tiraje 10,000 ejemplares. Año 1, No. 4. Edición junioagosto/07. Circulación gratuita entre suscriptores de los principales centros de investigación y manufactura en

18

contenido de esta revista por cualquier medio electrónico de los editores. Reserva de la Dirección General de Derechos de Autor: 04-2006-11113130000-102. Certificado de licitud de título No. 13568. Certificado de licitud de contenido No. 11141. Autorización de Registro Postal: PP09-1498, Marca registrada ante el IMPI 657903.

“Applied for BPA membership” w w w. c o c i e n t e . c o m . m x

fecha de solicitud: marzo 29,2006

La Platafoma de EEGlab para MATLAB. El paquete de EEGlab es muy útil en el campo de la Neurofisiología experimental, pero es particularmente útil en el campo clínico, específicamente la epilepsia. Por: J. Gustavo Vega Gama.

Se r v i c i o s

21

“Los artículos publicados en esta revista reflejan opiniones de la exclusiva responsabilidad del autor” Tel 55.59.48.26 Fax 55.59.80.83 Impresión R.R. Donnelley de México, S. de R.L. de C.V. Cerrada Galeana 26, Fracc. Ind. La Loma, Tlalnepantla, Edo. de México, 54070 Distribución: Sepomex. R. P. PP09-1498.

MIT. Investigaciones sobre Cáncer con las Herramientas de MathWorks. Los investigadores y estudiantes del MIT, están explorando métodos para el diagnóstico del cáncer en sus primeras etapas. Por: Bill Wrbican y Janet Gess. Colaboración the Mathworks Ingeniería de Software. La aplicación de un enfoque sistemático, disciplinado y cuantificable al desarrollo, operación y mantenimiento del software; esto es, la aplicación de la ingeniería al software. Por Marcela J. Peñaloza Baez. DGSCA-UNAM

I nve s t i g ac i ó n

México. Prohibida la reproducción total o parcial del o magnético con fines comerciales sin el permiso previo

Selección de Dispositivos de Adquisición de Datos. En general, cuando se habla de un sistema de DAQ basado en una PC, se pueden identificar 5 partes principales: la PC, el software, hardware de adquisición de datos, acondicionamiento de señales y los sensores. Por: Gustavo Valdés. de National Instruments Un tip “Fuera de este mundo“ para el aprendizaje de las Matemáticas. Experto en matemáticas aplicadas, el profesor Chartier es un ardiente coleccionista de ejemplos de cómo aplicarlas de una manera diferente. Colaboración de Maplesoft.

29

LIMS para el manejo de información de laboratorios. Este software es el que se utiliza en laboratorios para administración de muestras, placas, usuarios, instrumentos y otras funciones como, la facturación y automatización del flujo de trabajo. Por: Christine Paszko México ante la Economía del Conocimiento. El conocimiento y la información han sido elementos decisivos en todos los modos de desarrollo, ya que el proceso de producción siempre se basa sobre cierto grado en el procesamiento de la información. Por: Mario Alberto Alvarado. Secretaria de Economía.




Editorial ecientemente me topé, en el periódico, con una nota sobre el discurso de la niña Carolina Aranda (10 años), ante el Secretario de Salud, José Ángel Córdova Villalobos. Me dió mucho gusto encontrar que una niña, de tan corta edad, esté preocupada por la divulgación de las ciencias y la tecnología en nuestro país. Entre otras cosas en su discurso, Carolina demandaba una biografía extensa de Guillermo Haro, astrónomo mexicano, reconocido internacionalmente y descubridor de los objetos Herbig-Haro, de estrellas, novas y supernovas, galaxias azules e innumerables estrellas ráfaga, así como del cometa Haro-Chavira, descubierto en 1954 en la región del Toro.Y además, uno de los fundadores, y director por muchos años, del INAOE (Instituto Nacional de Astrofísica, Óptica y Electrónica). Y Carolina se pregunta: ¿Por qué se apoya más al futbol que a los científicos? ¿Por qué no existe una biografía de Guillermo Haro?... Carolina exige saber y tener acceso a una educación de excelencia; Carolina dice “Me da pena que no apoyen a la ciencia”, que cada vez le dan menos recursos a la UNAM, y finalmente cierra su discurso con la frase: “ Un país que no invierte en ciencia y educación siempre será un país pobre... ¿Queremos un México Pobre?”. Nosotros No. Que sea esta reflexión una invitación para participar en Cociente y en nuestro país, haciendo divulgación científica, que demuestre, de manera simple, clara y correcta, las maneras en que el conocimiento mejora nuestras vidas y nuestro entorno. Saludos cordiales, Los editores

Noticias »

Electrónica Flexible para Músculos Artificiales Investigadores del Laboratorio Nacional de Argonne y la Universidad de Illinois en Urbana-Champaign están desarrollando estructuras electrónicas flexibles capaces de dar lugar a dispositivos electrónicos que puedan doblarse, expandirse, y manipularse de otros modos. Estas estructuras flexibles podrían encontrar aplicaciones útiles en sensores, así como en dispositivos electrónicos integrables dentro de músculos artificiales o incluso de tejidos biológicos. Además de su impacto biomédico, la electrónica flexible es importante para la tecnología energética, donde se utilizaría en sensores flexibles y de alta precisión para detectar hidrógeno. Estas estructuras fueron desarrolladas a partir de un concepto creado por el científico Yugang Sun, de Argonne, y un equipo de investigadores de la Universidad de Illinois dirigido por John A. Rogers. El concepto se basa en formar nanocintas semiconductoras monocristalinas en configuraciones geométricas estirables, valiéndose especialmente de los materiales y del tipo químico de superficies utilizados en su fabricación, y de su respuesta mecánica ante la aplicación de tensiones. El objetivo de este nuevo trabajo era generar un concepto junto con la tecnología subsiguiente, que permitiera producir circuitos electrónicos que se estiren como correas de goma y acordeones, lo que debiera conducir a fabricar cubiertas con sensores incluidos, para aeronaves y robots, e incluso una piel protésica para seres humanos. Con los grandes recursos de ese centro a su disposición, Sun planea extender su investigación para centrarse en las aplicaciones de otros sensores biológicos y químicos. Fuente: NC&T Más información: http://www.anl.gov/Media_Center/News/2007/ news070402.html

Taller Internacional de Hadroterapia. Cinvestav Zacatenco El pasado mayo se organizó el Taller Internacional de Hadroterapia, con el fin de discutir la viabilidad, metodología y directriz de un proyecto nacional en este rubro, y que da inicio a un programa de formación de personal especializado en la tecnología de aceleradores, así como del diseño y construcción de estos equipos, dado que el desarrollo de los aceleradores de protones e iones ligeros para el tratamiento de cáncer es actualmente muy intenso. El Taller está auspiciado por la Comunidad Europea a través del proyecto ALFA-HELEN, que tiene su cede en el CERN (Organización Europea para la Investigación Nuclear) de Suiza, y que ha desarrollado en los últimos años el proyecto ALICE, un colisionador de hadrones capaz de reproducir el Big Bang, y en el que han contribuido científicos de 28 países. Entre las instituciones participantes en México se encuentra el Cinvestav. El proyecto ALICE (A Large Ion Collíder Experiment)es considerado el experimento más grande de la historia; participan en él más de mil científicos; la primera colisión está programada para el 1 de noviembre de 2007 Una muestra de las superficies flexibles desarrolladas. Foto: ANL



Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>  no t i c i a s  ]

»

Proyecto para Rediseñar Internet

Nick McKeown Foto: Stanford Univerity

Internet resulta tan fascinante para la mayoría de la gente que la usa, que a casi nadie se le ocurriría hacerse esta pregunta: ¿Es realmente como la habríamos construido si pudiésemos diseñarla hoy de arriba a abajo, desde sus cimientos? Nick McKeown, profesor de ingeniería electrónica y ciencias de la computación en la Universidad de Stanford, está liderando el esfuerzo. Él ha hecho contribuciones substanciales al desarrollo de la tecnología de enrutadores (routers) en el corazón de la actual internet.

Por su parte, el codirector de la iniciativa y profesor de ingeniería electrónica Bernd Girod ha sido pionero de la distribución de contenidos multimedia en internet, contribuyendo directamente a los estándares para codificación de video digital. También comparten esta visión de un diseño radicalmente nuevo de una infraestructura global de comunicaciones, varios departamentos de ingeniería que han formalizado acuerdos para realizar investigaciones científicas dentro de este ambicioso proyecto. Patrocinándolos, están conocidas compañías, incluyendo Cisco Systems, Deutsche Telekom Laboratories y NEC. McKeown y sus colegas ya han identificado y comenzado a trabajar en cuatro direcciones que constituyen la filosofía inicial de investigación del proyecto. Algunos de estos esfuerzos están materializándose en el desarrollo de prototipos que ya permiten presagiar como podría ser una nueva internet. Un primer ejemplo es un prototipo de una red inalámbrica de 400 usuarios llama-

da “Ethane” y ubicada en el Edificio Gates de Ciencias de la Computación. Comienza con la prohibición de todas las comunicaciones. Los administradores simplemente tienen que comenzar a abrir los canales apropiados dentro de la organización mientras la seguridad es el estado que reina por defecto. En otra dirección, los científicos están trabajando para revisar y mejorar la interacción entre los enrutadores cercanos a las “orillas” de internet, en las cuales los usuarios se conectan a ella, y los enrutadores que gobiernan la columna vertebral de las comunicaciones de internet. El proyecto tiene por meta reemplazar los grandes enrutadores en la columna vertebral, con conmutadores ópticos de alta eficiencia que serían más flexibles y receptivos a las demandas de los enrutadores en las orillas. Esto podría permitir a los proveedores de servicios de internet obtener el ancho de banda exacto que requieren justo cuando sus usuarios lo necesiten. Fuente: NC&T Más información: http://news-service.stanford.edu

» Experimento Pionero en Robótica Médica Miniaturizada Unos 40 años después del estreno del clásico del cine de ciencia-ficción algunos años, los nuevos vehículos puedan navegar dentro de vasos “Viaje Fantástico”, unos investigadores han alcanzado un gran logro tecsanguíneos más pequeños. nológico en el campo de la robótica médica, que recuerda en algunos asLa inyección y el control de los nanorrobots dentro del cuerpo hupectos a lo que dicha película mostraba. Se ha conseguido por vez primano, que contiene aproximadamente cien mil kilómetros de vasos mera guiar, en vivo y mediante un sistema computarizado de control, un sanguíneos, es una estrategia prometedora que puede permitir realimicrodispositivo no sujeto por cable alguno, dentro de una arteria, a la zar intervenciones médicas a blancos en el cuerpo que durante mucho velocidad de 10 centímetros por segundo. tiempo han resultado inaccesibles mediante el Este logro es obra de expertos del Laboratorio uso de instrumentos médicos más convenciode Nano-Robótica del Departamento de nales, como los catéteres. Ingenier ía Infor mát ica de l a Academia En colaboración con sus asociados, los inPolitécnica de Montreal, y del Instituto de vestigadores de la Politécnica han comenzado Ingeniería Biomédica. a desarrollar varios tipos de micro y nanodisBajo la dirección del Profesor Sylvain positivos para nuevas utilidades, tales como Mar tel, catedrát ico de Invest igación en la aplicación de medicamentos en la ubicación Desarrollo, Construcción y Validación de Micro / exacta de un tumor, y el diagnóstico de alta Nanosistemas, y en colaboración con investigaprecisión, empleando biosensores capaces de dores del Centro Hospitalario de la Universidad navegar por el interior del cuerpo. de Montreal (CHUM), el equipo de la Politécnica Sylvain Martel. Foto: Academia Politécnica de Montreal Se han solicitado patentes para este método inyectó, impulsó y controló con éxito por medio de software especial un de monitorización y guiado de dispositivos en tiempo real para ciruprototipo de “vehículo”, no unido a cable alguno, dentro de la arteria cagías mínimamente invasivas empleando la MRI. La comercialización rótida de un animal vivo colocado dentro de un equipo clínico de resode la tecnología le ha sido confiada a Gestion Univalor, una organizanancia magnética (MRI). La “nave” intracorporal utilizada es una esfera ción cuya misión es comercializar los descubrimientos realizados por ferromagnética de 1,5 milímetros de diámetro. los investigadores en la Universidad de Montreal, y de algunas otras Animados por estos resultados, los miembros del equipo del instituciones canadienses. Fuente: NC&T Laboratorio de Nano-Robótica de la Politécnica están trabajando acMás información: tualmente en reducir el tamaño del dispositivo de manera que, en sólo http://www.polymtl.ca/carrefour/en/article.php?no=2502 w w w. c o c i e n t e . c o m . m x




>  noticias  ] » Un Nanogenerador de Energía Eléctrica sin Problemas de Abastecimiento

Zhong Lin Wang. Foto: GIT

Unos invest igadores han demostrado un protot ipo de generador, de t amaño nanométrico, que produce corriente continua de manera constante, utilizando para ello la energía mecánica producida por fuentes medioambientales tales como ondas de ultrasonido, vibraciones mecánicas o el flujo de la sangre. Basados en conjuntos ver t icalmente alineados de nanocables de óxido de zinc movidos dentro de un novedoso electrodo, los nanogeneradores podrían proporcionar una nueva forma de alimentar los dispositivos de tamaño nanométrico sin utilizar baterías

u otras fuentes de energía externas. Los nanogeneradores aprovechan las propiedades piezoeléctricas y semiconductoras de las nanoestructuras de óxido de zinc, que producen pequeñas cargas eléctricas cuando se doblan. Zhong Lin Wang, profesor en la Escuela de Ciencia e Ingeniería de los Materiales del Instituto Tecnológico de Georgia, y Xudong Wang, Jinhui Song y Jin Liu, miembros de su grupo, esperan que con la debida optimización, su nanogenerador pueda producir hasta 4 vatios por centímetro cúbico, basándose en un cálculo para un solo nanocable. Eso sería suficiente para suministrar energía a nanodispositivos de muy diverso tipo, incluyendo biosensores implantados en el cuerpo, sensores para monitorización medioambiental e incluso nanorrobots. Como el óxido de zinc no es tóxico y resulta compatible con el cuerpo, los nuevos nanogeneradores podrían estar integrados en los dispositivos biomédicos implantables para medir de modo inalámbrico el flujo de la sangre y la tensión arterial dentro del cuerpo. También podrían encontrar aplicaciones más cotidianas. Por ejemplo: si usted tuviera un dispositivo de este tipo en sus zapatos, al caminar podría generar su propia corriente

LabVIEW 8.2.1 de National Instruments proporciona soporte para Windows Vista National Instruments, uno de los líderes globales en el diseño gráfico de sistemas, ha anunciado la disponibilidad de una nueva versión de LabVIEW, la plataforma gráfica del diseño para prueba, control y desarrollo de sistemas embebidos, para su utilización con Windows Vista. NI LabVIEW 8.2.1 incluye tanto el entorno de desarrollo en PC como el software de aplicación relacionado, incluyendo los módulos LabVIEW Real-Time y LabVIEW FPGA. NI ha lanzado también nuevos drivers

necesaria para alimentar sus pequeños dispositivos electrónicos de bolsillo. Cualquier cosa que haga moverse a los nanocables dentro del generador puede emplearse para generar energía eléctrica. La fuerza necesaria para moverlos es muy pequeña. Fuente: NC&T Más información: http://www.gatech.edu/ news-room/release.php?id =1326

» Generacion más fácil de Electricidad con Celulas de Combustible Microbianas Un ánodo de fibra de carbono desarrollado por investigadores de la Universidad Estatal de Pensilvania, hará posible aprovechar las células de combustible microbianas para la producción de electricidad a gran escala. Además, un cátodo especial, adaptado a partir de equipamiento existente de tratamiento de aguas residuales completará el circuito. Estos ánodos de f ibra de carbono son, estructuralmente, cepillos, y pueden ser producidos por los fabricantes de éstos, en cualquier tamaño o forma deseada. Son conductores eléctr icos muy baratos de confeccionar y suministran una gran área superficial para adherir la biopelícula bacteriana. Las células de combustible microbianas funcionan a través de la acción de bacterias que pueden pasar electrones al ánodo de la célula. Los electrones fluyen desde el ánodo a través de un cable al cátodo, produciendo una corriente eléctrica. En el proceso, las bacterias consumen la materia orgánica de las aguas residuales y limpian el agua. El nue-



vo método utiliza las bacterias que existen de manera natural en las aguas residuales; no requiere de ninguna cepa bacteriana especial o condiciones medioambientales inusuales. Los investigadores demostraron previamente que l as célul as de combust ible que empleaban un papel de fibra de carbono como ánodo y un papel de fibra de carbono con catalizador de platino como cátodo, podían producir electricidad y agua limpia a par t ir de las aguas residuales. Sin embargo, a escala comercial ese sistema no era práctico. Mientras que el ánodo tipo cepillo puede sumergirse en las aguas residuales, el cátodo debe tener un lado expuesto al oxígeno del aire para funcionar. Los investigadores se decantaron por los tubos de membrana usados actualmente en operaciones de tratamiento de aguas residuales. Disponibles en el ámbito comercial, existen en diversos tamaños que van mayormente desde 180 a 240 centímetros de longitud. Estos tubos de membrana no son conductores de electricidad, pero

los investigadores los pintaron con pintura de grafito conductor y agregaron un catalizador basado en el cobalto. Un beneficio adicional de la célula de combustible microbiana es que, mientras genera electricidad, limpia las aguas residuales, algo que normalmente requiere del consumo de energía. Fuente: NC&T Más información: http://www.sandia.gov/ news/resources/releases/2007/blade.html

La célula de combustible, junto al cátodo y el ánodo especiales. Foto: Bruce Logan, Penn State

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


National Instruments ha anunciado el lanzamiento de NI Sound and Vibration Measurement Suite Version 5.0, el nuevo

»

Nuevo Sensor Detecta Sucedaneos Gaseosos de Armas Químicas en 45 Segundos Usando láseres y diapasones, unos investigadores del PNNL han desarrollado una técnica de detección de armas químicas que promete igualar o superar los requisitos de detección química (actuales y en desarrollo) para la defensa y la seguridad públicas. La técnica, denominada QPAS, ahora está lista para el desarrollo de prototipos y la realización de las pruebas de campo. El PNNL ha demostrado la capacidad de la técnica QPAS para detectar a sucedáneos de varios gases que atacan al sistema nervioso. En una prueba, los investigadores emplearon el DIMP, compuesto químico similar al gas sarín. Mediante QPAS, se detectó al DIMP en niveles inferiores a una parte por cada mil millones en menos de un minuto. El minúsculo nivel resulta similar al producido por la evaporación de una gota de DIMP líquido en un volumen de aire que llenaría más de dos piscinas de dimensiones olímpicas. “La técnica QPAS es sumamente sensible y selectiva, puede ser miniaturizada y resulta útil para trabajar sobre el terreno”, explica Michael Wojcik, científico investigador del PNNL. “El láser, los diapasones y otras tecnologías necesarias para la QPAS, son tan simples, y sin embargo tan robustos, que el desarrollo ulterior es una inversión de bajo riesgo y estamos ansiosos por llevarla al próximo nivel”. El instrumento se basa en el Láser Sensor Foto-Acústico y en los láseres infrarrojos de cascada cuántica (o QCLs). La LPAS es una forw w w. c o c i e n t e . c o m . m x

Una parte del sensor, junto a una moneda para demostrar su pequeño tamaño. Foto: PNNL

ma muy sensible de espectroscopia de absorción óptica, donde un haz láser pulsado crea una breve absorción en una muestra de gas, que a su vez produce una señal acústica muy pequeña. Un diminuto diapasón de cuarzo funciona como un “micrófono” para grabar la onda de sonido resultante. Los investigadores del PNNL emparejaron múltiples QCLs con diapasones, permitiendo el examen simultáneo de una sola muestra a muchas longitudes de onda infrarrojas. Debido a esta facilidad de acceso y al hecho de que el QPAS es casi inmune a la interferencia acústica, el nuevo sistema tiene el potencial para ofrecer una sensibilidad y una selectividad químicas extraordinarias. Par te de la investigación se realizó en colaboración con la Universidad Rice, de Houston, Texas, donde se originó una parte de la tecnología QPAS. Fuente: NC&T Más información: http://www.pnl.gov/news/release.asp?id=238

>  no t i c i a s  ]

NI presenta el software Sound and Vibration Measurement Suite 5.0 para realizar medidas interactivas basadas en software

software interactivo para el análisis del sonido y vibraciones que incluye NI Sound and Vibration Assistant. El software Sound and Vibration Measurement Suite 5.0 es la colección de herramientas de análisis y proceso de la señal más completa de National Instruments para aplicaciones de ruido, vibraciones, sonidos estridentes (NVH: Noise, Vibration and Harshness); supervisión del estado de máquinas y pruebas de audio. El software Sound and Vibration Measurement Suite 5.0 trabaja los productos LabVIEW y Dynamic Signal Acquisition (DSA) y proporciona capacidades avanzadas de análisis para las pruebas de medida usando la adquisición y el análisis integrados. www.ni.com/soundandvibration

» Hacia una Electrónica de Plástico

La investigadora holandesa Paulette Prins ha demostrado que los plásticos no tienen por qué ser siempre peores conductores que los semiconductores actuales. Esto abre las puertas para una próxima revolución en la electrónica de consumo: teléfonos móviles, reproductores de MP3, y otros disposit ivos que, ent re otras prestaciones, sobrevivirán a las caídas. Imagínelo. Dispositivos electrónicos domésticos que no se rompen si se dejan caer accidentalmente, aparatos con pantallas flexibles que se pueden enrollar, y productos mucho más baratos. Hasta ahora no era más que un sueño. El factor limitante eran los chips en tales dispositivos. Estos necesitan conducir la electricidad, y los chips de plástico no tenían éxito en esta tarea. La conducción en los plásticos era 1.000 veces menor que en la actual generación de semiconductores. Prins ha demostrado que ciertos plásticos especialmente desarrollados pueden conducir la corriente tan bien como los semiconductores existentes. Un grupo alemán de investigadores reconstruyó las cadenas. Formaron un polímero con una estructura relativamente fija, como una escalera de mano. Prins hizo un empleo ingenioso de esto. Se encontró que este polímero conduce la corriente 1.000 veces mejor que lo mostrado previamente en otros plásticos. La combinación de simulaciones y técnicas avanzadas hace única la investigación de Prins. Ella bombardeó el material con electrones de un acelerador de partículas, lo que le permitió estudiar las rápidas reacciones en el plástico con una exactitud de 100 microsegundos. Como consecuencia, determinó la conductancia de los polímeros midiendo la absorción de microondas. Esto evitó la necesidad de usar electrodos. Tales electrodos alteran frecuentemente las mediciones. Fuente: NC&T

Polímero reconstruido para aumentar su conductividad. Foto: NWO

para el hardware de 32 y 64 bits con soporte para las versiones de 32 y 64 bits de Windows Vista. Por primera vez, NI está ofreciendo controladores embebidos de PXI con Windows Vista pre-instalado como sistema operativo predeterminado. www.ni.com/labview/upgrade

Más información: http://www.nwo.nl/nwohome. nsf/pages/NWOA_6Z3C6Y_Eng?Opendocument




>  adquisición de datos  ]

Selección de dispositivos de

Adquisición de Datos Más allá de las especificaciones del A/D Por: Gustavo Valdés

Figura 1. Componentes básicos de un sistema de adquisición de datos

Componentes de un Sistema DAQ En general, cuando se habla de un sistema de DAQ basado en una PC, se pueden identificar 5 partes principales: la PC, el software, hardware de adquisición de datos, acondicionamiento de señales y los sensores. Las características de cada uno de estos componentes determinarán en parte el desempeño adecuado del sistema. Por ejemplo, la PC debe contar con un buen procesador o suficiente memoria RAM para poder transferir y procesar continuamente todos los datos adquiridos, de lo contrario la velocidad máxima de lectura se limitará. El software de aplicación debe ser poderoso para analizar y presentar la información correctamente al usuario, y flexible para poder evolucionar conforme cambien las necesidades de la aplicación. Por otro lado, una elección correcta de los sensores y el acondicionamiento de señales es clave para manipular y preparar la señal antes de ser digitalizada a través de etapas de filtrado de ruido, amplificación, excitación de voltaje o corriente, etc. Al momento de elegir el hardware de DAQ, debe de considerar varias especificaciones para asegurar que el hardware de medición sea capaz de cumplir con los requisitos de la aplicación. De manera general, las características más obvias son la resolución, la máxima velocidad de muestreo, el número de canales, el precio, y la disponibilidad de algún tipo de software controlador o driver para comunicarse con el equipo. Estas características parecen suficientes para configurar y comprar un dispositivo de DAQ; sin embargo, existen otras que son cruciales cuando se trata de aplicaciones de alta velocidad, niveles de voltaje peligrosos, muchos canales o integración con 

otras tareas como control de movimiento o visión. Algunas son el mecanismo de muestreo de las entradas analógicas, el aislamiento eléctrico del dispositivo, el bus de comunicación con la PC, la facilidad de uso del controlador, y otras. Conocer cómo cada una de estas características afecta el rendimiento total del sistema DAQ es clave para realizar una compra adecuada de equipo. Especificaciones de las entradas analógicas Las especificaciones de la entrada analógica sirven para determinar tanto las capacidades como la precisión del dispositivo de DAQ. Las especificaciones más básicas son: el número de canales, la máxima velocidad de muestreo, la resolución y el rango de entrada. El número de canales analógicos de entrada se especifica en número de entradas diferenciales, así como entradas de terminal sencilla. Por ejemplo, una tarjeta de DAQ puede tener 8 canales diferenciales o 16 canales de entrada de terminal sencilla. Las entradas de terminal sencilla (o single-ended) están todas referenciadas a una terminal de tierra común. Es recomendable utilizar este tipo de entrada analógica cuando las señales de voltaje son mayores a 1 V, las terminales de la fuente de la señal son menos a 5 metros y todas las entradas comparten la misma tierra. Si las señales no cumplen con los criterios anteriores, se recomienda utilizar los canales de entrada en modo diferencial. Con entradas diferenciales, cada entrada tiene su propia referencia a tierra; de esta forma, los errores por ruido se reducen debido a que el ruido captado normalmente por una sola terminal se cancela entre las terminales. Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


w w w. c o c i e n t e . c o m . m x

>  a d q ui si c i ó n d e d at o s  ]

El convertidor analógico-digital, o A/D, es uno de los componentes principales en un dispositivo de adquisición de datos. Su función es la de digitalizar las señales continuas del mundo real en señales digitales discretas que la computadora puede entender. La máxima velocidad de muestreo de un A/D determina qué tan rápido ocurren las conversiones. A mayores velocidades de muestreo, se adquieren más datos en un periodo de tiempo y por lo tanto se representa mejor la señal original. Para aplicaciones de múltiples canales, existen dos arquitecturas principales de los A/Ds para adquirir las señales: muestreo multiplexado o simultáneo. Más adelante discutiremos las características y ventajas de cada una de estas arquitecturas. Otra de las características del A/D en un dispositivo de DAQ es su resolución. La resolución es el número de bits que el A/D utiliza para representar la señal analógica. A mayores resoluciones, mejor será la detección en los cambios mínimos de voltaje de la señal. Para ilustrar mejor este concepto, considere la onda sinusoidal y su representación digital de la Figura 2. En este caso, se tiene un A/D de 3 bits que divide el rango analógico en 2 3 escalones, equivalente a 8. Cada división se representa por un código binario entre 000 y 111. Como se aprecia en la gráfica, la representación digital no es una buena reproducción de la señal analógica original ya que pierde información en la conversión. Sin embargo, al incrementar la resolución de 3 a 16 bits, el número de códigos disponibles en el A/D aumenta de 8 a 65,536 y permite tener una representación digital más precisa de la señal analógica. Actualmente, los dispositivos o tarjetas de adquisición de datos incluyen A/Ds de 16 bits para las aplicaciones más comunes; para aplicaciones que requieren de analizar señales dinámicas, como sonido o vibración, es recomendable utilizar dispositivos con A/Ds de 24 bits. Finalmente, también hay que considerar el rango y la ganancia del A/D al momento de especificar un dispositivo de adquisición de datos. El rango se refiere a los niveles de voltaje máximos y mínimos que el A/D puede cuantificar. La ganancia se entiende como un multiplicador que sirve para ajustar la señal de entrada al rango definido. Es preferible que los dispositivos de adquisición de datos cuenten con diferentes rangos y ganancias configurables por el usuario. Esta flexibilidad permite igualar el rango del A/D con la señal de entrada, y de esa manera poder detectar de una mejor manera los cambios mínimos en el voltaje. Son las tres características antes mencionadas, resolución, rango y ganancia, las que se utilizan para determinar el cambio mínimo de voltaje detectable por el dispositivo de adquisición de datos. La manera más sencilla para determinar los cambios mínimos es a través de la siguiente ecuación:

Imagine una tarjeta de adquisición de datos comercial de 16 bits con un rango configurable de 0 a 10 V o de -10 a 10 V y una ganancia configurable de 1, 2, 5, 10, 20, 50 o 100. Si se selecciona un rango de 0 a 10 V y una ganancia de 100, el cambio mínimo de voltaje detectable por la tarjeta sería de:

Esta tarjeta, que detecta cambios de 1.5 μV, es suficiente para aplicaciones que no requieren de alta velocidad de muestreo pero sí capacidad para leer señales en el rango de microvoltios, como señales de voltaje mínimo desde termpares. Mecanismo de muestreo Para configurar un sistema de adquisición de datos de múltiples canales, es importante no sólo considerar la máxima velocidad de muestreo y el número de canales, sino también el mecanismo de muestreo de los canales ya que éste también determinará la velocidad de lectura de los canales de entrada y la precisión del dispositivo de DAQ. En términos generales, se pueden identificar tres mecanismos para el muestreo de los canales analógicos: multiplexado, simultáneo con “sample and hold”(SSH) y simultáneo con múltiples A/Ds. A continuación se describirá cada uno de ellos y sus áreas de aplicación. Arquitectura multiplexada Una arquitectura multiplexada es aquélla en la cual solamente se cuenta con un convertidor analógico-digital y un amplificador para todos los canales. Para cubrir todas las entradas, el dispositivo de DAQ utiliza un multiplexor, que barre todos los canales y arroja una única salida a la vez. La primera parte de la Figura 3 muestra de manera general esta configuración. Una característica de este tipo de arquitecturas es que la velocidad máxima de muestreo que se especifique en el dispositivo de DAQ se debe dividir entre el número de canales muestreados. Por lo tanto, si tiene una tarjeta de 500 kS/s y se están muestreando 5 canales, la velocidad máxima por canal será de 100 kS/s. Además, con esta arquitectura debe tomar en cuenta que habrá un pequeño desfase entre los canales ya que el multiplexor tiene que conmutar entre las entradas. Por lo tanto, las aplicaciones ideales para este tipo de arquitecturas son aquellas de un número de canales mediano o grande y que no requieren de muy altas velocidades de muestreo (con un máximo alrededor de 1 millón de muestras por segundo por canal) ni sincronización precisa entre todos los canales, como mediciones de temperatura, presión, humedad o voltajes cualquiera. Una alternativa para lograr muestreo simultáneo a través de sistemas multiplexados es utilizando la

Figura 2. Onda sinusoidal digitalizada con 3 bits de resolución.

Figura 3. Mecanismos para lecturas analógicas: multiplexado, SSH, y múltiples A/Ds.




>  adquisición de datos  ]

Figura 4. El costo de los A/Ds se ha reducido en los últimos 15 años.

10

arquitectura de “simultaneous sample and hold” o SSH. Como se muestra en la segunda sección de la Figura 3, en esta arquitectura se cuenta con un pre-amplificador y un circuito de retención SHH antes del multiplexor. En este caso, cada circuito SSH constantemente está registrando el valor de la señal de entrada antes de las lecturas. Justo antes de que se realice el muestreo, el dispositivo de adquisición de datos retiene simultáneamente el valor de voltaje de los circuitos SSH mediante un condensador interno. Posteriormente, el multiplexor y el A/D muestrean todos los canales en orden y liberan los circuitos SSH para que continúen registrando las entradas. Utilizando este mecanismo, los voltajes de entrada son simultáneos aún y cuando el muestreo propiamente sea de forma secuencial. Históricamente, la arquitectura SSH fue popular hace más de 10 años por ser una alternativa económica para lograr muestreo simultáneo en sistemas de muchos canales, ya que contar con un A/D dedicado por canal elevaba mucho el costo del dispositivo de DAQ. Sin embargo, la circuitería adicional de SSH añade retrasos (de hasta un 30%) y tiempos de establecimiento a las señales, por lo que la máxima velocidad de muestreo del sistema se degrada. Es por ello que mecanismos multiplexados, con o sin SSH, son mejores para realizar mediciones de señales de DC, como temperatura, tensión/esfuerzo, presión estática, etc., y no señales dinámicas como vibración y sonido. El tercer mecanismo más popular para dispositivos de adquisición de datos es el de múltiples A/Ds. Múltiples A/Ds permite lograr mayores velocidades de muestreo por canal, mejor precisión dinámica y menor complejidad en los circuitos. Como se puede apreciar en la tercera parte de la Figura 3, esta arquitectura no requiere de multiplexores para enrutar todos los canales a un solo A/D y no depende de circuitería SSH para lograr un muestreo simultáneo. La ausencia de estos componentes simplifica la ruta que deben seguir las señales para llegar al A/D y permite optimizar el circuito para realizar mediciones tanto de DC como de señales dinámicas. Con esta arquitectura es posible muestrear las señales de entrada de manera independiente (a velocidades distintas) o de manera simultánea a alta velocidad. Además, la velocidad máxima de muestreo no se divide entre el número de canales de entrada. Este tipo de arquitecturas es ideal para aplicaciones donde se necesita tener altas velocidades de muestreo y mediciones 100% simultáneas; ejemplos de estas aplicaciones son medición de sonido de micrófonos, o medición de señales de vibración en aplicaciones de mantenimiento predictivo de maquinaria. Gracias a que los costos de los A/Ds se han reducido en los últimos 15 años en casi un 75% (ver Figura 4), actualmente es

factible y económico adquirir dispositivos de DAQ que cuenten con un A/D por canal. Aislamiento En muchas aplicaciones industriales donde se miden señales de voltaje, corriente, temperatura, presión, tensión y flujo, es común encontrar elementos que pueden dañar los sistemas de medición y perjudicar las mediciones como voltajes peligrosos, señales transitorias, voltajes de modo común y referencias a tierra fluctuantes. Para solucionar o prevenir estos problemas, los sistemas de medición para aplicaciones industriales deben contar con aislamiento eléctrico. El aislamiento separa eléctricamente las señales del sensor, que pueden estar expuestas a voltajes peligrosos, del plano del sistema de medición. De esta forma, el aislamiento protege contra todas las situaciones mencionadas: protege al equipo de medición, usuario, y los datos contra “picos” de voltaje; mejora la inmunidad al ruido; remueve los diferentes lazos de tierra; y rechaza mejor el voltaje de modo común. Un sistema de medición aislado cuenta con planos de tierra separados para la parte de entradas analógicas y la conectividad con el resto del sistema. De esta forma, la terminal de tierra de las entradas analógicas puede operar a niveles de potencial de voltaje diferentes a la tierra del sistema ya que es una terminal que está flotada. El aislamiento requiere que las señales sean transmitidas a través de la barrera de aislamiento sin tener ningún contacto eléctrico directo. Para implementar esta transmisión, existen tres componentes comúnmente utilizados: diodos emisores de luz, o LEDs, condensadores, e inductores. Los principios de operación de cada uno de estos componentes son la base para las tres tecnologías principales de aislamiento: óptico, capacitivo, y acoplamiento inductivo. > Aislamiento óptico: Uno de los métodos más comunes para implementar aislamiento. Utiliza un LED junto con un foto-detector para transmitir las señales a través de la barrera de aislamiento utilizando luz. El foto-detector recibe la luz transmitida por el LED y la convierte a la señal original. Un beneficio de esta tecnología es su inmunidad al ruido eléctrico y magnético; sin embargo, su velocidad de transmisión está limitada por la velocidad de conmutación del LED, disipa mucha potencia, y el LED se puede desgastar con el tiempo. > Aislamiento capacitivo: Se basa en el campo eléctrico formado por la carga en uno de los platos del condensador. Esta carga se detecta a lo largo de la barrera de aislamiento y genera un nivel de carga en el plato opuesto proporcional a la señal medida. Entre sus ventajas está su inmunidad al ruido magnético y las velocidades de transmisión superiores al aislamiento óptico. Este tipo de aislamiento es sensible a ruido eléctrico. Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>  a d q ui si c i ó n d e d at o s  ]

> Aislamiento de acoplamiento inductivo: Basado en el principio de operación de los inductores. Este principio determina que una bobina de cable o alambre con un flujo de corriente generará un campo magnético que puede inducir a su vez un voltaje y corriente en otra bobina próxima dependiendo de la razón de cambio de corriente en la primera bobina. El aislamiento inductivo utiliza un par de bobinas separadas por una capa de aislamiento. Este tipo de aislamiento ofrece velocidades de transmisión similares al capacitivo, sin embargo es susceptible a interferencia por campos magnéticos externos. Existen dos maneras para implementar el aislamiento en un sistema de DAQ, dependiendo de su posición en relación con los A/Ds, como se muestra en la Figura 5: > Aislamiento analógico: Se implementa antes que la señal sea digitalizada por el A/D. Es el mejor método cuando agrega acondicionamiento de señales externo a un dispositivo de DAQ que no cuenta con aislamiento. Además, sirve para proteger al A/D y otros circuitos analógicos de sobre-voltajes. > Aislamiento digital: Se implementa después que la señal es digitalizada por el A/D. Esto permite colocar al A/D lo más cercano posible a la señal analógica original, lo cual mejora el rendimiento. Comparado con el aislamiento analógico, sus componentes son más económicos y ofrece velocidades de transmisión superiores. La protección de los A/Ds y circuitos analógicos de sobre-voltajes se realiza a través de circuitos reguladores de corriente y voltaje. En general, aquellas aplicaciones que requieran de conectividad con diferentes sensores especializados utilizando un solo dispositivo de adquisición de datos de propósito general se beneficiarán de utilizar un acondicionamiento de señales que cuente con aislamiento analógico. Aquellas aplicaciones que requieran de entradas analógicas de bajo costo y alto desempeño se beneficiarán de utilizar aislamiento digital.

Figura 5. El aislamiento se puede implementar de manera analógica o digital.

Bus de comunicación con la PC El propósito principal de un bus de comunicación es enviar comandos y datos entre el dispositivo de medición y una unidad central, como una PC, o entre diferentes dispositivos, como tarjetas insertables. Hoy en día, existe una gran variedad de buses de comunicación disponibles para dispositivos de DAQ: desde buses antiguos, como GPIB o serial hasta buses populares externos como USB y Ethernet, terminando con buses internos de muy alta velocidad como PCI y PXI Express. La elección del bus de comunicación en el dispositivo de DAQ dependerá mucho de las características de la aplicación donde se utilizará. En cuestiones de velocidad de transferencia, un bus de comunicación se puede definir por dos características: el ancho de banda y la latencia. El ancho de banda mide la velocidad a la cual los datos son enviados a través del bus, regularmente en megabytes por segundo, o MB/s. Un mayor ancho de banda es importante para aplicaciones donde se trabaja con formas de onda complejas o señales de RF. La latencia mide el retraso en la transmisión de datos a través del bus. Una menor latencia introducirá menos tiempo de retraso entre los datos que son transmitidos desde un extremo de comunicación hasta que son proce-

Fig 6. Latencia vs ancho de banda para buses de comunicación

w w w. c o c i e n t e . c o m . m x

11


>  adquisición de datos  ] sados en el otro extremo. Haciendo una analogía, si se comparan estas características con una autopista, el ancho de banda corresponde al número de carriles y la velocidad máxima de manejo, mientras que la latencia se representa por el retraso de las rampas de entrada y salida de la autopista Figura 6. > El bus USB (Universal Serial Bus) ha sido muy popular en los últimos años para conectar dispositivos periféricos. Esta popularidad ya no solo se limita a teclados, cámaras digitales o reproductores de MP3, sino que además está presente también en los dispositivos de DAQ. En su más reciente especificación, Hi-Speed USB, este bus alcanza velocidades de hasta 60 MB/s, lo que lo convierte en una alternativa atractiva para aplicaciones de adquisición de datos a velocidades medias. Además, los puertos USB actualmente se pueden encontrar prácticamente en cualquier PC de escritorio o laptop, por lo que un dispositivo que tenga este bus es ideal para sistemas que requieren de hardware portátil y autodetectable. > Los buses PCI y PCI Express son los mejores en cuanto a sus especificaciones de ancho de banda y latencia. El bus PCI tiene un ancho de banda de 132 MB/s por segundo que es compartido entre todos los dispositivos conectados, mientras que PCI Express tiene 250 MB/s dedicados en su implementación más básica de “por uno” (x1). Estos buses, así como USB y Ethernet, tienen la ventaja que se encuentran en todas las PCs de escritorio y servidores. Debido a sus características de gran ancho de banda, estos buses son ideales para dispositivos de adquisición de datos de alto rendimiento que transmiten una gran cantidad de datos a alta velocidad para su procesamiento en el procesador. > El bus Ethernet es tradicionalmente utilizado para aplicaciones en red. En su especificación 100BaseT tiene un ancho de banda teórico de 12.5 MB/s, mientras que en su especificación Gigabit Ethernet 1000BaseT aumenta a 125 MB/s. Sin embargo, hay que tomar en cuenta que éste es un ancho de banda compartido por lo que su rendimiento se afecta conforme se agregan dispositivos a la red. Debido a su habilidad para crear redes distribuidas, este bus es ideal para dispositivos de DAQ que necesitan estar distribuidos en grandes distancias o van a desempeñar monitoreo remoto. Como se aprecia, existen diferentes buses de comunicación que se pueden aprovechar en los dispositivos de adquisición de datos. Dependerá de las características de distancia, portabilidad, y velocidad de transferencia la decisión de cuál es el bus ideal. Software controlador y facilidad de uso en software Otro factor a considerar en la selección de un dispositivo de DAQ es la disponibilidad y facilidad de uso 12

de su driver, o software controlador. El controlador es la capa de software que permite la comunicación con el hardware desde el software de aplicación en la PC. El controlador permite al usuario indicar al hardware de adquisición de datos cuáles son los parámetros bajo los cuales debe operar (como el rango o la velocidad de muestreo) además de indicarle las operaciones que debe realizar (configurar la memoria de entrada, leer uno o múltiples canales, etc.). Uno de los beneficios de contar con un controlador es que previene al ingeniero de programar a nivel de registro o enviar comandos complicados de manera manual para acceder a las funciones del hardware. Comúnmente el controlador es uno de los factores que menos considerado al momento de elegir un dispositivo de DAQ; sin embargo, un software controlador intuitivo y con acceso completo al hardware es crucial para asegurar un rápido desarrollo de la aplicación de medición. En una encuesta a ingenieros realizada por National Instruments, se determinó que 25% del costo total de desarrollo de un sistema está dado por el desarrollo del software. Representaría poca utilidad contar con un dispositivo de adquisición de datos muy económico o muy poderoso, si el controlador está limitado. Es por ello que software controlador con asistentes interactivos para configuración y autogeneración de código así como aplicaciones de prueba para verificación y calibración del hardware son claves para reducir el tiempo de desarrollo de las aplicaciones y facilitar el diagnóstico de posibles problemas con el hardware. C

Conclusión Gran parte del éxito y el funcionamiento de una aplicación de medición depende del hardware de DAQ que se utilice en ella. Un dispositivo de DAQ no se debe ver sólo desde la perspectiva de precio, número de canales y velocidad de muestreo. Los ingenieros de procesos, pruebas o instrumentación deben de tomar en cuenta características adicionales como la arquitectura, aislamiento, y el software controlador para asegurarse que el hardware no sólo cumplirá con los requerimientos actuales de su aplicación, sino que además será útil conforme ésta cambie en el futuro.

Sobre el autor Gustavo Valdés es egresado de la carrera de Ingeniería en Sistemas Electrónicos por el ITESM Campus Monterrey. Comenzó a trabajar en National Instruments en el 2003, donde se desempeñó como Ingeniero de Aplicaciones por dos años, dando soporte a línea de productos principales de la empresa (software, adquisición de datos, control y automatización industrial). En Julio del 2005 ingresó al departamento de Mercadotecnia para México y América Latina, donde se desempeña como Ingeniero de Mercadotecnia para la región. Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


w w w. c o c i e n t e . c o m . m x

pรกgina

13

Anuncio

D

13


El Instituto de Tecnología de Massachusetts (MIT) integra las investigaciones sobre el cáncer con las herramientas MathWorks Tools, tanto en laboratorio, como en el salón de clases l diagnóstico temprano del cáncer en sus primeras etapas puede mejorar las expectativas de supervivencia del paciente enormemente. Por ejemplo, para las pacientes diagnosticadas con cáncer de ovarios -que suele ser identificado sólo después de haber avanzado hasta la tercera o cuarta fase - las posibilidades de supervivencia a cinco años se incrementan, de menos del 50, a casi un 95%, si se les diagnostica en la primera o segunda etapa. Los investigadores y estudiantes del Instituto de Tecnología de Massachusets (MIT, por sus siglas en inglés) están explorando métodos para el diagnóstico del cáncer en sus primeras etapas basados en el examen de las proteínas en la sangre. Mediante MathWorks tools®, estos científicos pueden identificar las concentraciones e interacciones de las proteínas que se saben presentes exclusivamente en pacientes con cáncer, en búsqueda de algún procedimiento que permita su detección temprana. Los estudiantes usan MathWork tools, tanto para aprender, como para contribuir con los efuerzos del equipo investigación, adquiriendo los conocimientos y la experiencia necesaria que más tarde sevirá de guía para futuros avances biomédicos. “En bio-informática, las investigaciones con más de dos años de antigüedad ya son consideradas anticuadas. Con MathWorks tools, es posible involucrar a los estudiantes en las investigaciones de punta que nuestro equipo está llevando a cabo en este mismo momento” -dice el Dr, Gil Alterovitz, miembro HIN de informática biomédica (NIH Biomedical Informatics Fellow) de la División MIT/Harvard de Ciencias de la Salud y Tecnología- “MathWorks tools le permite a los estudiantes e investigadores del equipo, ya sean graduados en ingeniería o biología, enfocarse en la investigación sin perder el tiempo elaborando programas.” 14

EL RETO Para identificar con mayor precisión a las proteínas que señalan la presencia de cáncer, los investigadores del MIT y de la Escuela de Medicina de Harvard «incluyendo a los doctores Alterovitz, Marco F. Ramoni, e Isaac S. Kohane» requerían de un procedimiento que pudiera combinar los resultados de espectometría de masas (MS, por sus siglas en inglés) con la información que se tiene del modo en el que las proteínas interactúan. Los datos arrojados por las espectometrías de masas MS incluyen crestas y valles característicos, que pueden ser analizados para distinguir los componentes moleculares de una muestra. Los investigadores necesitaban herramientas para procesar esta información y para construir un modelo lo suficientemente sofisticado que les permitiera representar las interacciones proteínicas. “Debíamos analizar los datos de las MS, los cuales incluyen millones de puntos” «explica el Dr. Alterovitz» “también necesitábamos un modelo biológico en red de las interacciones de las moléculas, hacer cálculos estadísticos y otros análisis de las proteínas en la red, y combinar todo esto con los resultados de la espectometría.” Paralelamente a esta investigación, el Dr. Alterovitz también inauguró y dirigió un nuevo curso al que llamó: “bio-informática y proteómica: un método basado en la solución de problemas de ingeniería” (Bioinformatics and Proteomics: an Engineering Problem - Solving Based Approach), al cual atendieron, tanto estudiantes de nivel superior, como post-graduados de primer y segundo año, mediante el cual quería generalizar el uso de una serie de herramientas, que fueran fáciles de aprender, lo cual les permitiría a los alumnos tener acceso a la información generada por las investigaciones que se estaban llevando a cabo en ese momento. “Dado que teníamos limitaciones de tiempo, no queríamos perderlo teniendo que enseñarle a los alumnos un nuevo lenguaje”, -explica- “necesitábaCómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


mos alguna herramienta con la cual la mayoría de los estudiantes ya estuvieran familiarizados y que fuera fácil de aprender, tanto para los biólogos, como para los ingenieros.” LA SOLUCIÓN Los investigadores del MIT usan MathWorks tools para realizar avances en bio-informática y proteómica, y sus estudiantes la emplean para obtener experiencia directa en estos campos. En el laboratorio. El Dr. Alterovitz y su equipo de investigación usaron MATLAB® para desarrollar un modelo en red de las interacciones proteínicas, el cual consistía de más de 20,000 nodos y 100,000 puntas. Cada nodo en la red representaba una masa asociada con una proteína, y cada punta, las interacciones entre los nodos. Los investigadores también usaron MATLAB para visualizar los datos, los resultados del ploteo, y para acceder a la información compartida con otros investigadores biomédicos en diferentes bases de datos. Dado que los datos de espectometría de masas (MS) se asemejan a la serie de crestas y valles que se observan en el registro de voz o sonido, los investigadores pueden emplear las técnicas de interpretación de señales para procesar la información. Los investigadores del MIT usaron la caja de herramientas de interpretación de señales Signal Processing Toolbox® para procesar la información de espectometría de masas (MS) y aplicaron filtros para eliminar el ruido y los datos irrelevantes, lo cual les permitió concentrarse en un conjunto mucho más manejable. Las herramientas de bio-informática Bioinformatics Toolbox® le permitieron al equipo obtener información de las proteínas desde una variedad de fuentes en el Internet, rápidamente; utilizando esta caja de herramientas tanto para calcular los pesos moleculares y obtener secuencias de aminoácidos y otras propiedades de proteínas específicas, como para buscar y bajar información de las bases de datos accesibles mediante MATLAB. Los investigadores del MIT utilizaron la caja de herramientas estadísticas Statistics Toolbox® para calcular las propiedades de la red, incluyendo el poder de las leyes de distribución e interconectividad, empleando los modelos para calcular el número de proteínas en una muestra y usándo esta caja de herramientas, tanto para simplificar la adecuación de la curva, como para generar distribuciones exponenciales, gamma, y negativas binómicas. La investigación realizada por este equipo de trabajo generó millones de puntos de datos de espectometría de masas MS, a partir de cientos de pacientes. Sin embargo, dado que los datos de cada paciente eran independientes, la tarea de procesar la información resultaba idónea para ser ejecutada en paralelo, y mediante la caja de herramientas de distribución w w w. c o c i e n t e . c o m . m x

informática Distributed Computing Toolbox® y del motor de distribución computacional, MATLAB Distributed Computing Engine®, el equipo fue capaz de procesar sus algoritmos MATLAB al mismo tiempo que realizar un enorme cúmulo de cálculos. El equipo analizó las espectometrías de masas MS independientemente, cada una en un procesador diferente. -“ Siguiendo este método, además de reducir significativamente el tiempo de cálculo, la caja de herramientas del Distributed Computing Toolbox nos permitió programar rápidamente, pues en vez de tener que aprender programación distributiva, utilizamos nuestro código MATLAB, que ya teníamos, ejecutándolo en paralelo, mediante las herramientas del Distributed Computing Toolbox.” El equipo también se valió del punto de vista distributivo (distributed approach) para acelerar el cálculo estadístico y para potenciar las propiedades de la red, dividiéndola en segmentos y ejecutando todas las tareas en paralelo. En el salón de clase. Para el curso de proteómica y bio-informática, el Dr. Alterovitz y sus colegas instructores escogieron MATLAB debido a su fácil empleo, compatibilidad con otras herramientas, y a su capacidad para presentar conceptos con niveles de abstracción cada vez mayores. “Cerca del 90 por ciento de la clase ya había utilizado MATLAB” –dice el Dr. Alterovitz- “todos comenzaron a manejarlo inmediatamente, incluso quienes carecían de experiencia, debido a que no es necesario saber programación para poder usarlo”. Adicionalmente, MATLAB les ofreció a los estudiantes un medio de fácil acceso para vincularse con las investigaciones de vanguardia conducidas por el MIT y Harvard. El planteamiento pedagógico del curso se basó en la teoría detrás de esta metodología, involucrando el

Nuevos métodos para trasnformar redes biomoleculares complejas (izquierda) en presentaciones abstractas (derecha) que facilitan el descubrimiento y la identificación de sus componentes internos

15


Usando MATLAB para el análisis y la generación de redes biológicas en investigaciones interactivas por medio de gafas estereoscópicas de 3-D, reconocimiento de voz, y head tracking

Típicamente, en lo que se interesan los investigadores no es en la programación, sino en los resultados. MATLAB nos permite pensar en un nivel superior de abstracción, sin tener que perder tiempo desarrollando, probando, depurando, y graficando. Como resultado, podemos llegar a las conclusiones de nuestras investigaciones mucho más rápidamente Dr. Gil Alterovitz, Massachusetts Institute of Technology and Harvard University

El Dr. Alterovitz presenta en biomolecular networks

uso de un conjunto limitado de conceptos y ejemplos, a los cuales se les fue añadiendo gradualmente complejidad. Explica el Dr. Alterovitz: “MATLAB respalda diversos niveles de complejidad de manera intrínseca, mediante diferentes niveles de abstracción. Al principio, los alumnos corren el código y visualizan los resultados; y después pueden explorar, actualizar, e incluso integrar el código con otros lenguajes de programación para refinar detalles.” El libro de texto también refleja el punto de vista de este procedimiento a nivel biológico: los alumnos primeramente utilizaron las herramientas MathWorks tools para analizar la información básica de las secuencias de ADN; luego, progresaron en la expresión de datos más complejos, como proteínas, hasta eventualmente llegar a las interacciones entre proteínas y otras moléculas, mediante el modelo de una red.

Alterovitz- “de otra manera, esto no habría sido posible”. Para obtener más información sobre el Instituto Tecnológico de Massachusetts, visite: www.mit.edu

LOS RESULTADOS > Educación integrada a la investigación: “con MATLAB podemos ofrecerle a los estudiantes el código más novedoso junto con los últimos resultados de las investigaciones de mi equipo y de otros grupos de trabajo” –anota el Dr. Alteroviz- “de tal manera que, con la experiencia que consiguen, los alumnos pueden incluso ayudar al equipo de investigación y contribuir con nuestro esfuerzo”.

Resultados > Educación integrada a la investigación > Tiempo de cómputo reducido en un orden de magnitud > Obtención de un premio en investigación

> Tiempo de cálculo reducido en un orden de magnitud: “Mediante el método distribucional aplicado al código MATLAB, llevamos a cabo nuestro análisis en un conjunto de computadoras y pudimos reducir el tiempo de cómputo exponencialmente, de una semana a mucho menos que un día. Esto ha sido crucial debido al hecho que enfrentábamos una fecha límite de entrega para una conferencia, y los resultados jugaban un papel crítico para que nuestro trabajo fuera aceptado.” –dice el Dr. Alterovitz. > Obtención de premios en investigación: “Después de terminar el curso, un estudiante de biología comenzó a trabajar, el siguiente semestre, en mi grupo de investigación y obtuvo un premio del programa del MIT para oportunidades de investigación escolar. “Gracias al MATLAB pudo rápidamente hacerse muy productivo, obteniendo resultados a tiempo como para competir por el premio” –dice el Dr, 16

EL RETO Optimizar los métodos de diagnóstico de cáncer mediante la identificación de proteínas y el análisis de sus interacciones. LA SOLUCIÓN El empleo de las herramientas MathWorks tools® para permitir que, tanto los investigadores como los estudiantes, analicen los datos de espectometría de masas, modelen las interacciones de proteínas complejas, y visualicen los resultados.

Áreas de Aplicación > Academia > Desarrollo de algoritmos > Bio-tecnología médica y farmacéutica > Análisis de datos > Computación distributiva Productos Empleados > MATLAB® > Signal Processing Toolbox® > Bioinformatics Toolbox® > Statistics Toolbox® > Distributed Computing Toolbox® > MATLAB Distributed Computing Engine®

Información Adicional: www.mit.edu www.multion.com.mx Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


w w w. c o c i e n t e . c o m . m x

pรกgina

17

Anuncio

E

17


Visualizacion en tercera dimensión (EEGlab-Matlab)

Por: J. Gustavo Vega Gama

Figura 1. Hans Berger y Primeros registros de la actividad alfa posterior

18

ans Berger1 fue el primer médico alemán en los inicios del siglo 20 que introdujo por primera vez el estudio de la actividad eléctrica cerebral conocida como electroencefalografía, la técnica que se empleaba consistía en utilizar amplificadores analógicos para la adquisición de la señal analógica de muy pequeña amplitud, hablamos de millonésimas de voltios (microvoltios), que a diferencia de la señal electrocardiográfica que se encuentra dentro del orden de las milésimas de voltio (milivoltios) requiere de una amplificación enorme con la utilización de filtros muy potentes. En el tiempo de Hans Berger la amplificación de la señal electroencefalográfica se reducía a unos cuantos canales que registraban la actividad alfa en las regiones posteriores del cerebro (fig1). La evolución de este procedimiento científico y de utilidad en la clínica neurológica ha sido impresionante, los amplificadores han evolucionado en su complejidad y se han reducido en volumen, el análisis de la señal, ya no sólo se reduce a la inspección visual – que no deja de ser un arte – sino que ahora es susceptible de manejo con algoritmos muy complejos que permiten determinar el origen de un evento en tres dimensiones, de tal suerte que los elementos eléctricos funcionales pueden extrapolarse a su base anatómica cerebral. Hay por otra parte dentro de toda esta revolución tecnológica el surgimiento de software estadístico de procesamiento de la señal analógica, que presenta avances impresionantes en Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>  eeg l a b p a r a ma t l ab  ]

De izquierda a derecha: primeros electroencefalógrafos analógicos de dos

el terreno de la psiquiatría, pero este tema será tocado en el próximo número de la revista. Cuando se trabaja en el campo clínico y hay restricciones de orden económico, se tienen que inventar soluciones creativas de bajo costo, los equipos digitales actuales aunque son pequeños y manuales son cajas negras muy costosas, sin embargo, los aparatos analógicos de los noventas y finales de los ochenta, son algunos de ellos extraordinariamente finos en la adquisición de la señal eléctrica cerebral, son el equivalente de la relojería suiza clásica, quien tiene uno de esos instrumentos difícilmente se deshará de él, salvo por razones de espacio o de urgencia. El problema es que, quien no este familiarizado en el campo de la adquisición y procesamiento de datos analógicos para su conversión digital, experimentará en el momento actual grandes limitaciones y no pasará de ser un artista del análisis visual «por otra parte indispensable». Volviendo al tema, de inventarse soluciones económicas, el comprar una tarjeta analógico digital puede significar un gran ahorro que tiene w w w. c o c i e n t e . c o m . m x

varias repercusiones, entre otras, la señal en lugar de ser vista en el polígrafo que implica uso de papel y tinta es vista en el monitor de la computadora con algún programa adecuado.

canales, los equipos analógicos de los años 90 y equipos digitales actuales.

Se pueden crear soluciones simples con el mismo software que incluyen las tarjetas analógicodigitales o con paquetes como LABview, se adquiere la señal analógica y ésta se guarda en código ASCII, que resulta prácticamente universal para algunos programas, que pueden bajarse gratuitamente de Internet como es el caso de LORETA y de EEGlab3 que opera desde Matlab. El paquete de EEGlab es muy útil en el campo de la Neurofisiología experimental, pero es particularmente útil en el campo clínico, específicamente la epilepsia, EEGlab aplica algoritmos que se destinan al análisis de componentes independientes (ICAs), de la misma forma que estos algoritmos desmenuzan componente por componente de una matriz de sonido o de una imagen, también lo hacen con la señal eléctrica cerebral, la adquisición de 25 a más 19


>  eeglab para matlab  ]

Actividad epiléptica focal (localizada)

Envolvente de la espiga (EEGlab-Matlab)

página

20

Anuncio

F

de 100 canales convierte la señal en una matriz y luego separa los componentes, uno por uno permitiendo ver el origen probable de un evento anormal e inclusive separar aquellas señales que corresponden a artificios o frecuencias que no son señal electrocerebral. La actividad eléctrica cerebral tiene su origen en la suma de todos los potenciales post-sinápticos de la corteza cerebral, esta modulada desde estructuras profundas que han llegado ha considerarse como marcapasos4 éstos, determinan la presencia de diferentes bandas de frecuencia. La irrupción de potenciales anormales, que se generan en zonas funcionalmente anómalas, da como resultado la descarga paroxística, que generalmente tiene un correlato clínico con las crisis epilépticas, EEGlab tiene la particularidad de ubicar el origen de la descarga anormal, lo cuál es relevante en el manejo de las crisis epilépticas, situar el origen de las descargas y el tipo de las mismas, implica decidir sobre el manejo farmacológico y es muy importante cuando se decide dar tratamiento quirúrgico. C

Referencias: [1] http://en.wikipedia.org/wiki/Hans_ Berger [2] http://www.unizh. ch/keyinst/NewLORETA/LORETA01.htm [3] http://www.sccn.ucsd. edu/eeglab/

Sobre el Autor: Dr. J. Gustavo Vega Gama | Neurología | EEG digital y Mapeo Cerebral | Celaya, Gto., México

20

Cómputo Cientí f ico y Técnico

página

[ j u n i o - a g o s t o - 0 7]

20

Anuncio

G


Por: Christine Paszko n sistema de administración de información de laboratorio es lo que se conoce como LIMS por sus siglas en inglés. Este software es el que se utiliza en laboratorios para administración de muestras, placas, usuarios, instrumentos y otras funciones como, la facturación y automatización del flujo de trabajo. Un sistema LIMS y un sistema LIS(sistema de información de laboratorio) realizan funciones similares. La diferencia principal es que los sistemas LIMS están enfocados generalmente a la investigación o análisis comercial, o ambiental, tal como farmacéutico o petroquímico, y los LIS se enfocan al mercado clínico(hospitales y laboratorios clínicos). Hoy la tendencia es mover todo el proceso de reunion de información, toma de decisiones, cálculo y revisión, fuera de la oficina. La méta es crear una organización integral. El primer paso en cualquier proyecto exitoso de automatización de un laboratorio, comienza definiendo las necesidades técnicas del sistema de administración de datos clara y precisamente, junto con el gerente del laboratorio, el usuario final, el personal de tecnología de información (IT, por sus siglas en inglés), sin perder de vista las necesidades de los inversionistas. En muchos proyectos, esto implica la integración de un equipo de trabajo para el diseño de diagramas de flujo que muestren las reglas y los procedimientos de la organización, y que aplique encuestas, entrevistando a las personas clave, para hacerse una clara idea de cuáles son los desafíos implicados por la administración de datos y la automatización. Una vez completada esta etapa, los gerentes de proyecto deberán hacer una lista de prioridades de los diversos problemas que el nuevo laboratorio automatizado requiere que sean resueltos, y comunicársela, junto con los alcances del proyecto y sus costos, a los socios comerciales, de manera eficaz. En cualquier sistema de manejo de información de laboratorio (LIMS, por sus siglas en inglés) o proyecto de automatización, existen diversos elementos que deben ser definidos claramente para permitir una administración efectiva del proyecto que lo haga exitoso. Estos incluyen: su alcance (scope), que determina la magnitud del proyecto (requisitos del sistema) -que w w w. c o c i e n t e . c o m . m x

es en lo que nos enfocaremos en esta presentación, a reserva de que también hemos de tomar en cuenta: el desempeño (performance), los costos (C), y el tiempo (T) en relación con los alcances- el desempeño (P, por su abreviatura en inglés) muestra la calidad del trabajo realizado, los costos (C), que incluyen al costo laboral y de productos de hardware (barreras firewall, servidores, PCs, etc.) y software. Todos los costos presentados en relación con el tiempo indicarán la duración del proyecto, que estará típicamente expresada en días, meses o años, hasta su consecución. La Figura 1 muestra la relación entre los elementos clave de cualquier proyecto. Se puede ver claramente que, dado un mismo nivel de desempeño, la ampliación de los alcances provoca, tanto una extensión en el tiempo, como un incremento en los costos necesarios para su consecución, de tal manera que, si el factor limitante del proyecto es el costo, entonces los alcances quizás tengan que ser reducidos, pues de lo contrario podría haber un impacto directo sobre la calidad. Definiendo eficazmente los requisitos de los sistemas LIMS Dado que el tamaño del sistema es la magnitud de todos sus componentes ubicados dentro de unos determinados alcances, estos alcances deben de ser documentados dentro del plan de proyecto, antes de que su tamaño sea estimado. La declaración de los alcances define detalladamente qué es lo que el proyecto incluirá o no, lo cual será comunicado a todos los participantes. Para poder captar los requisitos de la automatización del laboratorio y la administración de los datos en la implementación de los sistemas LIMS, es importante contar, tanto con un equipo, como con un plan de ataque que incluya los mapas del proceso de las principales funciones que el laboratorio está intentando automatizar. Para los proyectos de los sistemas LIMS, esto implica la creación de un equipo interdisciplinario de adminis21


>  lims para el manejo de información  ] tración de laboratorio, integrado por una combinación de admiotras tareas propias de un análisis estructurado. Esto podrá ser nistradores de laboratorio -ingenieros en sistemas de calidad, un realizado internamente o através de un consultor externo, o aún campeón de proyecto, y un capataz experto (regulatory expert)-, por el mismo comercializador de los sistemas LIMS que ofrezca de tecnología de información (IT), y usuarios clave finales (key tal servicio de asesoría. end-users). Este equipo se dedicará a hacer diagramas de flujo que La asesoría externa para la detección de necesidades ofrece ciermuestren los procesos de la empresa y que definan las reglas y los tas ventajas, como la de una mayor objetividad, gran experiencia, requerimientos de la organización. y la posibilidad de hacer sugerencias y compartir soluciones que El alcance deberá consistir en una definición completa que abarhayan sido exitosas en otros proyectos similares. La ventaja de emque todo tipo de necesidades, como: plear a compañías externas que sean comercializadoras de los sis> Los requisitos de comercialización externa -que normalmente temas LIMS, es que se tiene la oportunidad de evaluar su pericia, son los más obvios- y cuya definición de alcances es la más fácil. al mismo tiempo que ellos consiguen la ocasión de ver los retos El diseño del sistema puede implicar requerimientos que no estén inmediatos que los laboratorios tienen que afrontar, antes de hacer especificados. Por ejemplo, el diseño de uno tipo cliente/servidor ninguna recomendación para la implementación de alguna nueva puede incluir la necesidad de levantar una barrera firewall entre los tecnología de automatización. datos moviéndose hacia adentro o afuera de él. Sin embargo, si se opta por efectuar la asesoría de necesidades in> Otros componentes pueden ser implícitos, sin estar defiternamente, a continuación se sugieren algunos pasos a tomar para nidos claramente, como: el desempeño, las interfaces instrullevar a cabo tal tarea. Como se verá, no es necesario tener granmentales, y la implementación y operación de las PDAs. Estos des conocimientos técnicos para hacer requerimientos que sean componentes deberán de ser incluidos si se encuentran dentro funcionales. También es importante señalar aquí que no todas las de los alcances del sistema a dimensionar, de tal manera que, si ventajas se limitan a la reducción de costos de operación, sino que hay alguna duda de si algo habrá de incluirse o no, deberá asutambién existen las que tienen que ver con mejoras en la calidad, o mirse que se encuentra dentro de los alcances de la dimensión, con una mayor satifacción del cliente. hasta que el sistema lo excluya por sí mismo. Algo determinante es asignarle al grupo la tarea Los laboratorios que realizan pruebas analíticas de identificar y obtener cualquier documento comparten muchos de sus requisitos fundamentaque describa las necesidades del consumidor, C les con los sistemas LIMS, que incluyen: funcionaincluyendo cualquier estudio formal conduciP lidad en el seguimiento de las muestras, entrada de do con anterioridad, declaraciones de trabajo S datos, entrada electrónica de datos, programación (SOW, Statement of Work, por sus siglas en inde muestras, estabilidad, análisis/control de calidad glés) o peticiones de propuestas (RFP, Request T (QA/QC, por sus siglas en inglés), cronogramas, for proposal). inventarios químicos, y administración y manteni- Figura 1. Relación entre los alcances, el costo, Todos estos documentos ofrecerán una buena miento del equipo. y el tiempo en relación al desempeño (calidad) perspectiva, aunque, para obtener los detalles, Además de estas características básicas, los laserá imprescindible hacer entrevistas; y antes boratorios suelen buscar la manera de integrarlas con aplicaciode dar comienzo, las personas a ser entrevistadas deberán de ser nes empresariales tales como SAP, enterprise resource planning seleccionadas estratégicamente, según el corte transversal de los (ERP), y otra paquetería similar, pues los gerentes siempre están miembros en el equipo multidisciplinario, representativos de los demandando reportes específicos, integración con otras soluciodiversos departamentos involucrados. nes empresariales y paquetes de contabilidad. El identificar a las personas idóneas a ser entrevistadas es un asunPara optimizar la productividad y la precisión de la información, to muy delicado, pues alguien que guarde resentimientos podría los laboratorios normalmente requieren de la integración de sus causar graves daños o incluso llegar a sabotear el proyecto, por lo instrumentos desde los sistemas LIMS, así como herramientas de que hay algunas recomendaciones que se sugieren tomar en cuenta manejo de datos que cumplan con los requisitos regulatorios proal momento de llevar a cabo tales entrevistas. Estas incluyen: pios de cada industria específica. > Hágale saber a sus entrevistados que Ud. está allí para ayudar a resolver un problema, y que sus respuestas son críticas para enEspecificaciones contrar la solución. Reunir a los participantes idóneos para integrar un equipo mul> Garantícele a sus entrevistados que la automatización no los tidiplicinario de trabajo, en un ambiente estructurado bajo la direemplazará de ninguna manera, sino que tan sólo eliminará las rección de un facilitador (facilitator) entrenado, puede concretar la tareas repetitivas, para ponerlos en disponibiidad de realizar labodefinición de los problemas y llevar a la elaboración de una lista de res mucho más gratificantes. especificaciones que, a su vez, servirá de base para un documento > Comparta la información obtenida de las entrevistas con el resde requisición o propuesta de pedidos, ya que, cuando se ensambla to del equipo. Este intercambio creará un entorno de confianza y un equipo multidisciplinario, se puede, tanto analizar los procesos colaboración, que a su vez permitirá obtener más resultados. comerciales, como identificar los cuellos de botella, así como trans> Después de la entrevista, haga un resumen de las repuestas del mitir las peticiones o necesidades de sistema del equipo, junto con la encuestado y léaselas en voz alta para confirmar. ventaja comercial deseada, que la solución propuesta por él plantea. > Prepárese para las entrevistas. Elabore cuestionarios que conPara comenzar, el equipo deberá recolectar una lista de las netangan las mismas preguntas para un cierto numero de encuestacesidades del usuario final (end-user) siguiendo el camino del dos diferentes. Esto permitirá hacer muestreos estadísticos y genesistema tradicional, de ciclo de vida y desarrollo, mediante: enrar datos de gran utilidad. trevistas, extensas investigaciones, análisis de procedimientos, y > No de nada por hecho. Si alguien que sea entrevistado dice 22

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


proyecto tenga éxito, especialmente en el caso de los sistemas LIMS y proyectos de automatización de laboratorios, ya que es aquí en donde muchos planes fracasan por no especificar correctamente qué es lo que el sistema debería de ser capaz de hacer, o cual es la meta. De hecho, a muchos proyectos simplemente se les otorga un presupuesto de gastos, se les asigna una fecha límite de entrega, y luego se les exige que den resultados, cuando tan sólo se les ha dado una vaga noción de qué es lo que se espera que hagan. Esto no puede sino resultar en una trágico desperdicio de recursos, pues, por más que el laboratorio mantenga alguna funcionalidad (como el rastreo de las muestras), esta estará limitada, por haber perdido el rumbo, al ni siquiera saber precisamente cuáles eran sus necesidades de automatización y manejo de datos. Los requisitos de los sistemas LIMS y de automatización de laboratorio deberán de ser definidos al comienzo de cualquier proyecto por un equipo multidisciplinario. El viejo refrán de Requisitos de asignación de valores (rating) que: “si fallas en planear, planeas fracasar” expresa una gran verUna vez que este proceso haya sido completado, y que el equipo dad, tanto para los proyectos de sistemas LIMS como para cualhaya resumido todos los requisitos técniquier otro. Unos alcances bien definidos Algúnos Sistemas LIMS cos y funcionales, los gerentes de proyecto son determinantes para la feliz consecudeberán de asignar prioridades a los diverción de cualquier proyecto. Mediante la LabWare Inc (www.labware.com) sos requerimientos que las soluciones aurecolección de información de parte de tomatizadas del nuevo laboratorio demanvarios usuarios finales y miembros clave SQL*LIMS (www.appliedbiosystems.com) dan. Muchos de los equipos reparten tales del equipo, las peticiones de propuestas LIMS by QSI (www.lims-software.com/) requerimientos en tres “urnas”: RFP ofrecen un catálogo de las verda> Necesito: lo muy importante. deras necesidades del laboratorio. Una LabVantage (www.labvantage.com/) > Quiero: lo menos importante; por vez que toda la información haya sido ejemplo, el negocio podría no justificar recabada y organizada, lo importante LabSoftLIMS (www.labsoftlims.com/) inmediatamente una compra basada en será determinar cual será el impacto coStarLIMS (http://www.starlims.com/) un cálculo para la recuperación de la inmercial de cada uno de los aspectos que versión (ROI, Return on investment, por integran al laboratorio, en términos de LabLite (http://www.lablite.com) sus siglas en inglés), pero esto no significa ahorro de tiempo, recorte de gastos, e que tal adquisición no pueda resultar muy incremento de la calidad en los datos y NetSci (http://www.netsci.org) atractiva en un momento posterior. satisfacción del consumidor. Los costos > Sería bueno tener: lo no crítico para llevar a cabo ninguna totales del proyecto pueden ser capturados en hojas de cálculo acción comercial; lo que no sería de ninguna utilidad inmediata, de Excel y se puede integrar una calculadora ROI dentro de la pero que podría ser atractivo, en la medida en que ciertas necesi- hoja de cálculo para que el equipo pueda ver cuánto tiempo le dades llegaran a surgir en el laboratorio. llevaría, tanto al nuevo sistema LIMS, como a la tecnología de Una vez que los requisitos hayan sido así agrupados de esta manera, automatización y el harware, pagarse a sí mismos. sugiero que el proyecto se concentre exclusivamente en los requeHay tambien numerosas herramientas disponibles, tales como rimientos de la necesidad. Los “quiero” y los “sería bueno tener” el Microsoft Project®, mediante las cuales los miembros del deberán de mantenerse al márgen, hasta que los cálculos ROI de re- equipo pueden asignar recursos y definir tareas y rutas críticas cuperación de la inversión justifiquen tales compras. para manejar el proyecto, así como asegurarse de que las metas Un segundo paso igualmente importante, es comunicarle efi- cruciales están siendo alcanzadas y de que se mantiene un espíricazmente estos requisitos a los socios comercializadores poten- tu comunitario con respecto a las expectativas del proyecto. ciales, junto con los alcances del proyecto, su desempeño, la ruta El equipo deberá de revisar los requisitos de sistema e identicrítica, y los rangos de los costos, así como comprender el estado ficar cuáles constituyen necesidades reales, y cuáles pretensioefectivo de cada producto a comercializar en el cumplimiento nes superfluas, como podrían ser los “quiero” y los “sería bueno de tales requisitos. tener”, que, en todo caso, podrían ser añadidos en un segundo Esto normalmente se lleva a cabo mediante una enorme hoja de momento. Una adecuada definición de los requerimientos del cálculo en Excel® que documenta cada requerimiento, y le pide a sistema es una de las maneras más efectivas de satisfacer las necada vendedor responder punto por punto, para determinar si el cesidades del usuario, con la consecutiva reducción de los costos software cumple o no con todas las especificaciones requeridas, de implementación de los ajustesh. pues en muchas ocasiones, los clientes demandan que el vendedor les diga si pueden obtener tales o cuales funciones o modificacio- Sobre el Autor: nes “por fuera del paquete” o si estas podrían obtenerse mediante Christine Paszko es vice presidenta de ventas y mercadotecnia en Accealguna futura aclualización, si es que el producto no cumple con lerated Technology Laboratories y puede ser contactada en: CPaszko@ los requisitos que el cliente demanda. atlab.com Accelerated Technology Laboratories, Inc. (ATL), 496 Holly Una buena lista de requerimientos es crucial para que cualquier Grove Road West End, NC, 27376.

>  l i m s p a r a el ma nej o d e i nfo r mac i ó n  ]

que esta tecnología le ahorrará cien horas a su departamento, pida la opinión de otros de sus colegas sobre tal aseveración. Existen dos tipos de requisitos de desempeño, que juntos, definen las especificaciones del sistema (system requirements), y que a su vez incluyen tanto requisitos técnicos, como funcionales. Según la Wikipedia, un requisito es definido como una singular necesidad documentada de lo que un determinado producto o servicio debe de ser o hacer. Requisitos funcionales: describen lo que se supone que los envíos deben hacer. Por ejemplo, los sistemas LIMS deberán de reportar automáticamente los estados vía correo electrónico y enviar una copia al sitio LIMS en una red interna (intranet). Requisitos técnicos: describen las características de los envíos. Por ejemplo, los reportes enviados a los correos electrónicos deberán estar en formato PDF de “sólo lectura”.

C

w w w. c o c i e n t e . c o m . m x

23


>    ]

Figura 1. Estructura tridimensional de la enzima convertidora de angiotensina izquierda) (código PDB: 1UZF), estructura química del captopril (derecha arriba) y detalle de la unión con la enzima. Página opuesta: figura 2. Estructura química de la dorzolamida (Trusopt®) (izquierda arriba) y brinzolamida (Azopt®) (izquierda abajo), y estructura tridimensional de la anhidrasa carbónica (código PDB: 1A42).

24

L

Por: José Luis Medina Franco os fármacos actúan produciendo cambios en algún proceso o función fisiológica. Muchos ejercen su efecto al interactuar específicamente con alguna estructura macromolecular del organismo. Para referirse a esta macromolécula, Paul Erlich propuso el término “receptor” a principios del siglo pasado. De esta forma, la interacción de cada fármaco con su respectivo receptor o sitio de acción inicia los cambios bioquímicos y fisiológicos que son característicos de ese fármaco. Un ejemplo de un sitio de acción son los de las enzimas, proteínas especializadas en acelerar reacciones bioquímicas. La interacción de un fármaco con su blanco molecular se ha comparado en forma muy sencilla con lo que sucede entre una llave y una cerradura. En este caso, la llave encaja en la cerradura para producir una acción: abrir o cerrar esa cerradura. Cuando se realiza la investigación de nuevos fármacos, nuevos o modificados a partir de moléculas existentes, primero se recopila toda la información posible sobre los procesos biológicos asociados a la enfermedad bajo estudio. En diversas ocasiones se logra identificar a un blanco molecular específico sobre el cual puede actuar un fármaco. Posteriormente se trata de determinar la estructura tridimensional de ese blanco para conocer con detalle el sitio

de unión sobre el cual se pretende que interactúe el fármaco. Volviendo a la analogía de la llave con la cerradura, si se quiere fabricar una llave que entre en una cerradura determinada, esto será más sencillo si se conoce la forma de la cerradura. Una de las técnicas más empleadas actualmente para conocer la estructura tridimensional de macromoléculas es la cristalografía de rayos X. Otra técnica experimental es la resonancia magnética nuclear. A pesar de que el conocimiento de la estructura tridimensional es muy valioso para entender los mecanismos de acción de fármacos y diseñar a nuevas moléculas, en muchas ocasiones ésta se desconoce. Esto se debe, en parte, a la dificultad que presenta el uso de este tipo de técnicas. En estos casos, se puede recurrir a métodos computacionales, por ejemplo, a la metodología conocida como “modelado por homología”. Los grupos de investigación alrededor del mundo que determinan la estructura tridimensional de macromoléculas almacenan sus resultados en la base de datos pública llamada Protein Data Bank (Banco de Datos de Proteínas, ver “páginas en internet de interés” al final del artículo). Actualmente, esta base de datos contiene información de aproximadamente cuarenta y un mil estructuras, y se actualiza constantemente. Dentro de esta base de datos cada estructura tridimensional tiene asociado un código de cuatro caracteres (llamado código PDB) que la Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


identifica en forma única. Para la visualización en tercera dimensión de estas macromoléculas hay diversas herramientas en internet a las que se puede acceder desde la misma página del Protein Data Bank. También hay diversos programas computacionales gratuitos (ver “páginas en internet de interés”). Algunos de estos programas permiten incluso realizar cierto manejo de las estructuras y cálculos teóricos. Al uso de la información estructural del blanco molecular para diseñar fármacos se le llama “diseño de fármacos basado en la estructura del receptor”. En este tipo de diseño las computadoras son una herramienta muy valiosa; casi imprescindible. Los programas computacionales permiten no solamente visualizar las estructuras de macromoléculas sino también hacer cálculos teóricos y predicciones de la afinidad que tendrá una molécula, aun hipotética, con el sitio de unión. Esta capacidad de predicción ayuda a proponer hipótesis y planear experimentos para hacerlos más enfocados y sistemáticos. La importancia y gran uso de las computadoras en el diseño de fármacos ha dado origen al área de investigación conocida como “diseño de fármacos asistido por computadora”.

Diseño de fármacos basado en la estructura del receptor Se define como la búsqueda de moléculas que encajen en el sitio de unión de un blanco molecular de manera que puedan formar interacciones favorables. Uno de los aspectos más importantes del diseño basado en la estructura del receptor busca mejorar las interacciones que ocurren entre una molécula y su blanco molecular. Esto es, se parte de un fármaco conocido pero que no tiene el efecto requerido; sin embargo, la estructura tridimensional del complejo molécula-blanco proporciona información para realizar la optimización. Con este propósito se recurre a uno de los métodos computacionales más usados en este campo: el “acoplamiento molecular automatizado” (Kitchen y colaboradores, 2004). Este método consiste en calcular con la computadora cuál es la posición más favorable que tendría una molécula con el blanco molecular. A partir del resultado se proponen modificaciones a la estructura de la molécula que mejoren las interacciones con el blanco. Una de las ventajas de este método computacional es que permite hacer predicciones de moléculas que son muy difíciles de obtener experimentalmente, como ocurre con muchos productos naturales. De hecho, se puede trabajar con moléculas hipotéticas que no se tienen en el laboratorio, o que aún no han sido preparadas. En la industria farmacéutica es común trabajar con las llamadas “bibliotecas virtuales”: colecciones de miles o millones de moléculas hipotéticas. Sin embargo, después de hacer los cálculos, estas moléculas virtuales pueden ser fabricadas y evaluadas biológicamente. Otro aspecto del diseño basado en la estructura del receptor es diseñar, desde cero, una molécula que tendrá interacciones favorables con el blanco molecular. A este proceso se le conoce como “diseño de novo” y ha tenido avances notables en el diseño de fármacos (Schneider y Fechner, 2005). En general, esta estrategia consiste en construir, fragmento a fragmento, una moléw w w. c o c i e n t e . c o m . m x

cula que según los cálculos tendrá interacciones favorables con el receptor. Los probables sitios de unión pueden conocerse a través de experimentos (por ejemplo, mutaciones dirigidas o resonancia magnética nuclear) o con la ayuda de métodos computacionales.

Aplicaciones exitosas del diseño de fármacos asistido por computadora Para muchas enfermedades se conocen estructuras tridimensionales de potenciales sitios de acción de fármacos. En diversas ocasiones los cálculos computacionales han tenido un papel muy importante en la investigación de moléculas que se unen a estos blancos y que actualmente se encuentran en uso clínico. Por ejemplo, el diseño de fármacos asistido por computadora ya ha tenido contribuciones notables en el tratamiento del síndrome de la inmunodeficiencia adquirida, en infecciones por el virus de la influenza y en el tratamiento del glaucoma.

Captopril: primer diseño basado en el receptor La llamada enzima convertidora de angiotensina participa en dos procesos que parecen ser importantes en la regulación de la presión arterial. Por una parte, acelera la conversión de la angiotensina I en angiotensina II, que es un vasoconstrictor potente. Por otra parte inactiva a la bradiquinina, que es un vasodilatador. Por tanto, la enzima convertidora de angiotensina es un blanco molecular adecuado para el tratamiento de pacientes con hipertensión. La investigación de inhibidores de la enzima convertidora de angiotensina surgió a partir de una sustancia natural obtenida de una víbora venenosa del Brasil. Al momento de iniciarse los estudios, en la década de los setenta, no se conocía la estructura tridimensional de esta enzima. Sin embargo, sí se conocía la estructura de una enzima parecida, la carboxipeptidasa A de bovino. Utilizando a esta estructura como modelo y siguiendo una metodología que actualmente se denomina “diseño de análogo activo”, investigadores de la compañía Squibb desarrollaron el captopril, aprobado en Estados Unidos para su uso clínico en 1981. Aunque el captopril no se desarrolló utilizando cálculos

25


>    ] computacionales se puede considerar como el primer ejemplo de un fármaco diseñado basado en la estructura del receptor. Recientemente se dio a conocer la estructura del captopril unido a la enzima convertidora de angiotensina (Figura 1), confirmando la hipótesis bajo la cual fue diseñado.

Fármacos para el tratamiento del glaucoma La anhidrasa carbónica II humana es una enzima que facilita la hidratación del dióxido de carbono para formar bicarbonato. Aunque diversas anhidrasas carbónicas se Figura 3. Estructura química localizan en varios órganos, tejidos y céludel relenza (Zanamavir®) y las del cuerpo, la anhidrasa carbónica II es detalle del sitio de unión con la de especial interés porque su actividad está enzima sialidasa del virus de la asociada a un incremento en la presión ininfluenza (código PDB: 1A4G). traocular, produciendo de esta manera el glaucoma. Por lo tanto, los inhibidores de la anhidrasa carbónica son atractivos para el tratamiento de esta enfermedad. Desde hace muchos años se ha utilizado a la metazolamida para el tratamiento del glaucoma. Sin embargo, debido a que este fármaco se administra en forma oral, causa efectos secundarios al inhibir la anhidrasa carbónica que se encuentra en otras partes del cuerpo. Por esta razón, era deseable contar un fármaco que pudiese administrarse en forma tópica (local y externa). A mediados de la década de los ochenta la compañía Merck obtuvo por cristalografía de rayos X la estructura de la anhidrasa carbónica unida a una molécula que denominaron MK-927. A partir de esta estructura, de cálculos de la energía de diversas moléculas similares a la MK-927 y de estudios cristalográficos, se diseñó a la dorzolamida (Figura 2), un inhibidor potente de la anhidrasa carbónica. Su uso clínico se aprobó en 1994, con el nombre de Trusopt® y fue el primer inhibidor de la anhidrasa carbónica que se logró formular como solución oftálmica y, por tanto, administrarse en forma tó-

Figura 4. Ejemplos de fármacos empleados en el tratamiento del sida que inhiben a la proteasa del VIH. Se muestra el nombre comercial entre paréntesis y el año de aprobación.

26

pica. Cuatro años después se aprobó a la brinzolamida (Azopt®) que tiene una estructura química muy parecida a la dorzolamida y también se administra en forma tópica (Figura 2).

Fármacos contra el virus de la influenza Otro ejemplo del éxito del diseño de fármacos utilizando la estructura del receptor y métodos computacionales es el desarrollo del relenza, fármaco empleado para el tratamiento de la infección causada por el virus de la influenza. Utilizando la estructura tridimensional de la enzima sialidasa (llamada también neuraminidasa, un blanco molecular para atacar al virus), y métodos computacionales, se propuso la estructura de inhibidores potentes de esta enzima (von Itzstein y colaboradores, 1993). La estrategia computacional consistió principalmente en el análisis gráfico de la estructura de la sialidasa y el uso del programa GRID. Este programa, muy utilizado en el diseño de novo de fármacos, es especialmente valioso para encontrar posibles sitios de unión en una macromolécula. Uno de los compuestos diseñados en la compañía hoy llamada GlaxoSmithKline, fue el relenza que se aprobó para su uso clínico en 1999 con el nombre de Zanamivir® (Figura 3). Otro fármaco para el tratamiento de la influenza es el oseltamivir (Tamiflu®), también aprobado en 1999 y hoy comercializado por la compañía Roche. La investigación de este fármaco, que está relacionado con el relenza, también se hizo apoyándose en la estructura tridimensional de la sialidasa.

Fármacos contra el sida El mayor número de aplicaciones exitosas del diseño basado en la estructura del receptor con la ayuda de métodos computacionales ha ocurrido hasta ahora en el campo del tratamiento del síndrome de la inmunodeficiencia adquirida (sida). Poco después de que se detectaran los primeros casos a principios de la década de los ochenta, se encontró que el virus de la inmunodeficiencia humana (VIH) es el causante de esta enfermedad. Hay diversos blancos moleculares sobre los cuales pueden interactuar fármacos para detener la infección causada por este virus. Uno de ellos es la enzima proteasa del VIH, que interviene en la maduración de las partículas virales. La estructura tridimensional de esta enzima se dio a conocer a finales de la década de los ochenta. Hacia 1990 se reportó una de las primeras aplicaciones del diseño basado en la estructura de esta enzima con el desarrollo del compuesto entonces llamado Ro 31-8959. Este diseño culminó cinco años después con la aprobación del saquinavir como el primer inhibidor de la proteasa del VIH utilizado en el tratamiento del sida (Figura 4). A partir de la estructura tridimensional de esta enzima se han diseñado y aprobado para su uso clínico ocho inhibidores de la proteasa de VIH. El inhibidor de más reciente aprobación es el tipranavir (Aptivus®), cuyo uso clínico se autorizó en Estados Unidos el 22 de junio de 2005 (Figuras 4 y 5). El uso de métodos computacionales, aunado al análisis estructural y síntesis química, ha participado en forma muy importante en la investigación que produjo estos fármacos. Los estudios computacionales han involucrado, generalmente, análisis gráficos de las estructuras tridimensionales y cálculos de energía. Resulta muy interesante el desarrollo del indinavir (Figura 4, referido originalmente por la compañía Merck con el código L-735,524), que involucró la predicción correcta de la actividad biológica de diversas moléculas utilizando cálculos teóricos (Holloway y colaboradores, 1995). Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>    ]

Otro de los blancos moleculares de gran interés para atacar al virus del sida es la enzima transcriptasa inversa. Esta enzima, que convierte el ácido ribonucleico (ARN) que forma los genes del VIH en ácido desoxirribonucleico (ADN), participa en la replicación de las partículas virales dentro de la célula huésped. En México se está trabajando, mediante técnicas computacionales, en el diseño basado en la estructura del receptor de inhibidores de esta enzima. Utilizando acoplamiento molecular automatizado se han estudiado las interacciones que puede haber entre diversas moléculas y la transcriptasa inversa del VIH (Medina-Franco y colaboradores, 2004a). Partiendo de estos cálculos y otros estudios computacionales se han diseñado moléculas que son inhibidores prometedores de este blanco molecular (Medina-Franco y colaboradores, 2004b).

El futuro del diseño de fármacos mediante técnicas computacionales Además de los fármacos diseñados con la ayuda de métodos computacionales se ha determinado la estructura tridimensional de diversos fármacos en uso clínico, obtenidos o diseñados por otros métodos, y de sus respectivos blancos moleculares. Algunos ejemplos son la aspirina unida a la enzima cycloooxigenasa I (aunque se sabe que también se une a la cycloooxigenasa II; de ahí sus efectos secundarios de irritación del estómago, gastritis y daño renal), el imatinib (Gleevec®) empleado en el tratamiento de ciertos tipos de enfermedades malignas (específicamente la leucemia mieloide crónica y los tumores del estroma gastrointestinal) y la atorvastatina (Lipitor®), usada en el tratamiento de la hiperlipidemia. Esta información está siendo de gran utilidad para el diseño de nuevos fármacos. Hoy el uso de la información estructural de los blancos moleculares y métodos computacionales es una práctica común en la industria farmacéutica y en instituciones académicas y de gobierno de todo el mundo. Esto ha sido favorecido por el fácil acceso a muchos programas que son potentes y tienen un costo muy bajo o incluso son gratuitos. Asimismo, la capacidad de los equipos de cómputo va en un aumento vertiginoso, y los costos de estos equipos son cada vez más accesibles. Como consecuencia, además de los ejemplos mostrados de diseño exitoso de fármacos con métodos computacionales, hay muchos casos en que estas metodologías están aportando información muy importante a la investigación. En México, además de los estudios mencionados con la transcriptasa inversa, se ha realizado acoplamiento molecular automatizado con la isomerasa de triosasfosfato (Espinoza-Fonseca y Trujillo-Ferrara, 2004) y con la 3-hidroxi-3-metilglutaril-coenzima A reductasa (Medina-Franco y colaboradores, 2005) para contribuir en el diseño de compuestos antiparasitarios para combatir el colesterol en la sangre (hipocolesterolemiantes), respectivamente. Otras aplicaciones se w w w. c o c i e n t e . c o m . m x

extienden a diversas enfermedades incluyendo el cáncer, el sida, la enfermedad de Alzheimer, la hipertensión y la artritis, entre muchas otras. Estas aplicaciones, así como los avances en el desarrollo de métodos y programas computacionales para el diseño de fármacos, pueden encontrarse en artículos publicados en revistas como Journal of Medicinal Chemistry, Journal of Computer-Aided Molecular Design, Journal of Chemical Information and Modeling, Bioorganic and Medicinal Chemistry, Current Computer-Aided Drug Design, Nature Reviews Drug Discovery y Science, entre otras. Sin duda, en un futuro cercano veremos más fármacos desarrollados con la ayuda de métodos computacionales.

Figura 5. Estructura de la proteasa del VIH unida al tipranavir (Aptivus®) (código PDB: 1D4S).

Conclusión Las computadoras se han convertido en una poderosa herramienta para generar modelos de fármacos interactuando con biomoléculas. Estos modelos ayudan a entender el mecanismo de acción de los fármacos, proponer modificaciones para mejorar su efecto terapéutico y diseñar nuevas moléculas. Hoy en día, ya hay diversos fármacos en uso clínico que fueron diseñados con la ayuda de métodos computacionales, muchos de ellos para el tratamiento del sida. C

Sobre el Autor: José Luis Medina Franco estudió la licenciatura en química en la Universidad Nacional Autónoma de México (UNAM). Trabajó más de dos años en el departamento de investigación y desarrollo de la compañía Procter & Gamble de México. Posteriormente estudió la maestría y el doctorado en el Posgrado en Ciencias Químicas en la UNAM. Ha realizado estudios y estancias de investigación sobre el diseño de fármacos en el Centro de Investigaciones Biológicas de Madrid y en la Universidad de Texas en Austin, de Carolina del Norte en Chapel Hill y de Arizona. Actualmente realiza una estancia posdoctoral enfocada al uso de métodos computacionales para el diseño de fármacos en el grupo del doctor Gerald M. Maggiore, en la Universidad de Arizona. medina@pharmacy.arizona.edu

Fuente: Medina, José, 2007, México, AMC, http:// revistaciencia.amc.edu.mx/ index.php?option=com_con tent&task=view&id=79&Ite mid= 43 ).

Sitios de Interés: [1] Protein Data Bank, banco de datos de blancos moleculares y otras estructuras tridimensionales: http://www.rcsb. org/pdb/home/home.do [2] Algunos programas gratuitos para visualizar estructuras moleculares en tercera dimensión: Chimera: http://www.cgl.ucsf.edu/ chimera/; Molscript: http://www.avatar.se/molscript/; Pymol: http://pymol. sourceforge.net/; Raster 3D: http://www.bmsc.washington. edu/raster3d/. (En la página del Protein Data Bank puede accederse directamente a los visualizadores King Viewer, Jmol Viewer, WebMol Viewer, entre otros.) [3] Programa de cómputo gratuito para dibujar estructuras químicas: ACD Labs Chemsketch: http://www.acdlabs.com/download/.

27


28

C ó m p u t o C i e n t í f página i c o y T é c 28 nico

u n i o - a g o s tHo - 0 7 ] [ jAnuncio


n su obra La era de la información: Economía, sociedad y cultura. Volumen I. La sociedad red, Manuel Castells define los modos de desarrollo como “… dispositivos tecnológicos mediante los cuales el trabajo actúa sobre la materia para generar el producto, determinando en definitiva la cuantía y calidad del excedente.”1 Cada modo de desarrollo tiene un elemento distintivo y fundamental para fomentar la productividad. Estos elementos son, en el modo de desarrollo agrario, el incremento de la mano de obra y de la tierra cultivable, y en el modo de producción industrial la introducción de nuevas fuentes de energía y la capacidad de descentralizar su uso durante la producción y los procesos de circulación. Castells parte de la relación semántica entre sociedad de la información y sociedad informacional para definir un nuevo modo de desarrollo, el informacional, que se corresponde con la revolución de la tecnología de la información y las comunicaciones, y en el cual la fuente de la productividad estriba en la tecnología de la generación del conocimiento, el procesamiento de la información y la comunicación de símbolos. El conocimiento y la información han sido elementos decisivos en todos los modos de desarrollo, ya que el proceso de producción siempre se basa sobre cierto grado de conocimiento y en el procesamiento de la información; pero en el modo de desarrollo informacional la acción del conocimiento sobre sí mismo constituye la principal fuente de productividad. Se tiene entonces “… un círculo de interacción de las fuentes del conocimiento de la tecnología y la aplicación de ésta para mejorar la generación de conocimiento y el procesamiento de la información: por ello, denomino informacional a este nuevo modo de desarrollo, constituido por el surgimiento de un nuevo paradigma tecnológico basado en la tecnología de la información. 2 Los modos de desarrollo operan bajo un principio estructuralmente determinado, y alrededor de tal principio se organizan los procesos tecnológicos de tal manera que todo conduce a un fin primordial: el inw w w. c o c i e n t e . c o m . m x

>  ec o no mí a d el c o no c i mi ent o  ]

México ante la Economía del Conocimiento

dustrialismo se orienta a impulsar el crecimiento económico, mientras el informacionalismo se dirige hacia el desarrollo tecnológico, es decir, hacia la acumulación de conocimiento y hacia grados más elevados de complejidad en el procesamiento de la información. Si bien grados más elevados de conocimiento suelen dar como resultado grados más elevados de producto por unidad de insumo, la búsqueda de conocimiento e información es lo que caracteriza a la función de la producción tecnológica en el informacionalismo. Al tiempo que manifiesta su coincidencia con ella, Manuel Castells cita la definición de conocimiento de Daniel Bell: “’Conocimiento: una serie de afirmaciones organizadas de hechos o ideas que presentan un juicio razonado o un resultado experimental, que se transmite a los demás mediante algún medio de comunicación en alguna forma sistemática. Por lo tanto, distingo conocimiento de noticias y entretenimiento’”.3 Asimismo, señala que para autores como Fritz Machlup la información es definida: “… como la comunicación del conocimiento..:”, y para Marc Porat: “’la información son los datos que se han organizado y comunicado’”.4 El término sociedad de la información destaca el papel de esta última en la sociedad, mientras que el término informacional indica el atributo de una forma específica de organización social en la que la generación, el procesamiento y la transmisión de la información se convierten en las fuentes fundamentales de la productividad y el poder, debido al surgimiento de nuevas condiciones tecnológicas. 29


>  economía del conocimiento  ] En ese estudio se advierte y se sugiere lo siguiente: “Los países en desarrollo y aquellos con economías en transición corren Los educadores son guías hacia las fuentes de El docente es la fuente de conocimiento el riesgo de una mayor marginación en conocimiento una economía mundial competitiva baLos estudiantes reciben el conocimiento del Las personas aprenden haciendo sada en el conocimiento, debido a que sus docente sistemas de formación y capacitación no Las personas aprenden en grupos y unas de otras Los estudiantes trabajan por su propia cuenta están proporcionándoles a los estudiantes las habilidades que en realidad necesitan. Los exámenes se administran para evitar que La evaluación se utiliza como guía para las los estudiantes pasen al siguiente curso, sin Para resolver este problema, es preciso estrategias de aprendizaje y para identificar antes dominar un conjunto de habilidades y caminos de aprendizaje futuro que los responsables de las políticas ponpara racionar el acceso a más aprendizaje gan en práctica ciertos cambios fundaLos educadores elaboran planes de aprendiTodos los estudiantes desarrollan las mismas mentales. Se requiere sustituir el aprendizaje individualizados actividades zaje memorizado basado en información Los educadores son estudiantes permanentes. Los docentes reciben capacitación inicial, y dirigido por el docente, impartido denLa capacitación inicial y el desarrollo profeademás de capacitación específica en el tro de un sistema de educación formal y sional continuo están ligados entre sí servicio administrado por unas directivas, por un Las personas tienen acceso a las oportuniA los “buenos” estudiantes se les identifica y nuevo tipo de aprendizaje que se apoye en dades de aprendizaje durante toda su vida se les permite continuar su formación la creación, aplicación, análisis y síntesis del conocimiento y la participación en el Figura 1. cuadro comparativo de diferencias entre el aprendizaje tradicional y el aprendizaje permanente aprendizaje colaborativo que se extienda Una definición breve de economía del conocimiento es: “La eco- a lo largo del ciclo vital completo de las personas.7 nomía del conocimiento estudia el comportamiento y los hechos El estudio plantea los requisitos para lograr el éxito en la economía económicos vinculados con la aplicación económica del saber.” del conocimiento: “… se requiere dominar un nuevo conjunto de Y otra más extensa: “La economía del conocimiento es una eco- conocimientos y competencias. Entre éstos se encuentran las desnomía basada en la información y sus derivados, una economía trezas académicas básicas, tales como la capacidad de lectoescrituque aporta valor a los bienes a partir de conocimiento avanzado e ra, los idiomas extranjeros, las matemáticas y las ciencias, así como innovación tecnológica, pero sobre todo, es un modelo de coordi- la capacidad de utilización de la tecnología de la información y la nación de una fuerza laboral que aspira no sólo a educarse por más comunicación. Los trabajadores deben contar con la capacidad de tiempo sino a cambiar drásticamente la calidad de vida. La econo- emplear estas habilidades de manera efectiva, de actuar en forma mía del conocimiento, como la sociedad del conocimiento, de la autónoma y reflexiva, y de integrarse y desempeñarse bien en gruque forma parte, son expresiones de un avance tecnológico que ha pos socialmente heterogéneos.”8 En un cuadro comparativo (fig. permitido reducir los costos de transmisión de información y am- 1), el estudio destaca las diferencias entre el aprendizaje tradicional pliar la capacidad para su almacenamiento físico. Pero detrás de la y el aprendizaje permanente. El Banco Mundial reconoce que “Las fachada futurista de las computadoras, los satélites y los medios de exigencias de un sistema de aprendizaje permanente son enormes, comunicación, es una forma de organización social y económica y la mayoría de los países no tienen la capacidad de implementar, fundamentada en los derechos de todos los individuos a tener acce- de manera inmediata, la totalidad de los elementos requeridos. Por so a la mejor información para tomar las mejores decisiones.”5 consiguiente, los países deben desarrollar una estrategia destinada En el informe elaborado en 2003 por el Banco Mundial, titulado a lograr avances de un modo sistemático y secuencial. Un paso imAprendizaje permanente en la economía global del conocimiento: portante consiste en identificar en qué posición se encuentra cada Desafíos para los países en desarrollo, se señala que “La economía glo- país, especialmente en referencia a sus pares internacionales.”9 bal del conocimiento está transformando los requisitos del mercado El Banco Mundial ha elaborado una metodología para calcular laboral a lo largo y ancho del orbe. Por otra parte, está imponiendo dos índices relacionados con la economía del conocimiento: nuevas exigencias a los ciudadanos, que necesitan más habilidades y > El índice de economía del conocimiento (Knowledge Economy conocimientos para poder desempeñarse en su vida cotidiana. Index, KEI), que toma en cuenta cuál desarrollo, por ser más pro“A fin de dotar a las personas con mecanismos que les permitan picio para el conocimiento, es usado efectivamente por el desarrocumplir con dichas exigencias se requiere un nuevo modelo de llo económico. Es calculado con base en el promedio de las cifras formación y capacitación, un esquema de aprendizaje constante. normalizadas de un país o región en los cuatro pilares relativos a El aprendizaje permanente implica aprender durante todo el ciclo la economía del conocimiento: incentivos económicos y régimen vital, desde la temprana infancia hasta la época de la jubilación. institucional, innovación, educación y tecnologías de la informaComprende no solamente el aprendizaje formal…, sino el no for- ción y las comunicaciones. mal … y el informal... > El índice de conocimiento (Knowledge Index, KI) mide las ha“El aprendizaje permanente es un factor crucial en la prepara- bilidades de un país para generar, adoptar y difundir conocimiención de la fuerza laboral para que ésta pueda competir en la eco- to. El KI es el promedio simple de las cifras normalizadas de un nomía mundial. Pero, además, es importante por otros motivos. país o región sobre las variables establecidas en tres pilares de la Al mejorarse la capacidad de las personas de desempeñarse como economía del conocimiento: educación, innovación y tecnologías miembros de su comunidad, la formación y la capacitación au- de la información y las comunicaciones. mentan la cohesión social. disminuyen las tasas de criminalidad Las definiciones de los pilares de la economía del conocimiento y mejoran la distribución de los ingresos.”6 son las siguientes: Aprendizaje Tradicional

30

Aprendizaje Permanente

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


w w w. c o c i e n t e . c o m . m x

(4.311), Nuevo León (4.15), Aguascalientes (4.066) y Sonora (3.981). En el extremo contrario, las cinco entidades con los niveles más bajos son: Veracruz (3.012), Campeche (2.941), Oaxaca (2.569), Chiapas (2.44) y en último lugar Guerrero (2.214). 10 En un informe elaborado en 2005 por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), y titulado Hacia las sociedades del conocimiento, se dice que “… En nuestros días, se admite que el conocimiento se ha convertido en objeto de inmensos desafíos económicos, políticos y culturales, hasta tal punto que las sociedades cuyos contornos empezamos a vislumbrar bien pueden calificarse de sociedades del conocimiento.”11 La noción de sociedad del conocimiento está estrechamente vinculada a los estudios sobre sociedad de la información, suscitados por el desarrollo de la cibernética, pero “La noción de sociedades de la información se basa en los progresos tecnológicos. En cambio, el concepto de sociedades del conocimiento comprende dimensiones sociales, éticas y políticas mucho más vastas. El hecho de que nos refiramos a sociedades, en plural, no se debe al azar, sino a la intención

Índice de economía del conocimiento

de rechazar la unicidad de un modelo ‘listo para su uso’ que no tenga suficientemente en cuenta la diversidad cultural y lingüística, único elemento que nos permite a todos reconocernos en los cambios que se están produciendo actualmente… “La importancia de la educación y del espíritu crítico pone de relieve que, en la tarea de construir auténticas sociedades del conocimiento, las nuevas posibilidades ofrecidas por Internet o los instrumentos multimedia no deben hacer que nos desinteresemos por otros instrumentos auténticos del conocimiento como la prensa, la radio, la televisión y, sobre todo, la escuela. Antes que los ordenadores y el acceso a Internet, la mayoría de las poblaciones del mundo necesitan los libros, los manuales escolares y los maestros de que carecen.”12 La UNESCO define a las sociedades del conocimiento como “sociedades en redes que propician necesariamente una mejor toma de conciencia de los problemas mundiales.”13 El concepto fue utilizado por primera vez en 1969, por Peter Drucker y en el decenio de 1990 profundizaron en él investigadores como Robin Mansell y Nico Stehr. Surgió casi al mismo tiem-

>  ec o no mí a d el c o no c i mi ent o  ]

Incentivos económicos y régimen institucional. Es el promedio de las cifras normalizadas sobre tres variables clave: barreras arancelarias y no arancelarias, calidad regulatoria y preceptos legales. > El sistema de innovación. Es un promedio simple de las cifras normalizadas sobre tres variables clave: avances en investigación y desarrollo, aplicaciones de patentes garantizadas por la Oficina de Patentes y Marcas de los Estados Unidos, y artículos científicos y técnicos publicados en periódicos y revistas. En innovación, el tamaño absoluto de la composición de las fuentes está limitado por las economías de escala y por el hecho de que el conocimiento no es consumido en su uso. > Educación y recursos humanos. Es el promedio simple de las cifras normalizadas sobre tres variables clave: tasa de alfabetización, inscripción secundaria e inscripción terciaria. > Tecnologías de la información y las comunicaciones (TIC). Es el promedio simple de las cifras normalizadas de tres variables clave. Teléfonos, computadoras y penetración de Internet (por miles de personas). En el estudio que hizo en 2006 el Banco Mundial para 132 países, los 10 países que tienen la mejor posición y los mejor posicionados de los latinoamericanos se muestran en la fig. 2. De acuerdo con el índice de economía del conocimiento, México ocupó el lugar 61, habiendo perdido 7 posiciones en relación con el estudio anterior, mientras que ocupó el lugar 62 conforme al índice de conocimiento y recuperó una posición respecto al estudio anterior. En 2005, la Fundación Este País. Conocimiento Útil y la Friedrich Naumann Stiftung elaboraron el estudio México ante el reto de la economía del conocimiento. Resultados nacionales y por entidad federativa, basándose en la metodología de evaluación del conocimiento del Instituto del Banco Mundial. Los principales resultados que arroja ese estudio son los siguientes: el índice nacional de economía del conocimiento fue de 3.48, mientras que “… el Distrito Federal es la [entidad federativa] que obtiene la posición más alta en el Índice de Economía del Conocimiento (IEC), con 5.101 puntos. Sin embargo, este índice es relativamente bajo si se considera que el máximo posible es de 10 puntos. Además del Distrito Federal, las cinco entidades que registran los valores más altos en el IEC son: Baja California Sur >

Índice de conocimiento

01. Dinamarca

01. Suecia

02. Suecia

02. Dinamarca

03. Finlandia

03. Finlandia

04. Islandia

04. Islandia

05. Noruega

05. Australia

06. Estados Unidos

06. Estados Unidos

07. Australia

07. Noruega

08. Países Bajos

08. Países Bajos

09. Canadá

09. Reino Unido

10. Reino Unido

10. Canadá

37. Barbados

29. Barbados

39. Chile

43. Chile

42. Uruguay

44. Argentina

48. Costa Rica

45. Uruguay

51. Argentina

54. Brasil

53. Trinidad y Tobago

55. Costa Rica

60. Brasil

58. Trinidad y Tobago

61. México

60. Jamaica

63. Jamaica

62. México

Figura 2. Estudio hecho en 2006 por El Banco Mundial muestra los 10 países que tienen la mejor posición

31


>  economía del conocimiento  ] po que el concepto sociedades del aprendizaje y del de educación para todos a lo largo de toda la vida. Según algunos expertos nuestras sociedades se hallan inmersas en un proceso de ‘hiperindustrialización’ porque el propio conocimiento se ha ‘mercantilizado’ en forma de informaciones intercambiables y codificables. Se han expresado críticas e inquietudes “… ante una situación en la que el conocimiento podría acabar autodestruyéndose como tal, a fuerza de ser manipulado en las bases de datos y los motores de búsqueda, de ser integrado en la producción como dispositivo de la ‘tecnociencia’ y de ser transformado en condición del desarrollo, elemento de poder o instrumento de vigilancia. “Una apropiación o mercantilización de los conocimientos en la sociedad mundial de la información representaría un grave peligro para la diversidad de las culturas cognitivas…”14 La UNESCO señala que si bien la brecha digital es una realidad innegable, “…hay algo más inquietante todavía: la brecha cognitiva que separa a los países más favorecidos de los países en desarrollo, y más concretamente de los países menos adelantados. Esta última brecha corre el riesgo de ahondarse, al mismo tiempo que surgen o se amplían otras grietas muy profundas dentro de cada sociedad…”15 Y luego se dice en ese informe: “…La brecha digital «o mejor dicho las brechas digitales, habida cuenta de su carácter multiforme» es un problema muy preocupante y cabe prever que el acelerado ritmo actual de crecimiento del número de internautas disminuya a medida que su proporción se vaya acercando al 20 % de la población mundial. No hay una, sino varias brechas digitales multiformes que, lejos de excluirse mutuamente, se combinan entre sí en función de las situaciones nacionales y locales. En efecto, los factores que influyen en la brecha digital son múltiples: > Los recursos económicos. El precio todavía elevado de las computadoras y las telecomunicaciones, así como el costo elevado de las inversiones en infraestructura en los países del Sur. > La geografía. La asimetría entre las ciudades y el campo: La revolución de las nuevas tecnologías ha tenido un desarrollo sin precedentes en las zonas urbanas, en detrimento de su participación en las regiones rurales. > La edad. Las innovaciones tecnológicas y sus aplicaciones son más usadas por jóvenes. > El sexo. En los países en desarrollo pueden presentarse desventajas que impidan a las mujeres el acceso a las nuevas tecnologías. > El idioma. El auge del inglés como vector de la mundialización restringe la utilización de los demás idiomas en el ciberespacio. > La educación y la procedencia sociológica o cultural. La iniciación a las nuevas tecnologías está destinada a convertirse en un elemento fundamental de la educación para todos. > El empleo. En muchos países el acceso a Internet sólo se efectúa en los lugares de trabajo y en los “cibercafés”. Éstos quedan fuera del alcance de muchas personas. > La integridad física. La discapacidad física puede representar un obstáculo para la utilización de las computadoras. Los discapacitados enfrentan desventajas económicas, culturales o psicológicas. La economía del conocimiento es más que aquellos elementos que la constituyen y destacan por su evidencia: la revolución en las tecnologías de la información y las comunicaciones, el comercio electrónico o la posibilidad de trasmitir información o de establecer una rápida comunicación a cualquier lugar del mundo. Además de esas cuestiones, la economía del conocimiento demanda nuevas competencias tendientes a satisfacer las necesidades sociales, involucra la capacidad de aprendizaje de las instituciones nacionales y 32

de la sociedad en su conjunto, sectores productivo y académico adaptados a las nuevas condiciones, así como la generación de redes interinstitucionales para la solución de problemas y el uso intensivo del conocimiento en el espacio social. Naturalmente es indispensable también el establecimiento de vínculos entre los diversos sectores involucrados y un mayor impulso a la educación, un mejoramiento en la calidad de ésta y procurar que tenga acceso a ella cada persona. Debieran facilitarse el uso y el acceso a las tecnologías de la información y las comunicaciones, en lo que ya se han registrado avances en México, con la operación de los centros comunitarios digitales del Sistema e-México. Se hace necesaria una revisión del quehacer institucional en materia de la investigación y el desarrollo de la ciencia y la tecnología, y es indispensable el impulso a sectores clave como el de las tecnologías de la información y las comunicaciones, recurriendo, si fuera necesario a una reconfiguración del esquema institucional que ha venido operando hasta ahora. Se precisa de un impulso firme y decidido a la generación, difusión y compartimiento del conocimiento científico. Junto con los cambios institucionales, es preciso fomentar la creación de organismos que desde diversos ámbitos certifiquen la adquisición de conocimientos, o bien apoyen la divulgación, el uso y el desarrollo de las tecnologías de la información y las comunicaciones. Lo ideal sería convertirnos en desarrolladores de tecnología. Sólo los países que lo han logrado han despuntado en el proceso de desarrollo, y en ocasiones en unos cuantos años. Si bien adolecemos aún de mecanismos propulsores, como el institucional, la naturaleza de la revolución tecnológica abre amplias perspectivas: “Las nuevas tecnologías de la información no son sólo herramientas que aplicar, sino procesos que desarrollar. Los usuarios y los creadores pueden convertirse en los mismos. De este modo, los usuarios pueden tomar el control de la tecnología, como en el caso de Internet… Por primera vez en la historia, la mente humana es una fuerza productiva directa, no sólo un elemento decisivo del sistema de producción.”16 Se habla de una propuesta para elevar la competitividad a rango constitucional. Ojalá se cristalice y se aprobara esa iniciativa, y lo que sería mejor aún, que se cumpla. C

Referencias [1] Castells, Manuel. La era de la información: Economía, sociedad y cultura. Vol. I, La sociedad red, Siglo Veintiuno Editores, Méx., 2002, p. 42. [2] Castells, Manuel, Op. cit., p. 43. [3] Ibid., p. 43 [4] Castells, Manuel, Op. cit., p. 43 [5] Fundación Este País. Conocimiento Útil y Friedrich Naumann Stiftung, México ante el reto de la economía del conocimiento, Méx., 2005 [6] Banco Mundial, Aprendizaje permanente en la economía global del conocimiento: Desafíos para los países en desarrollo,Alfaomega Grupo Editor, Bogotá, 2003, p. XVII. [7] Ibid. p. XVII-XVIII.[8] Banco Mundial, Op. cit., p. XIX [9] Banco Mundial, Op. cit., p. XXIV [10] Fundación Este País. Conocimiento Útil y Friedrich Naumann Stiftung, Op. cit [11] UNESCO, Hacia las sociedades del conocimiento, Jouve, Mayenne Francia, 2005, p. 5. [12] Ibid., p. 17 [13] UNESCO, Op. cit., p. 20 [14] Ibid., p. 23 [15] UNESCO, Op. cit. p. 32 [16] Castells, Manuel, Op. cit., p. 58.

Sobre el Autor Mario Alberto Alvarado Padilla es Lic. en Sistemas, durante 16 años he trabajado en diferentes áreas de la Secretaría de Economía vinculadas a tecnologia y sistemas de información. Actualmente responsable del área de desarrollo del mercado interno de TIC S, dentro del programa para el desarrollo de la industria del software ( PROSOFT ) en la Secretaría de Economía. malvarad@economia.gob.mx, Tel. 52296100 ext 34132, http://www.economia.gob.mx/ Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>  ec o no mí a d el c o no c i mi ent o  ]

w w w. c o c i e n t e . c o m . m x

página

31

página

Anuncio

33

I

Anuncio

K

página

33

Anuncio

I

33


>    ]

Un tip

“fuera de este mundo”

para el aprendizaje de las matemáticas

el software matemático utilizado para digitalizar al personaje de “Yoda”, en “La Guerra de las Galaxias” El profesor Tim Chartier es todo un héroe para su hijito de cuatro años y sus amigos. ¿Quién más que papi podría darle vida a su personaje favorito de la saga de “La Guerra de las Galaxias”: el Yoda, y hacerlo aparecer por todos lados en la computadora? Experto en matemáticas aplicadas, el profesor Chartier es un ardiente coleccionista de ejemplos de cómo aplicar las matemáticas, pues sabe muy bien que son éstos los enganchan el interés de sus estudiantes. Uno de sus más fieles asistentes en este proyecto es Maple®, el procesador líder en el mundo, de la Maplesoft ™, que ofrece la amplitud y profundidad necesarias para llevar a cabo todo tipo de operaciones. Como profesor de matemáticas en el Davidson College, Chartier se dio cuenta de que el popular personaje de la pantalla era un medio garantizado de atrapar la atención de todos los niños del país en edad escolar: “las matemáticas son frecuentemente presentadas tan simplificadas por los académicos, que los estudiantes

34

difícilmente las pueden asociar con sus vidas u objetivos personales” –y añade: “la mayoria nunca comprende de qué sirve aprender las ecuaciones y fórmulas de las matemáticas”. Así, en 2004, el profesor Chartier hizo contacto con un ingeniero de investigación y desarrollo en la Industrial Light & Magic; la división de efectos especiales de Lucasfilm, Ltd., y juntos, escribieron un artículo explicando los procedimientos matemáticos que operaban detrás de la digitalización y animación del personaje de Yoda. El profesor Chartier luego puso manos a la obra, usando Maple para ilustrar estos conceptos matemáticos de manera interactiva, para lo cual recibió el apoyo de Sarah Greenwald y William Bauldry, de la universidad Appalachian State University, para expandir el código Maple. “Yo quería demostrarle a los alumnos cómo las matemáticas pueden ser aplicadas en muchos aspectos interesantes de la vida”, –declara el profesor Chartier, explicando la filosofía detrás de su afán por presentar a las matemáticas en el salón de clase mediante herramientas tecnológicas; “estas cuestiones pueden convertir a las matemáticas en un tema de conversación durante

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>    ]

el desayuno. A partir de ello, los niños de hoy, podrían algún día ser capaces de explicarle a sus hijos y nietos la importancia y la utilidad de las matemáticas”. El profesor Chartier fue recientemente galardonado con el premio “Henry L. Alder” para la enseñanza distinguida impartida por miembros de la academia de matemáticas en escuelas preuniversitarias o superiores, otorgado por la asociación de matemáticas de los Estados Unidos. ¿Cómo se utilizó Maple? La psique del Yoda fue diseñada para el álgebra lineal, literalmente. Para que este maestro Jedi pudiera ser operado por medio de una computadora, y no manualmente por un titiritero, se debía primero re-crear al personaje digitalmente, mediante una teselación o matriz alámbrica (wire frame), como se muestra en la imagen. El modelo en alma de alambre se define a partir de dos tipos de datos: la localización de cada vértice y las conexiones entre ellos, que son las que le dan forma a cada faceta, de tal manera que, entre más vértices, mayor definición de imagen. Las herramientas de mapeo (plotting tools) del Maple 3-D usan esta información para transformarla automáticamente en la imagen del Yoda. Las rutinas de álgebra lineal del Maple pueden luego ser empleadas para hacer que el Yoda se mueva. Con toda la información de los vértices almacenada en una matriz, el modelo se puede modificar -mediante su multiplicación- resultando en una nueva imagen tridimensional, así, por ejemplo, la multiplicación por una matriz de rotación gira la imagen según una cantidad especificada de antemano, pues las formidables rutinas numéricas de álgebra lineal del Maple hacen que tales operaciones sean posibles, a pesar de involucrar a miles de puntos.

lados magistralmente por el talento del experto titiritero Frank Oz. Más recientemente, gracias a los avances científicos y tecnológicos, fue posible generarlo igual de convincentemente –o hasta más- mediante realidad virtual, precisamente a través de conceptos matemáticos, tales como: álgebra lineal, cálculo, ecuaciones diferenciales, y análisis numérico. “La imagen del Yoda generada por Maple es en verdad «cool»”, -dice el profesor Chartier; “el poder simbólico del Maple y todo lo que este procesador puede hacer con los valores numéricos es realmente increíble. Sencillamente, es lo máximo en calculadoras; es capaz de ir más allá de todas las intuiciones matemáticas que uno pueda tener, y dar excelentes resultados. Como maestro, yo utilizo al Maple para darle vida a las matemáticas y traerlas al salón de clase: la tecnología es capaz de dar sorprendentes resultados con los alumnos.” Como todos los niños, el profesor Chartier era fanático de “La Guerra de las Galaxias” y coleccionaba todos los juguetes promocionales que podía, a expensas de un gasto nada despreciable del bolsillo de papá y mamá. Ahora, gracias a la avanzada tecnología de Maplesoft, su hijo y sus amigos pueden jugar con imágenes tridimensionales del Yoda; tornándolo, de un lujo, en una herramienta a disposición de los niños para la comprensión de las matemáticas. C

Más información: http://www.maplesoft.com

La digitalización del Yoda El Yoda hizo su primera aparición en la saga de “La Guerra de las Galaxias” en el filme de 1980: “El Imperio Contra-ataca”. En esta película, este personaje era inicialmente interpretado por una marioneta cuya voz y movimientos eran contro-

w w w. c o c i e n t e . c o m . m x

imágenes creadas con MAPLE®

Las poderosas capacidades interactivas de mapeo (plotting tools) en 3-D añaden aún más dimensiones a la exploración: el usuario puede rotar, hacer modelos a escala, o paneos de la imagen, de manera interactiva, y ensayar diversas opciones de iluminación, brillo o transparencia, para crear su propio modelo personalizado del Yoda.

35


>  entrevista  ]

Por: Marcela J. Peñaloza Báez

La evolución vertiginosa de las Tecnologías de la

Información y las Comunicaciones motiva la innovación de esquemas de trabajo en las organizaciones, ya que ante los mercados globales de nuestros tiempos, es altamente prioritario buscar mayores niveles de competitividad, así como mejorar la calidad y diversidad de los servicios que ofrecen a sus clientes. Para ello, los sistemas de información constituyen una plataforma que soporta tanto la operación cotidiana, como las necesidades de los niveles táctico y estratégico, de ahí que la calidad del software sea un factor crítico de éxito para alcanzar los objetivos de negocio de cualquier tipo de organización. Pero, ¿qué es el software con calidad? Podemos definirlo como aquél que guarda conformidad con los requerimientos del usuario, sean éstos explícitos o implícitos. Esto es, aunque existen diversas definiciones sobre la calidad del software, podemos decir que es el cumplimiento de los requerimientos establecidos, tanto funcionales como de desempeño, de los estándares de desarrollo de documentación explícitos, así como de las características implícitas que se esperan de todo software desarrollado profesionalmente. La calidad del software también puede ser definida como “conocer e identificar las necesidades de los usuarios”, acotando que se identifican las necesidades, no deseos, y que muy frecuentemente las verdaderas necesidades funcionales son extremadamente difíciles de conocer. El software de calidad debe ser confiable y sin defectos. Los errores latentes deben ser operacionalmente insignificantes, no ser destructivos, y raramente ser evidentes. Los errores no son importantes para el usuario mientras no afecten sus operaciones, causen inconvenientes, cuesten tiempo y dinero, o bien causen pérdida de confidencialidad en los resultados del programa. Distintos autores afirman que el software puede ser considerado como un producto de ingeniería tanto como un avión, automóvil, televisión o cualquier otro objeto que requiera un alto nivel de habilidad para transformar la materia prima en un producto utilizable. Fue Bauer quien acuñó el término in36

geniería de software en 1967, durante una reunión previa a la conferencia del Comité de Ciencia de la OTAN para temas de desarrollo de sistemas de software a gran escala. Esta conferencia se llevó a cabo en el otoño de 1968, reuniendo alrededor de cincuenta programadores de alto nivel, científicos de la computación y líderes de la industria, para tratar el tema de la “crisis del software”, término acuñado ya desde los años 50 para englobar al software que fue terminado tardíamente, que excedió los presupuestos, que tiene baja calidad, o bien al software que no se le puede dar mantenimiento. La ingeniería de software fue visualizada como la solución a este problema. La definición de ingeniería de software de la IEEE Computer Society, aceptada por la industria, dice que es “la aplicación de un enfoque sistemático, disciplinado y cuantificable al desarrollo, operación y mantenimiento del software; esto es, la aplicación de la ingeniería al software”. Esta definición apunta a la profesionalización de la disciplina de la informática dentro del ámbito de las demás ingenierías. El objetivo ulterior radica en que la disciplina pase de ser un arte y un conjunto de buenas prácticas, a un conjunto de patrones y estándares a ser aplicados en cada situación. Como en todas las demás ingenierías que han tenido un mayor tiempo de maduración, surge la necesidad de la estandarización. Es decir, abandonar la aplicación de técnicas y buenas prácticas en forma ad hoc a favor de un proceso disciplinado, que esté definido por normas, que resulte predecible y provea una adecuada visibilidad para los involucrados. Algunas características que hacen que la ingeniería de software presente diferencias respecto de otras ingenierías son: 1. El software es un producto enteramente conceptual. 2. El software no tiene propiedades físicas como peso, color o voltaje, y, en consecuencia, no está sujeto a leyes físicas o eléctricas. 3. La naturaleza conceptual del software crea una distancia intelectual con el problema que pretende resolver. Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>  ent r evi st a  ]

4. Para probar el software es necesario disponer de un sistema físico. 5. El mantenimiento del software no es sólo una sustitución de componentes. El desarrollo de software es una actividad compleja que requiere la integración de factores técnicos, gerenciales y organizacionales. En este contexto, otra definición aceptada de ingeniería de software dice que es “la aplicación práctica de la ciencia de la computación, la administración, y otras ciencias, al análisis, diseño, construcción y mantenimiento de software y de la documentación necesaria para usar, operar, y mantener el sistema de software entregado”. Las organizaciones que no aplican buenas prácticas de ingeniería de software enfrentan problemas para predecir de manera precisa los costos, plazos y la calidad del producto de software; estas prácticas son claves para el desarrollo exitoso de software. El cimiento de toda la ingeniería de software es el enfoque en la calidad, así como todas las demás ingenierías deben descansar en un compromiso organizacional con la calidad. La cultura de la calidad lleva, en última instancia, al desarrollo de estrategias más maduras para la ingeniería de software, que se reflejan en los elementos que trataremos a continuación. La ingeniería de software se compone de tres elementos fundamentales: > Técnicas a emplear en la construcción del software: Entre ellas se encuentran técnicas a emplear durante la planeación de proyectos, análisis de requerimientos, diseño de software, diseño de estructuras de datos, validaw w w. c o c i e n t e . c o m . m x

ción de sistemas software, mantenimiento, etc. > Herramientas que dan soporte al desarrollo de software. > Procesos y metodologías, nexo de unión entre las técnicas y las herramientas que definen la secuencia en que se aplican las técnicas, las entregas que se requieren, los controles necesarios para asegurar la calidad, la coordinación de cambios, etc. Los métodos indican cómo construir técnicamente el software. Las herramientas suministran un soporte automático o semiautomático para los métodos, y los procesos sirven como el medio de cohesión de los métodos y herramientas, favoreciendo el desarrollo de software de manera efectiva, racional y oportuna, al definir áreas clave que forman la base de la administración del proyecto y establecen el contexto en el que: > se aplican métodos y técnicas, > se producen entregables (modelos, documentos, reportes de datos, formas, etc.) > se establecen métricas y puntos de revisión, > se asegura la calidad, y > se administra el cambio de manera apropiada.

A lo largo de la historia de la ingeniería de software se han desarrollado múltiples ejemplos de todos estos elementos, por lo que se cuenta con un amplio abanico de posibilidades para profesionalizar el desarrollo de software en una organización. No hay caso que escape a la posibilidad de mejora de la calidad de su software y de su proceso de desarrollo. Lo importante es reconocer esta necesidad y tomar acciones planeadas, articuladas de manera sistemática y sistémica, para asegurar que el software que se esté desarrollando, en cualquier ámbito organizacional, verdaderamente cumpla con los requisitos para los cuales ha sido construido. Ese, es el gran reto del ingeniero de software. C

Sobre el Autor: Marcela J. Peñaloza Báez es colaboradora de la Dirección General de Servicios de Cómputo Académico de la UNAM. Licenciada en Informática y Maestra en Ciencias de la Computación, está certificada como Project Management Professional por el PMI. subdirector@ exodus.dcaa.unam.mx

37


>  reseña de eventos  ]

Reseña de eventos »  E x p o Manuf ac tur a 2 00 7 Dentro del foro internacional de negocios que anualmente convoca a la industria manufacturera, y que presenta las mejores estrategias y soluciones dirigidas al sector, (así como herramientas especializadas con tecnología de punta para la industria de la transformación), la revista Cociente participó como expositor, y asistió a la conferencia magistral “El manufacturero del año”. En ella, el Dr. Roberto Hernández, director general de la planta Solectron México (ubicada en Guadalajara, en lo que es mejor conocido como el “Siliconvalley Mexicano”), ganadora del premio Shingo 2007, (que es una distinción que reconoce la excelencia en la fabricación y las prácticas ejemplares de resultados entre negocio y cliente), platicó sobre su experiencia en Manufactura Esbelta. Entre otras cosas, el Dr. Hernández comentó lo que fue llevar la productividad a niveles muy altos después de una época muy difícil; sin embargo, haciendo una buena optimización de recursos, tanto económicos como productivos, y aplicando principios Six-Sigma y Kaizen, pudo hacer maravillas. También dentro del evento, pudimos saludar a empresas muy importantes para la industria del software técnico, como: National Instruments, Minitab, Dassault Systemes México, EPlan Software & Service Mexico y UGS, entre otras. C

» E x p o Comm Mé x ico 2 00 7 ExpoComm 2007 reunió a los más importantes fabricantes de equipos, materiales y diseñadores de software en varias ramas del quehacer computacional, destacando el rubro de las telecomunicaciones. Durante varios días distribuidores, fabricantes y clientes se dieron cita en el Centro de Exposiciones Banamex, del Hipódromo de las Américas, de la Cd. De México. Dentro del evento se llevó a cabo el Encuentro Sectorial All Invest “Tecnología en Telecomunicaciones 200/”, sin duda alguna un evento que revistió gran importancia para el futuro de este sector. De entre las novedades que pudimos observar fue un scanner de tarjetas, que al ser escaneadas desglosaban la información. Además Gustavo Valdes, de National Instruments, nos comentó sobre los diferentes instrumentos que mostraron como: LabView(software) y PXI(hardware). Se mostró un generador de señales para analizar protocolos de telefonía celular, Bluethooth, GSM, (pruebas antes de la fabricación). Gustavo Valdes comentó que PXI es básicamente una plataforma industrial para hacer pruebas , consiste en varios módulos de medición y además un sistema de control, que puede ser un control remoto hacia una PC(laptop) o hacia un control embbedido(la PC en el sistema). Para compartir resultados se pueden utilizar los puertos ethernet y generar los reportes, para esto se usa LabView. Como comentario final Gustavo Valdes mencionó que lo que se mostró en el evento, es sólo una de toda la variedad de oferta de productos y empresas que pertenecen a la alianza de productos PXI, que este año cumple 10 años de existencia en el mercado. C

38

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


HP bladeSystem c7000 Enclousure with ProLiant

» HP BladeSystem C-Class. México D.F. 2007 Pablo Signorelli, Director de Enterprise Storage & Servers(ESS), Alejandro Marco Vázquez Briones, Gerente de Ventas de Servidores Estándar de la Industria (ISS) y Atenéa Martínez, a manera de analogías, entre una cata de vinos y una cata de blades, mostraron la evolución e innovaciones de los servidores Blade. Atenéa mencionó, mejoras tales como: hasta 8 cores en procesamiento y mucha más capacidad en cuanto a memoria. En cuestion de almacenamiento de blades, se mencionó el enclosure de 10 unidades, en el cuál se pueden almacenar hasta 16 servidores. Además, todos los servidores tienen discos “hot plugged”(se pueden sacar en cualquier momento sin tener ningún problema). HP BladeSystem c-Class reduce la temperatura en el centro de datos y la plataforma utiliza hasta un 30 por ciento menos de energía. Entre las 3 innovaciones blade más importantes que se mencionaron están : Virtual Connect networking, Termal Logic power and cooling, e Insight Control Management software. «“Las cifras de IDC demuestran que HP continúa manteniendo su solidez en el mercado mundial de servidores, y nuestros recientes logros son fiel ref lejo de la gran aceptación que ha tenido la innovadora arquitectura BladeSystem c-Class de HP en el mercado”» dijo Pablo Signorelli Director de Enterprise Storage & Server de HP México. «Continuaremos con nuestra premisa de innovación en todo nuestro portafolio de servidores con el objetivo de brindar a los clientes una infraestructura de TI superior que les asista a impulsar los negocios y reducir los costos». www.hp.com/go/servers.

El pasado marzo, en la conferencia y promoción de productos de Microsoft, Bill Gates comentó sobre el fenómeno global e impacto que está teniendo la evolución de Internet. Es importante, para los países de economías emergentes, tratar de incrementar el número de usuarios y el uso de Banda Ancha, con el fin de mejorar la entrega y emisión de datos en Internet. El uso de Banda Ancha es el futuro, así como el uso de la tecnología Inalámbrica, ya que está cambiando las formas de consumir televisión y video y de socializar de las personas. A propósito de México, comentó que los números están cambiando ...y espera que en los próximos años se pueda ver un aumento de usuarios de Banda Ancha. El futuro es sobre la información y sobre la facilidad que tendremos para acceder a ella. El futuro es sobre la rapidez que las herramientas nos darán para entender problemas y poder visualizarlos, aunque estos problemas estén localizados en otro lugar. Tendremos toda esa información accesible por Internet. La eficiencia y la transparencia mejorarán en los procesos. Hablando sobre Windows Vista comentó sobre las mejoras para hacer la información más accesible, poder ser compartida, y simplificar el uso del software para hacerlo más eficiente. Esto permitirá a las personas trabajar en conjunto de una forma más simple. Windows Vista cuenta con nuevos gadgets ...y con la opción de correr video al mismo tiempo para hacer más entretenida la operación. Tenemos un nuevo menú que facilita ver la información para que sea más fácil de ver e identificar. La nueva interfaz de Power Point te permite hacer modificaciones más atractivas gracias a smart art. Durante la conferencia Rafa Márquez y Bill Gates disfrutaron del uso de la X-Box y también se comentó sobre la labor filantrópica educativa que realiza Microsoft en México.

>  r eseña d e event o s  ]

» Bill Gates en México 2007

C

C

w w w. c o c i e n t e . c o m . m x

39


>  Prensa  ]

Nuevos productos El Primer switch de Ethernet de 1 Giga con 20 ms en tiempo de recuperación WESTERMO lanzó al mercado su switch de eternet a 1 Giga, el L1400. Este nuevo producto es el fruto de mas de 5 años de colaboración con “the OnTime Company”. Especializada en ingeniería y desarrollo de software y protocolos aplicables al Ethernet insdustrial, la compañía a desarrollado un, completamente nuevo, protocolo de propiedad, FRNT (Fast Recovery Network Topology). Se encuentra en el sistema operativo del switch, y reduce el tiempo de reconfiguración a 30 ms, y en algunos casos 20 ms para otras plicaciones. Más información: http://www.westermo.fr

Nuevo What’sBest 9.0 más poderoso LINDO Systems anuncia la disponibilidad de What’sBest 9.0; y el nuevo lanzamiento de Solver Add-in para Excel, el cual es más rápido y poderoso y añade la ayuda para el recientemente lanzado Microsoft Office 2007. What’sBest 9.0 soluciona un 80% más rápido grandes modelos lineales. Más información: www.lindo.com

The MathWorks, Inc. y Analog Devices, Inc. anunciaron la introducción del enlace para Analog Devices VisualDSP++® The MathWorks, Inc. y Analog Devices, Inc. Anunciaron la introducción del enlace para Analog Devices VisualDSP++®, el cual integra MATLAB ® y a Simulink ® con los dispositivos análogos de desarrollo integrado VisualDSP++® y el ambiente de software para eliminar errores. Este enlace que es vendido y apoyado por the MathWorks, permite a los ingenieros verificar el código integrado (o embebido) corriendo en VisualDSP++ usando MATLAB y generar proyectos de VisualDSP++ de modelos de Simulink. La herramienta acelera el desarrollo y la verificación del procesamiento de señales y de los algoritmos de control en los procesadores de los dispositivos análogos al reducir o eliminar los errores asociados con la codificación hecha a mano. Más información: www.mathworks.com/products/visualdsp/

40

Quality Companion 2.2, actualización para los Expertos Seis Sigma Minitab Inc. anunció la disponibilidad de Quality Companion 2.2 de Minitab™, una actualización que brinda orientación y herramientas prácticas que simplifican cada paso de los proyectos Seis Sigma, desde determinar el enfoque, hasta documentar y reportar su éxito. La actualización llega como una respuesta rápida al las observaciones de los clientes y presenta docenas de nuevas habilidades y mejoras que perfeccionan su funcionamiento y usabilidad. “Estamos comprometidos con identificar los retos de calidad que los profesionals enfrentan al desarrolando Quality Companion tan rapido como podamos” menciona J.-P. Mulley, jefe de Planeación de Productos en Minitab. “El lanzamiento de esta actualización ofrece una solucion mas completa para los profesionales que necesitan resolver mejores proyectos y mostrar más resultados”. Más información: http://www.minitab.com

ENVI Solutions para GIS Soluciones ENVI para los profesionales de la Geomática Numerosos profesionales de la geomática se enfrentan con el problema de obtener rápidamente información precisa optimizando al mismo tiempo los costes. A menudo, la información SIG está anticuada, es poco precisa, o es excesivamente costosa. Un plataforma de tratamiento de imágenes como ENVI junto con imágenes de satélite de coste razonable ofrecen una solución interesante para actualizar informaciones SIG tales como redes viarias, catastros, etc... Más información: http://www.ittvis.com/Envi/

Maplesoft mejora la Conectividad con Simulink con la nueva herramienta “BlockImporter para Simulink” Maplesoft™, el proveedor líder de herramientas de software de alto rendimiento para la ingeniería, la ciencia y las matemáticas anunció el lanzamiento de “BlockImporter para Simulink®”, una herramienta adicionada de Maple

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>  P r ensa  ]

que favorece la conectividad, aun más, con la suite de productos de the MathWorks. El nuevo producto permite al usuario validar la integridad matemática del modelo, realizar análisis adicional, documentar el sistema, eliminar lazos algebraicos, y aumentar la velocidad de ejecución de Simulink. Más información: http://www.maplesoft.com/

Nuevo LINDO API 5.0 los sistemas de LINDO anuncian el lanzamiento 5.0 de la biblioteca accesible de LINDO API de solvers (algoritmos) de optimización. LINDO API soporta una amplia gama de tipos de problemas, incluyendo lineal, número entero, ecuación cuadrática, global no lineal y no convexo general. El nuevo lanzamiento incluye mejoras significativas de velocidad y de confiabilidad a todos los solvers principales. Más información: http://lindo.com/index.html

The Mathworks Introduce FIXED-POINT TOOLBOX 2 La nueva versión hace más eficientes las conversiones “Floating-to-Fixed-Point” y acelera la ejecucción de los algoritmos “Fixed-Point “ dentro de MATLAB NATICK, Mass. El lanzamiento de Fixed-Point Toolbox2, proporciona mejoras en las capacidades de conversión de “floating-to-fixed-point” y “accelerated fixed-point” de los algoritmos que se ejecutan a velocidad de código C compilado dentro de MATLAB® . Como resultado, los ingeniéros en diseño obtienen una mayor cohesión en su flujo de trabajo para optimizar y verificar algoritmos embebidos completamente dentro de MATLAB. Esto acelera las interacciones con el diseño y elimina errores de traduccion. Más información: http://www.mathworks.com/products/

Agilent Technologies anuncia avance en el rendimiento de Analisis de Señales para sus nuevas aplicaciones Agilent Technologies Inc. reveló la disponibilidad de su plataforma de análisis de señales MXA, con esto se anuncia la llegada de la nueva generación de analizadores de señales. Esta nueva plataforma proporciona

w w w. c o c i e n t e . c o m . m x

el más alto rendimiento en analizadores de alcance medio, permitiendo a los ingenieros resolver retos de diseño en sus aplicaciones mas rápidamente y con menos repeticiones. La nueva plataforma MXA permite un análisis de señal y espectro mas flexible para el diseño y manufactura de aparatos de comunicación inalámbrica para los estándares actuales y los que puedan llegar. Se integra de manera perfecta a un amplio rango de medidas estándar como WiMAX. Además de trabajar con Windows® XP Profesional, el MXA proporciona una poderosa interfaz de usuario y todas las características y funciones están agrupadas y son fácilmente accesibles mediante un teclado y Mouse USB. Más información: www.agilent.com/find/mxa

Software Clarity Chromatography Clarity es una avanzada estación de cromatografía diseñada para adquirir y evaluar datos de cualquier cromatógrafo comercial disponible con salidas análogas y giditales. Hasta cuatro sistemas cromatográficos independientes, cada uno de los cuales puede ser equipado con hasta 12 detectores de señales, simultaneamente conectados. El paquete de estación cromatográfica incluye el software de Clarity y un convertidor A/D de tarjeta PCI interna o una caja USB externa. Más información: http://www.dataapex.com/home/index.php

Stat/Transfer 9 Disponible Stat/Transfer esta diseñado para simplificar la transferencia de datos estadisticos entre diferentes programas. La transferencia manual no solo consume tiempo, sino que tambien incrementa la posibilidad de tener errores. Stat/Transfer elimina este obstáculo al proporcionar un mecanismo para la movilidad de datos extremadamente rápido, confiable y automatizado. Con Stat/Transfer usted gana velocidad y presición sin perder flexibilidad, pues el programa le permite seleccionar solo las variables y casos que usted quiera transferir. Más información: http://www.stattransfer.com/

41


>  notas de prensa  ]

Notas de prensa

Los osciloscopios de Señal Mixta Tektronix establecen el nuevo estándar de rendimiento de desempeño y usabilidad en una herramienta de depuración All-in-One para diseño de sistemas integrados(o embebidos)

Manufactura de chips, de Computadora a la Naturaleza

Tektronix, Inc. (NYSE: TEK), uno de los principales abastecedores mundiales de prueba, medición e instrumentación supervisada, anunció la disponibilidad de los osciloscopios de señal mixta MSO4000 (MSO). La nueva familia de osciloscopios de señal mixta MSO4000 combina tres poderosas capacidades -- un osciloscopio avanzado en tiempo real y analizador lógico y una gran innovación en el motor de búsqueda del inspector de onda de la forma de onda. -- en un dispositivo portable pequeño y ligero para el diseño integrado y depuración de errores. Más información: http://www.tek.com/products/ oscilloscopes/mso4000

Lenovo recibe el reconocimiento de Greenpeace por su liderazgo en la protección del medio ambiente Lenovo fue reconocida por Greenpeace por su progreso en lo relativo a la protección del medio ambiente a nivel mundial. “Es fundamental para nuestro éxito y el de la industria que demostremos responsabilidad social corporativa”, expresó Fran O’Sullivan, Vicepresidente ejecutiva de operaciones del grupo de productos de Lenovo. “Sabemos que la mejora continua de nuestro comportamiento ecológico constituye un compromiso a largo plazo y nuestro objetivo es hacer lo necesario para llegar al liderazgo total en esta área”. En diciembre de 2006, Lenovo comenzó a ofrecer en China el reciclaje de sus computadoras de escritorio, portátiles, monitores y servidores en forma gratuita y admite la responsabilidad del productor individual y ofrece programas de reciclaje en todos los países en donde opera la empresa. Más información: http://www.lenovo.com/news/mx/es/2007/04/17_ 04_2007.html

42

IBM anunció la primera aplicación en su tipo, en lo que representa un gran avance para la nanotecnología de auto ensamble para la manufactura de chips convencionales, pidiéndole prestado el proceso a la naturaleza para construir la próxima generación de chips de computadora. IBM aprovechó el proceso natural de la creación de patrones que forma las conchas, los copos de nieve y el esmalte de los dientes para formar trillones de hoyos para crear vacíos aislantes alrededor de miles de cables de nanoescala empaquetados unos al lado de los otros dentro de cada chip de computadora. En los chips que operan en los laboratorios de IBM que usan la técnica, los investigadores han probado que las señales eléctricas en los chips pueden fluir un 35% más rápido o consumir un 35% menos de energía en comparación con los chips más avanzados usando las técnicas convencionales. El proceso de auto ensamble patentado de IBM traslada un método de manufactura de nanotecnología que ha mostrado ser muy prometedor en los laboratorios a un ambiente de manufactura comercial por primera vez, proporcionando el equivalente de dos generaciones de mejorías de desempeño en el cableado de la Ley de Moore en un solo paso, utilizando las técnicas de manufactura convencionales. Más información: http://www.ibm.com/chips/

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


>  no t a s d e p r ensa  ]

El primer Analizador de Espectro portátil de Agilent disponible en todo el mundo Agilent Technologies Inc. anunció la disponibilidad a nivel mundial de su primer analizador de espectro portátil RF. Caracterizado por el mejor desempeño en su línea y usabilidad de 100 kHz a 3 GHz, el N9340A de Agilent es ideal para clientes de instalación y mantenimiento dentro de un amplio rango de industrias, incluyendo proveedores de servicios inalámbricos, defensa/aeroespacial, televisión y transmisiones, entre otros. El análisis espectroscópico es fundamental para pruebas RF y caracterización de señales, pero los ingenieros y técnicos no siempre tienen el beneficio de contar con facilidades de laboratorio o un entorno de manufactura en el cual trabajar. El N9340A es una opción formidable si se busca portabilidad, alto desempeño y un analizador de espectro asequible. “Al ser la compañía líder en el ramo, Agilent es bien conocida por su exactitud y gran confiabilidad en sus instrumentos de prueba” mencionó Huo Feng, director general de la división de instrumentos en Agilent. “El alto desempeño ayudará a nuestros clientes estar a la cabeza de la industria”. Más información: www.agilent. com/find/N9340A

Hecho en los Laboratorios IBM : Hallazgos de diez Chips en diez años IBM anunció un importante hallazgo en el diseño de chips, denominado “intervalo de aire” que consagrando una década de innovación de los Laboratorios de IBM que han transformado la industria de la tecnología de la información con nuevos materiales y arquitecturas de diseño para construir unos chips más pequeños, más poderosos y eficientes en cuanto a la energía. El trabajo pionero de IBM para hacer pasar a la industria del cableado de aluminio al cobre, develada en 1997, proporcionó a la industria una reducción inmediata del 35% en la resistencia del flujo y un aumento del 15 % en el desempeño de los chips. Desde entonces, los científicos de IBM continúan impulsando las mejoras en el desempeño para continuar la ruta de la Ley de Moore. Diez de los principales hallazgos de chips de IBM elegidos entre docenas de innovaciones provenientes de los laboratorios de IBM en los últimos diez años incluyen: Cobre (septiembre de 1997) – El reemplazar los cableados de aluminio en chips, SOI (agosto de 1998) – La tecnología del silicio y el aislante, Silicio tirante (junio del 2001) – Esta tecnología extiende el material dentro de los chips, Litografía de inmersión (Diciembre del 2004) - IBM es la primera compañía en el mundo que utiliza la nueva tecnología de manufactura. Más información: http://www.ibm.com/mx/pressroom/

w w w. c o c i e n t e . c o m . m x

página

43

Anuncio

J

43


>  notas de prensa  ] IBM ayuda a los Asociados de Negocios a fortalecer las infraestructuras de los clientes para las regulaciones gubernamentales que se avecinan desafiante Durante la Conferencia PartnerWorld 2007, IBM anunció un paquete de soluciones de software para dar soporte a los Asociados de Negocios de IBM con la finalidad de entregar la cartera de soluciones más amplia de la industria en el creciente mercado de la administración del cumplimiento de regulaciones. Los requisitos para cumplimiento pueden impulsarse por las regulaciones del gobierno, las directrices de la industria, los compromisos de negocios o incluso las iniciativas de gestión impulsadas a nivel interno. Los controles para proteger la confidencialidad, la integridad y la disponibilidad de los datos y las aplicaciones del cliente son frecuentemente una parte clave de las iniciativas para cumplir con las normas y deberán destinarse a las amenazas prevalecientes. Los ofrecimientos de Service Management de IBM tienen un fuerte paquete de soluciones de cumplimiento que ayudan a automatizar los controles de la tecnología de la información y posteriormente reportar la efectividad de estos controles para dar soporte a estas iniciativas. Este nuevo programa ayudará a los asociados de IBM a resolver las necesidades de sus clientes para un ciclo de vida completo en la administración del cumplimiento de las regulaciones.

Servidores de Alto Desempeño HP dio a conocer el día de hoy numerosos beneficios que la plataforma HP Integrity Superdome con procesador Intel® Itanium® 2 Dual – Core (doble núcleo) ofrece a los usuarios, posicionándose como una opción para las organizaciones que requieren una plataforma tecnológica capaz de soportar las cargas de trabajo más demandantes y que promueva una agilización en las operaciones diarias de la empresa. Las funcionalidades de los servidores HP Integrity Superdome con procesador Intel® Itanium® 2 Dual – Core de 1.6 GHz/24 MB iL3 permiten a las empresas agilizar sus operaciones y disminuir costos gracias a su excelente rendimiento. El HP Integrity da un verdadero soporte al flujo de trabajo combinado que hay en la infraestructura de TI actual, ofreciendo así un máximo desempeño balanceado, simplificando la capacidad de expansión, flexibilidad, disponibilidad, seguridad y funcionalidades de administración permitiendo optimizar las necesidades críticas de las empresas. Más información sobre pruebas de desempeño: http://www.tpc.org y http://www.sap. com/solutions/benchmark/index.exp

Más información: http://www.ibm.com/mx/pressroom/

Próximos Eventos

Indice de Anunciantes

ISA ExpoCONTROL 2007 6-8 de junio México, D.F. http://www.isaexpocontrol.com/

National Instruments

página

48

Anuncio

A

MultiON Consulting

página

47

Anuncio

B

Tektronix

página

2

Anuncio

C

The MathWorks

página

13

Anuncio

D

Multisim 10

página

17

Anuncio

E

EViews 6

página

20

Anuncio

F

GAUSS 8.0

página

20

Anuncio

G

Minitab

página

28

Anuncio

H

Maple 11

página

33

Anuncio

I

CINDET 2007

página

43

Anuncio

J

Stata

página

45

Anuncio

K

Fifth International Conference on Nanochannels, Microchannels and Minichannels 18-20 de junio UDLA Puebla, México. http://www.asmeconferences.org/ICNMM07/ Expo Interphex 27 al 30 de junio México, D.F. http://www.interphexmexicoespanol.com/ 19va. Reunión de Verano de Potencia, Aplicaciones Industriales y Exposición Industrial 18 al 20 de julio Acapulco, Guerrero http://www.ieee.org.mx/IEEE%20-%20RVPAI%20-%20RVP-AI%202006.html/ 44

Cómputo Cientí f ico y Técnico

[ j u n i o - a g o s t o - 0 7]


Mayor seguridad, productividad, apacidad de almacenamiento y personalización en el ser vicio de correo electrónico para los usuarios nuevos y actuales Como parte de una importante estrategia para premiar la lealtad de sus usuarios, Prodigy/MSN anunció hoy el lanzamiento en México de Windows Live Hotmail en Prodigy/MSN, el sucesor de Prodigy/MSN Hotmail, con nuevas características de seguridad, productividad, acceso, almacenamiento y personalización y con el que sin duda alguna se consolidará como el mejor servicio de correo electrónico A partir del 7 de mayo, todos los usuarios de Internet en México podrán unirse a la comunidad de Windows Live Hotmail en Prodigy/MSN al visitar la página http://www.hotmail.com para obtener gratuitamente una cuenta de Windows Live Hotmail en Prodigy/MSN y comenzar a experimentar la mejor opción de correo electrónico.

Anunciate con nosotros, llega a las personas más importantes para tí y contribuye al apoyo de la ciencia y la tecnología en nuestro país

w w w. c o c i e n t e . c o m . m x

página

45

Anuncio

K

45


Llene esta forma con tinta negra y envíela vía FAX al (01) (55) 55.59.80.83 ó mande un e-mail a: suscripcion@cociente.com.mx Con la siguiente información para recibir ¡GRÁTIS! su suscripción a Cociente. Fecha

Nombre Completo

E-mail

Empresa a la que pertenece

Departamento

Calle y Número

Colonia

Ciudad

País

Teléfono con clave lada

Fax con clave lada

SÍ deseo recibir la revista

NO deseo recibir la revista

Dirección a donde desea recibir Cociente

A ¿Qué información de software y hardware le interesa conocer? 1 2 3 4 5 6 7 8 9 10 11 12

Adquisición de datos. Ingeniería de diseño. Ingeniería de procesos. Ingeniería financiera. Ingeniería industrial. Ingeniería de pruebas y verificación. Telecomunicaciones. Proyectos Six Sigma. Transportación y Logística. Economía y Finanzas. Matemáticas y Estadística. Química, Física, Geología, etc.

B Area de aplicación. 1 2 3 4 5 6 7 8 9 10 11 12 13

Calidad. Cálculo técnico. Comunicación. Diseño de control. Diseño de prototipos. Diseño de circuit. electrónicos y PCBs Procesamiento de señales. Procesamiento de imágenes. Pruebas y mediciones. Bioinformática. Modelado y análisis financiero. Modelado y simulación de procesos. Modelado y simulación de productos.

C Tipo de Industria. 1 2 3 4 5 6 7 8

Automotriz. Electrónica. Servicios Financieros. Química y Petróleo. Biotecnológica, Farmaceut y Médica. Comunicaciones. Informática y equipos de oficina. Otros sectores industriales.

D Tipo de org. en la que está empleado. 1 2 3 4 5 6 7 8 9 10 11 12

Farmacéutico / Biotecnología. Producto Químico / Petróleo . Eléctrico / Electrónico / Semiconduct. Alimentos / Bebidas. Otra Fabricación. Laboratorio Independiente. Centro de Investigación / Privado. Centro de Investigación /Gob. Universidad. Ambiental Consultoría Técnica Otro (por favor especifique)

Código Postal

E Por favor indique su puesto de trabajo: (marque solo uno) 1 Director, Propietario o Gerente Corporativo. 2 Administrador. 3 Gerente ó Director de Laboratorio. 4 Director Técnico / Gerente. 5 Científico/ Investigador. 6 Gerente de Proyecto, Líder de Equipo. 7 Dir. Técnico en Computación o Especialista.

Marque los productos o servicios que fueron de su interés en este número de Cociente

Cociente es la revista especializada en México e Hispanoamérica, que mantiene informados a los sectores: científico, industrial, educativo y de servicios, sobre los nuevos productos en software y hardware para aplicaciones científicas y tecnológicas que se están introduciendo al mercado. >

>

El 95% de nuestros lectores son profesionales en sectores de: investigación, manufactura, servicios y centros académicos del país que tienen puestos que influyen en la decisión de compra de nuevos productos y tecnologías.

>

Información de productos y tecnologías emergentes que se usan a nivel mundial y que pueden ser aplicadas en nuestro país.

>

Se distribuye gratuitamente y de manera controlada a profesionales que utilizan cómputo científico y técnico para resolver la mayoría de problemas que se presentan en las actividades de investigación, desarrollo de tecnología, academia, manufactura, procesos de transformación y servicios.

>

Periodicidad: Trimestral.

>

Distribución: Nacional y América Hispana

(el número de cada anuncio se encuentra en la parte inferior del mismo) página

48

Anuncio

A

página

47

Anuncio

B

página

2

Anuncio

C

página

13

Anuncio

D

página

17

Anuncio

E

página

20

Anuncio

F

página

20

Anuncio

G

>

página

28

Anuncio

H

página

33

Anuncio

I

página

43

Anuncio

J

página

45

Anuncio

K

¡OBTENGA UNA SUSCRIPCIÓN GRÁTIS!

Circulación 10,000 ejemplares

Para más información sobre nuestra publicación mande un e-mail a: cociente@cociente.com.mx


w w w. c o c i e n t e . c o m . m x

pรกgina

47

Anuncio

B

47


NINILabVIEW LabVIEWSignalExpress SignalExpress

Conecte. Conecte.Listo. Listo.

Paso 2. Registre sussus datos Paso 2. Registre datos

Paso 1. Conecte el cable USB Paso 1. Conecte el cable USB

Registro dede datos por USB, ahora más fácil Registro datos por USB, ahora más fácil Introduciendo el software dede National Instruments Introduciendo el software National Instruments LabVIEW SignalExpress, una nueva herramienta que nono LabVIEW SignalExpress, una nueva herramienta que requiere programación para rápidamente adquirir, analizar requiere programación para rápidamente adquirir, analizar y presentar datos. Combínelos con la amplia variedad dede y presentar datos. Combínelos con la amplia variedad módulos dede adquisición dede datos USB para encontrar módulos adquisición datos USB para encontrar una verdadera solución registro dede datos plug-and-play. una verdadera solución registro datos plug-and-play.

>> >> Vea loslos ejemplos y descargue el Vea ejemplos y descargue

National Instruments México National Instruments México

Tel: 01 • Fax: (656)(656) 686 0358 Tel:800 01 010 800 0793 010 0793 • Fax: 686 0358 info.mexico@ni.com • ni.com/mexico info.mexico@ni.com • ni.com/mexico

LabVIEW SignalExpress LabVIEW SignalExpress Software interactivo sinsin programación Software interactivo programación Conectividad concon más dede 270270 dispositivos dede DAQ Conectividad más dispositivos DAQ �

NI NI CompactDAQ CompactDAQ Sistema dede adquisición dede datos porpor USB Sistema adquisición datos USB Más de 30 módulos de medición Más de 30 módulos de medición

0101 800 010 0793 800 010 0793

software GRATUITO enen ni.com/datalogging el software GRATUITO ni.com/datalogging

Miembros Integradores Premier Miembros Integradores Premier LeesLees Lab Lab en Querétaro (442)(442) 497 1185 en Querétaro 497 1185

© 2007 Instruments Corporation. TodosTodos los derechos reservados. LabVIEW, National Instruments, NI, ni.com, y NI CompactDAQ son marcas registradas de National Instruments. ©National 2007 National Instruments Corporation. los derechos reservados. LabVIEW, National Instruments, NI, ni.com, y NI CompactDAQ son marcas registradas de National Instruments. Los nombres de losde otros productos y las razones sociales mencionados son marcas registradas o nombres comerciales de susderespectivas compañías. 2007-8571-821-189 Los nombres los otros productos y las razones sociales mencionados son marcas registradas o nombres comerciales sus respectivas compañías. 2007-8571-821-189

página

48

Anuncio

A


Cociente4