Revista UNI-IEEEndo Esfuerzos 4edición

Page 1

UNI-IEEEndo Esfuerzos

N° UNIVERSIDAD NACIONAL DE INGENIERÍA

04 Año

2011

La Revista de la Rama Estudiantil IEEE de la UNI Rama Estudiantil de la UNI

400 000 Miembros

Eficiencia Energética

Paper

Membrecía IEEE Rompe Records. En promedio, las membrecías totales han estado creciendo cerca de 2% anualmente en los últimos siete años.

El Capítulo de Potencia y Energía PES-UNI, presenta el “I Concurso de Aplicación en Eficiencia Energética” con el patrocinio de ABB.

Jorge Llantoy nos presenta su paper titulado “Preliminary Internetworking Simulation of the QB50 Cubesat Constellation” presentado en el Latincom.

Rama Estudiantil IEEE de la UNI. Pabellón Q1, 2° Piso, Oficinas 218-220. uni.reieee@gmail.com reieee.uni.edu.pe / reieeeuni.blogspot.com

Grupo de Prensa y Redacción de la


GRUPO DE PRENSA Y REDACCIÓN DEL IEEE UNI

UNI-IEEEndo Esfuerzos Esta iniciativa surgió a raíz de la necesidad de contar con la información en nuestro idioma de nuestra famosa y reconocida revista del IEEE Spectrum, así como también incluir recursos para nuestros miembros y voluntarios.

REDACTORES & TRADUCTORES Luis M. Farfán Salazar., Miembro IEEE Estudiante de Pregrado de Ingeniería de Eléctrica, Ha participado activamente desde los inicios en el Comité Organizador IEEE INTERCON 2011 UNI, ha participado en la Delegación hacia el INTERCON 2010 en Puno y en la Reunión Regional de Ramas, actualmente es el Presidente de la Rama Estudiantil IEEE de la UNI. Paul Dremyn Gomez Ch., Miembro IEEE Estudiante de Pregrado de Ingeniería de Telecomunicaciones, Ha participado como Directiva del ComSoc UNI, ha participado como asesor en Capacitaciones, se dedica actualmente a la Plataforma Web de la Rama y Como Asesor del Comité de Organizador para el INTERCON 2011. M. Joaquin Fuentes Z., Miembro IEEE Estudiante de Pregrado de Ingeniería de Telecomunicaciones, actualmente se encuentra desempeñando el cargo de Vicepresidente del Consejo Estudiantil de Gerencia de Tecnología, TMC UNI, también es el Responsable del Comité de Registro e Inscripciones de INTERCON 2011. Pamela R. Crisóstomo Yance., Miembro IEEE Estudiante de Pregrado de Ingeniería de Telecomunicaciones, actualmente se encuentra desempeñando el cargo de Tesorera del Consejo Estudiantil de Gerencia de Tecnología, TMC UNI, también es el Responsable del Comité de Call for Papers y Visitas Técnicas de INTERCON 2011. Lizeth Castillo Chincha: Miembro IEEE Estudiante de Pregrado de ingeniería electrónica, actualmente desempeña el cargo de tesorera de la Rama Estudiantil IEEE de la UNI. Además, participa activamente del capítulo de robótica y automatización de la REIEEE UNI .También es la responsable del Comité del V Concurso Nacional de Robótica desarrollado durante el INTERCON 2011.

Martín Capcha Presentación: Miembro IEEE Estudiante de Pregrado de ingeniería electrónica,actualmente desempeña el cargo de vicepresidente del capítulo de Robótica y Automatización de la Rama Estudiantil IEEE de la UNI. También es el responsable del Comité de Conferencias en el área de Robótica y Automatización del INTERCON 2011.

Rama Estudiantil de la UNI COORDINADOR GENERAL DEL GRUPO M. Joaquin Fuentes Z., mjfuentes@ieee.org COMPILACIÓN Y ESTRUCTURA M. Joaquin Fuentes Z., mjfuentes@ieee.org REVISIÓN Y CONTROL DE CALIDAD Paul Dremyn Gomez Ch.., dremyn@ieee.org

DIRECTVA PRESIDENTE Luis M. Farfán Salazar., luis.farfan@ieee.org VICEPRESIDENTE Jesús J. Briceño A., jbricenoa@uni.pe SECRETARIO Jorge L. M. Cabrera Ch., jorgecch@ieee.org TESORERA Lizeth I. Castillo Ch., l.castilloch@ieee.org VOCAL Sabrina P. Reynaga A, sabri1291@gmail.com CAS PRESIDENTE Samy N. Mori Cubas., msamync@ieee.org VICEPRESIDENTE Diego Gomero Gomero., diegogomero@gmail.com SECRETARIO Pier Santy Cabrera., pierosc16@gmail.com TESORERO Aldair Llapo Hernandez., aldairhernan@gmail.com VOCAL German Mendoza Reyes. gmendoza.fiee@gmail.com ComSoc PRESIDENTE Julio A. Quispe R., jaquisper@uni.pe VICEPRESIDENTE Michael B. Díaz, michaeldq1085@gmail.com SECRETARIO Celso García Q., celsogarciaq@gmail.com TESORERO Pamela R. C. Y., pamela.crisostomo@ieee.org PES PRESIDENTE H. Ivan. Espinoza C., iespinozac@uni.pe VICEPRESIDENTE Renzo A. Vargas P., rvargasp@uni.pe SECRETARIO Cesar R. Canchero M., ccancherom@uni.pe TESORERO Juan C. Quispe H., jcquispeh@ieee.org RAS

INVITADOS ESPECIALES Magister Julio Salvador Jácome, Ingeniero Mecánico Electricista de la Universidad Nacional de Ingeniería (UNI), Magister en Ingeniería de Sistemas en la UNI, Magister en Administración de Negocios en ESAN, Doctor en Administración y Dirección de Empresas en ESAN/ESADE. Actualmente es Profesor Principal de la Facultad de Ingeniería Eléctrica y Electrónica de la UNI.

Jorge L. Llantoy P., Miembro IEEE. Graduado en Ing. de Telecomunicaciones, fue presidente del Capítulo de Comunicaciones, IEEE ComSoc UNI, así mismo participó en el Proyecto Chasqui I en el Área de Comunicaciones Satelitales, del Centro de Tecnologías de Información y Comunicaciones, CTIC-UNI, actualmente se encuentra trabajando el Alcatel-Lucent del Perú.

Portada: Juan Carlos Quispe.

PRESIDENTE Mishell Sanchez G., msanchezg@ieee.org VICEPRESIDENTE Martin Capcha P., martin.capcha@ieee.org SECRETARIO Hector Sandoval ., hector.sandovalj@gmail.com TESORERO David Lagos Huamaní., dlagosh@ieee.org TMC PRESIDENTE Frank A. Moreno Vera., frank.moreno@ieee.org VICEPRESIDENTE M. Joaquin Fuentes Z., mjfuentes@ieee.org SECRETARIO Miguel Hurtado Garrafa, miguel.hurtado@ieee.org TESORERA Pamela R. C. Y., pamela.crisostomo@ieee.org COMITÉ DE PUBLICIDAD Carlos F. Romero A., cromeroa@uni.pe COMITÉ DE INFORMÁTICA Y WEB M. Joaquin Fuentes Z., mjfuentes@ieee.org Paul Dremyn Gomez Ch.., dremyn@ieee.org


PRESENTACIÓN El presente mes de agosto será recordado por mucho tiempo en la memoria de los voluntarios de la Rama Estudiantil IEEE de la UNI, pues del 8 al 12 de agosto se desarrolló el IEEE INTERCON 2011, organización que se viene trabajando desde setiembre del 2009. Recuerdo que en ese tiempo aún no participaba de la Rama Estudiantil y me invitaron a participar de un comité para postular a ser sede de tan importante Congreso. El reto fue grande y ambicioso, se obtuvo la sede de tan importante Congreso y una joven nueva generación empezó a tomar las riendas de la Rama Estudiantil de la UNI. Eso conllevó a una serie de experiencias a lo largo del tiempo que nos permitieron solidificarnos como organización, desarrollar más actividades como eventos y proyectos. El mes de agosto también será recordado pues se obtuvo el primer puesto de Rama Ejemplar, el segundo puesto en el Concurso de Páginas de WEB y el tercer lugar en el concurso Casos de Éxitos (Revista UNI-IEEEndo Esfuerzos) en la Reunión Regional de Ramas de Región 9 desarrollada en Lima, estos premios se obtuvieron por las ganas, motivación y dedicación que le ponen los voluntarios IEEE de la UNI. Estos premios nos motivan para seguir trabajando y aportando al IEEE y a la UNI, instituciones que nos respaldan y apoyan. Esta IV Edición de UNI-IEEEndo Esfuerzos nos trae artículos novedosos relacionados a la Energía en el Perú, las redes sociales en internet, los más de 400000 miembros del IEEE, imágenes del INTERCON 2011 entre otros artículos interesantes. Para la

quinta edición de UNI-IEEEndo Esfuerzos se publicaran los

resultados que nos dejó el INTERCON 2011, pero más

allá de las

estadísticas y números puedo afirmar que el INTERCON 2011 nos dejó un gran grupo humano, formando muchos líderes los cuales aprendieron en el camino a serlos; y

eso cumplió con uno de los objetivos con los cuales

nace el INTERCON, la formación de líderes. Esperando que la IV Edición de UNI-IEEEndo Esfuerzos sea de su agrado y enviándoles saludos a nombre de la Rama Estudiantil IEEE de la Universidad Nacional de Ingeniería, me despido.


Membrecía IEEE Rompe Records (400 000 y contando)

El IEEE había logrado un par de importantes hitos en membrecías al final del año pasado. Por primera vez en su historia, tiene más de 400 000 miembros, y sólo la membrecía estudiantil alcanzó el número de 100 000. En promedio, las membrecías totales han estado creciendo cerca de 2% anualmente en los últimos siete años. Y después de muchos años de declinación, las membrecías totales de las sociedades se incrementaron el año pasado, con las sociedades de Communications, Computer, y Power & Energy liderando el camino. Ha habido crecimiento alrededor del mundo, particularmente en Canadá, India, Japón, Reino Unido, y Estados Unidos. Y a pesar del agrio entorno económico, desde 2008 hasta 2010, el total de membrecías IEEE se incrementó 7% y las membrecías estudiantiles, un 21%. Éstas aumentaron mayormente en Australia, Canadá, China, Reino Unido, y Estados Unidos.

Por qué ellos se unen La publicación The Institute IEEE preguntó a los miembros a que nos digan por qué ellos se unen al IEEE y por qué se mantienen. El miembro estudiantil graduado Dody Ismoyo listó varias razones por las cuales registrarse: los muchos seminarios y webinarios IEEE, programas de entrenamiento continuo, y libros web, así como la oportunidad que él tiene de conocer ingenieros principales de la industria. Dody se convirtió en un miembro estudiantil en Universiti Teknologi Petronas, Malasia, donde obtuvo el grado de bachiller en ingeniería de sistemas de potencia. Después de un año, sin embargo, él dejó su membrecía porque, en sus propias palabras, él “falló en ver los beneficios”. Pero él se volvió a afiliar el último año cuando el comenzó a conseguir su grado de maestría en ingeniería de potencia en la Universidad de Sydney, Australia, y él está contento de haberlo hecho. “Afiliarme a la IEEE ha cambiado mi vida tanto, especialmente en mi vida post universitaria”, él dice. “He encontrado gente que realmente entiende qué estoy hablando, ya que generalmente tenemos el mismo entorno de educación en ingeniería.. Él también fue presentado en Engineers Australia, una institución que mantiene actividades conjuntas con el IEEE, incluyendo seminarios y presentaciones técnicas, muchas de las cuales Dody asiste. “Muchos compañeros de clase preguntan cómo tengo conocimiento de muchos

eventos relacionados a la ingeniería y yo les respondo „Porque soy un miembro IEEE,‟ él dice. “¡Renovaré mi membrecía tanto como pueda!” Mohammed Al-Donbok se convirtió en un miembro estudiantil porque él “quería familiarizarse con los estándares IEEE y tener acceso a los artículos técnicos (papers)” menciona. “IEEE también me dio la oportunidad de tomar cursos de educación continua.” AlDonbok es un estudiante de ingeniería eléctrica en AnNajah National University, en Israel, y es un miembro estudiantil de las sociedades Communications y Power & Energy. También dice que él ha tenido muchas gratas experiencias con su rama estudiantil. “Espero crear cambios en el sistema de comunicaciones de mi país e IEEE me ayudará llevar a cabo mi visión.” menciona. “Para mí, IEEE significa ser un miembro trabajador, ambicioso y conocedor.” Wilber Hernández se unió porque su profesor de tesis de pregrado se lo recomendó. Hernández está buscando el título de graduado en gestión de tecnología en el Stevens Institute of Technology, en New York. “Desde el primer momento tuve acceso a la librería digital IEEE Xplore en mi instituto, no he sido capaz dejar de lado sus publicaciones, con sus profusas historias, artículos de investigación y referencias.”, afirma. “Se ha convertido en una gran fuente de ideas para mí.” El miembro estudiantil Suyong Vyawahare aprendió del IEEE en secundaria


después de leer un artículo de la revista IEEE Spectrum acerca de energía. Después, Vyawahare comenzó a explorar los magazines técnicos, los cuáles le expusieron los estándares IEEE. Cuando ingresó al Atharva College of Engineering, en Mumbai, India, se unió a la rama estudiantil IEEE y se involucró en sus actividades. Él ha servido como el secretario asistente de la rama y su coordinador de eventos. “Mientras aprendo más acerca de los programas y ofrecimientos del IEEE, estoy aún más orgulloso de ser un miembro”, nos dice. “Yo también quiero continuar mi membrecía porque el IEEE ofrece programas de educación continua y programas de certificación profesional.” Muchas otras razones Encuesta tras encuesta llevada a cabo a lo largo de los años por la IEEE han mostrado que las personas se unen, y se quedan porque ellos quieren permanecer al corriente técnicamente, obtener acceso a las publicaciones e impulsar sus oportunidades de carrera. Muchos miembros, quienes respondieron directamente a The Institute IEEE, confirmaron aquellas razones y se hizo eco de los hallazgos de otras encuestas, tal como el valor de las oportunidades en publicaciones y redes de contactos, descuentos en el registro de conferencias, y un seguro de vida ofrecido a través del programa de descuentos de miembros IEEE, formalmente conocido como el Programa de Ventajas Financieras del IEEE. Paul DeAndrea de New

York, ha sido miembro desde que él era un estudiante de pregrado en 1974. Ahora él pertenece a las sociedades IEEE de Power & Energy e Industry Applications. “Artículos publicados acerca de las reuniones de sociedades han ayudado a expandir mi entendimiento de estas áreas y me han mantenido al corriente,” afirma DeAndrea. “Las publicaciones IEEE fueron fuentes excelentes después en mi carrera hacia mi exitosa búsqueda de mi título de graduado en ingeniería eléctrica. También me he contactado con otros practicantes de ingeniería y tuve la suerte de tener coautoría en un artículo publicado en el IEEE Transactions on Industry Applications.” Peter Tobias, un miembro de Minnesota, Estados Unidos, dice que él se mantiene “para apoyar al IEEE como mi organización profesional por las muchas cosas que ello hace.” Él hizo una lista de la publicación de revistas científicas y técnicas, relacionados con el trabajo de asistencia, capítulos locales y la representación de los intereses de política pública de los miembros IEEE-USA. “El patrón consistente del crecimiento de membrecías que el IEEE ha experimentado últimamente es una prueba de cuán valiosas son nuestras publicaciones, servicios y beneficios, para el desarrollo de las carreras de actuales y futuros profesionales técnicos,” nos dice Howard Michel, vicepresidente de IEEE Member and Geographic Activities. “Mientras nuestras

membrecías crezcan”, menciona Michel, “nuestra red de pares se expande también, brindándonos más alcance y profundidad a nuestra ya muy diversa membrecía. Yo espero este crecimiento para acelerar el mundo así como el IEEE continúa desarrollando nuevos productos y servicios y como nuestros miembros continúan corriendo la voz entre sus colegas.”

Elaborado por: KATHY KOWALENKO Traducido por: MARTIN CAPCHA


Debajo del capó de Google y Facebook Una mirada a los datacenters, servidores y software que nos mantienen con la sensación de estar siempre conectados. mientras estaban en la universidad, fue así que ahorraron dinero, lo que hicieron a continuación fue unir cuatro placas madres a una sola fuente de poder, montándolos increíblemente sobre cajas de galletas, claro está correctamente alineados y teniendo cuidado de que no se produjeran cortos circuitos entre las placas. Finalmente tuvieron listo un feo pero funcional servidor con todos los cables de red colgando por las paredes.

Archivos aislados: los racks de los servidores de archivos se encuentran perfectamente alineados en su último datacenter construido en Prineville, Ore.

Era 1999, y los fundadores de Google, Larry Page y Sergey Brin, recién estrenados de haber constituido la empresa de extraño nombre, necesitaban servidores – cantidades de ellos. Fue entonces cuando compraron placas madres de computadoras, discos duros y fuentes de poder. No hace mucho que los jóvenes ya habían experimentado problemas económicos

Todo esto apunta a que no se puede negar que la infraestructura técnica de Gogle ha mejorado muchísimo desde sus primeros días, pero aún así Google se resiste a develar los detalles del trasfondo de toda su infraestructura. En entrevista con la Revista Spectrum, los ingenieros de la compañía a menudo ofrecían algunas respuestas vagas sobre este asunto, tales como “No queremos conversar sobre algo específico” o “No podemos hablar mucho de eso”. Google incluso ha intentado mantener en secreto la ubicación de varias de sus cerca de 3 docenas de Datacenters, la cual incluye 20 que se encuentran


repartidos por los Estados Unidos. Por supuesto que es sumamente absurdo que de una empresa multimillonaria no se tenga registrada esta información con los agentes federales e incluso aprobado por los inspectores del Gobierno y construido siguiendo planos. Información considerable acerca de la Infraestructura de datos de Google, puede ser encontrada en … Bueno, simplemente buscando en Google. Facebook, también, rápidamente se catapultó de ser un proyecto estudiantil hacia un juego para dominar la Web, y vaya que los Ingenieros de Facebbok han tenido que pedalear muy duro para mantenerse en la creciente ola de popularidad. De hecho estas dos empresas tienen mucho en común, es más se puede decir que llevan unas vidas paralelas - cada uno de ellos abrió su datacenter en su séptimo año de operación, por ejemplo. Pero Por supuesto, estas operaciones son del tamaño tal como la demanda se lo ido solicitando, ahora, en un día cualquiera, Google en el campo de Ingeniería de búsquedas tiene cerca de un millón de peticiones, y cerca de ¼ de millón de personas visitan la página de Facebook. Ambas compañías han tenido una fuerte demanda por Ingenieros en el esfuerzo por mantener todo el tráfico,

Google y Facebook se diferencian en algunas cosas fundamentales, particularmente en la forma en la que cada empresa produce el software que crea las cosas que ellos hacen y que nos mantienen a la expectativa, y también del punto de apertura en el que se encuentran cuando son consultados por operaciones técnicas. y el resultado de todo este trabajo de hecho se nota. El Data Center de Google en The Dalles, Ore. Fue completamente terminado en el 2006, y es uno de los primeros que la compañía construyó en vez de alquilar uno. Por ese entonces Google trataba de mantener lo más seguro la información acerca


de su infraestructura que los acuerdos con las autoridades incluían confidencialidad de tal manera que no se filtre siquiera a la prensa. Google afortunadamente ahora es lo suficientemente abierta como para dar algunos vistazos de su nueva sede, en las riberas del Río Columbia, visto sólo desde Google Earth y con sólo pocos ángulos de visión general antes de comenzar su construcción.

tradicionales datacenters en los cuales se daba una manera específica de establecer cortes de energía, Los generadores de respaldo funcioan cuando la red eléctrica falla, pero no responden instantáneamente por lo que se requiere un sistema de alimentación eléctrico ininterrumpido, para que los servidores aún se encuentren en funcionamiento luego de los 10 primeros segundos en los que las luces comienzan a parpadear.

La actitud de Google para con sus Datacenter no es a la de matar- si es posible, sin embargo, por ejemplo en el 2009, Google organizó un encuentro sobre Eficiencia Energética en Datacenters, en la cual se reveló muchas de sus operaciones, días después una visita con video relatado de uno de sus datacenters, en la cual la Compañía sólo se refirió a la misma como el Datacente A, apareció en Youtube, es decir por la propia gente de Google. Esta disposición de mantener más de 45000 servidores montados en 45 contenedores gigantes como de entrega de carga, dando la impresión de una estructura construida de forma cavernosa y temporal, como si a Google en algún momento se le ocurriría tomar sus servidores y moverse de lugar.

Frescos proceadores: Datacenter de Facebbok en Prineville, Ore, usa un sistema muy curioso en base a la expulsión de aire fresco que al salir de las tuberías caen directamente sobre los servidores.

Esta forma modular no es única de Google, pero no es un estándar conocido en l práctica. Google también marcó sus distancias con los

Muchos Datacenter utilizan ampliamente UPS centralizados para manejar este tipo de cortos intervalos, sin embargo estos equipos


actualmente se encuentras desaprovechados, esto quizás debido a que cada uno de estos equipos convierte el voltaje de alimentación a DC y nuevamente lo regresa a AC, las cuales se envían a distintas unidades de distribución energética y luego finalmente a los servidores. este desperdicio corresponden a los picos de tensión que corresponden a un 10% de la electricidad que va hacia los equipos informáticos. para evitar estas pérdidas Google asigna un pequeño UPS a cada servidor. Otra medida de conservación de Energía que muestra Google en su paseo por los servidores de Youtube son las técnicas de enfriamiento conocida como Economización a base de Agua. Esto es importante porque sólo apenas unos cuantos años de utilización de este sistema de enfriamiento representan el 40% del recibo de luz para un típico Datacenter. La Economización a base de Agua disminuye los costos por que usa – como lo puedes adivinar – agua, que gotea en los intercambiadores hacia a fuera del edificio. Un lazo cerrado de enfriamiento que pasa a través de los servidores apilados en los montacargas absorbe la temperatura caliente emitida por los servidores, a medida que el agua cae y gotea sobre los servidores se evapora, llevándose consigo mucho del calor a disipar. Esta técnica combinada con

una buena configuración del clima mantiene a los servidores lo suficientemente fríos como de costumbre y los refrigerantes se pueden encender en los casos que fuesen necesarios. Los Datacenters de Google usan más eficientemente la electricidad que cualquier Datacenter típico. Los expertos de los datacenters calibran sus estadísticas, denominada Eficacia del Uso de la Energía (PUE, por sus siglas en inglés), que se calcula dividiendo toda la potencia eléctrica entregada a un contenedor por la potencia entregada sólo a los ordenadores y los equipos relacionados a la Red. Par finales del 2010, los datacenters de Google alcanzaron un PUE de a.113 – lo cual es impresionantemente cercano al valor ideal de 1.0, esta es una importante mejora durante los últimos 5 años. Cuando se tomó una muestra de 22 de los datacenter, se obtuvo un PUE de 2.0, lo que significa que por cada vatio utilizado para el cálculo y tareas de Red, otro vatio se malgasta en refrigeración, luces, ventilación, bombas, equipos de oficina, y probablemente una máquina expendedora. Aunque otros Datacenters puedan presumir de eficiencias que rivalizan con las que Google ha informado, las cifras PUE de Google, probablemente se arrastren mucho más abajo en comparación con otros centros de


Eficiencia Energética puestas en marcha. La firma ahora está trabajando en un Datecenter en Finlandia, en la cual también enfriarán los servidores en base a aguade mar que se bombea desde el mar Báltico por ejemplo, Pero no creo que los Ingenieros de Google sean los únicos que sepan como contruir e implementar un Centro de Datos Super-Eficinete. Los Ingenieros de Facebook ahora están en plena marcha a velocidad, de tal forma que han estado dispuestos a mostrar sus resultados, por la prensa circula la información de que se está expandiendo la infraestructura de Facebook, acerca de la nueva cnstrucción de Centro de datos, localizado en lo que fue hasta hace poco un pedazo de bosque al este de las montañas Blue-Ridge, estoy impresionado por la enorme escala del proyecto: 34000 metros cuadrados (370000 pies cuadrados), o lo que es lo mismo una estructura de 340 metros de punta a punta frente a nosotros, imagine un Super Centro Comercial Walmart y aún así no estuviéramos pensando en algo lo suficientemente grande, es más puede que Facebook ocupe el lugar de alguno de estos grandes centro comerciales, aún más impresionante que su tamaño es la velocidad con la que el contratista DPR/Fortis puso todo el material de contrucción y el

acero en el lugar, y abriéndose camino en tan solo algunos meses. Esto me sorprende, dijo Tom Furlong, quien dirige el Sitio de Operaciones del Centro de Datos de Facebook. En una reunión que tuvimos en referencia aun Remolque de Construcción, en un lugar del condado de Rutherford en Carolina del Norte, Furlong comenta que en los primeros años de Facebook se solía hacer instalaciones en Condominios aprovechando la Infraestructuras sobre todo para utilizar sus servidores empresariales, luego ya la compañía creció y finalmente comenzó a comprar sus propios centros de datos. Pero esta situación cambió en el 2008, donde gran parte de las Economías mundiales se desaceleraron, en ese momento la mayor parte de los servidores de Facebook fueron alquilados en el Centro de datos de la Bahía de San Francisco, donde hasta la fecha se siguen utilizando 8 instalaciones aisladas y unidas por enlaces de datos de alta velocidad, también comenzó con el alquiler de otro centro de datos al norte de Virginia, para lograr formar una red de Centros de Datos.


de lo que ellos creen que tienen valores PUE de 1,07 o menos. Ellos llaman a esta participación “El Proyecto de Computación Abierta”.

Baterías Incluídas: Los Servidores de Google tienen una alimentación de potencia ininterrumpida.

Sin embargo cuando se decidieron iniciar su búsqueda de más espacio, comenta Furlong, descubrió que muchos Proyectos de Centros de datos fueron dejados de lado por las Víctimas que aparecieron ante la Crisis Financiera. Por último la búsqueda se tornó tan frustante que a principios del 2009, Facebook decidió construir su propio Centro de datos., ya por Agosto Furlong y sus compañeros se habían asentado en Prineville, Oregon, a sólo 150 kilómetros del centro de Google en The Dalles. Antes de que el centro de Prineville incluso fuera terminado, la compañía anunció planes para construir un segundo en Carolina del Norte. Como si quisiera demostrar mesura, el CEO de Facebook, Mark Zuckerberg, dijo que la apertura es una norma social nueva, los ingenieros de Facebook han lanzado muchas de las especificaciones técnicas para el estdo-del-arte de la técnica de datos,

No es exactamente el código abierto de su hardware para que cualquiera pueda duplicar, pero las descripciones que ofrece es sorprendentemente detallada. El centro de Prineville, que oficialmente entró en funcionamiento en abril, se aleja notablemente del enfoque que favorece a Google. "Se puede ahorrar algo de dinero con la modularidad, pero te limita en muchas maneras diferentes", dice Furlong. Así las zonas de sus servidores de Facebook se colocan directamente en el suelo del centro de datos, donde se enfría por el flujo de aire que sopla desde el lado. Jay Park, Director de diseño de centros de datos y de la construcción de Facebook, Explica que el uso de la "Refrigeración por evaporación directa." Unafina niebla enfría el aire, que a su vez enfría los servidores. "Es un gran sistema de riego Honkin ", dice Park. El enfriamiento por evaporación directa encaja bien con la filosofía general que los Ingenieros de Facebook del centro de datos siempre han tenido: la simplicidad. "Nosotros filtramos el


aire, pasa a través del sistema de riego, a continuación llega al centro de datos. Si el aire exterior es demasiado frío, vamos a recircular parte de ella. Si no, vamos a volcarla hacia fuera." Park cuenta que el diseño mecánico es tan sencillo que no requiere cálculo computacional para sus conductos, y su dinámica de fluidos muestra que todavía hace su trabajo. En las instalaciones de Facebook de Carolina del Norte serán configurados de manera similar, si bien se incluyen sistemas de respaldo de aire acondicionado para complementar el sistema de riego durante los periodos de calor. Los Centros de Datos de Facebook, al igual que los de Google, prescinden de UPS centralizadas. En su lugar, una fase de las tres fase, de 480 voltios AC derivada de la centralita principal es enviado directamente a los servidores, que contienen suministros de energía personaliza, dos de ellas utilizan lo que equivale a un avance de 277voltios de corriente alterna. Durante un corte de energía, los suministros también pued e salirse de la DC de 48 voltios procedentes de los gabinetes de diseño especial de

UPS instalado al lado bastidores del servidor.

de los

Ese acuerdo permite ahorrar vatios, y también simplifica el mantenimiento, porque hay muchas menos piezas de equipo para mantener. "En los centros de datos tradicionales, con los UPS más arriba en la cadena alimentaria, tiene una gran cantidad de interruptores y conexiones adicionales para eludir", dice Furlong. "Moviendo los primeros planos en el servidor le da la flexibilidad de no tener todas esas cosas con cables adicionales." Los Gigante centros de datos – incluyendo la eficiencia energética-no son, por supuesto, nada sin los servidores adecuados. Facebook puebla sus localidades de Oregón y Carolina del Norte con diseño personalizado en sus servidores, al igual que Google lo ha hecho desde hace mucho tiempo. Amir Michael , director de diseño de hardware de Facebook, explica que cuando la empresa decidió construir sus propias instalaciones, "tuvimos un borrón y cuenta nueva", lo que permitió que él y sus colegas puedan optimizar los diseños


de sus centros y los servidores en conjunto para la máxima eficiencia energética . El resultado fue un servidor en el que "se le ven los huesos al descubierto. Yo lo llamo diseño de una" vanidad-libre "sólo porque no me gusta que la gente

lo llama feo", dice Michael. "No tiene marcos delanteros. No tiene pintura. No tiene logos o etiquetas adhesivas sobre el mismo. Realmente solo tiene lo que se requiere."

Foto: David Schneider [arriba] Michael Lloyd / El Oregonian / Landov [abajo], Grandes Cajas: las próxima sede del Centro de Datos de Facebook de Carolina del Norte [arriba] es casi el doble del tamaño de las instalaciones de Google en The Dalles, Oregon [abajo].

Google también mantiene el servidor bajo coste a un mínimo. Al igual que Facebook, que compra materias primas a nivel de hardware y sólo compra las muchas piezas que se rompen, en lugar de la compra de sistemas de gama alta que

son menos propensos a las fallas, pero también mucho más caro. La economía, si no otra cosa, llevó a los ingenieros de ambas compañías a conclusiones similares aquí. Ajuste y el acabado podría contar si vas a comprar un servidor o incluso cien,


pero no cuando va a comprar decenas de miles de personas a la vez. Y luchar por una alta fiabilidad es un poco inútil a esta escala, donde el fracaso no es sólo una opción, es un hecho cotidiano de la vida. Michael explica que él ayudó a diseñar tres tipos básicos de servidores para el funcionamiento de la aplicación de Facebook. La capa superior del hardware, conectado directamente con la mayoría de los usuarios de Facebook, se compone de servidores Web exteriores. Ellos no requieren mucho espacio en disco, lo suficiente para el sistema operativo(Linux), la base de servidor Web de software (que hasta hace poco era Apache), el código necesario para montar las páginas de Facebook (escrito en PHP, un lenguaje de script), algunos archivos de registro, y unos pocos bits y otras piezas. Esas máquinas están conectadas a una capa más profunda de los servidores de relleno de los discos duros basados en memoria flash y unidades de estado sólido, que proporcionan almacenamiento persistente para el gigante de las bases de datos MySQL que tienen fotos de los

usuarios de Facebook, videos, comentarios, y listas de amigos, entre otras cosas . En el medio está la RAM, pesados servidores que ejecutan un sistema de cacheo de memorias para proporcionar un rápido acceso a los contenidos de uso más frecuente. Los Geeks Alphas reconocen que estas piezas de software Linux, Apache, PHP, MySQL, “memcached”, todos provienen de la comunidad de código abierto. Los programadores de Facebook han modificado estos y otros paquetes de código abierto para satisfacer sus necesidades, pero en el nivel más básico, están haciendo exactamente lo que los desarrolladores de web han hecho: la construcción de su sitio en una base de código abierto. No es así en Google. Los programadores han escrito la mayoría del software de su empresa impresionante desde cero, con la excepción de la ejecución de Linux en sus servidores. Las más destacadas son el Google File System (GFS o, del sistema de archivos distribuido a gran escala), Bigtable (una base de


datos de baja sobrecarga), y MapReduce (que proporciona un mecanismo para llevar a cabo varios tipos de cálculos de forma masiva en paralelo). Es más, los programadores de Google han reescrito el código de la compañía principal de búsqueda en más de una vez. Hablando hace dos años en la Segunda Conferencia de ACM Internacional sobre la Web de búsqueda de datos, JeffDean, miembro Google que trabaja en el grupo del sistema de infraestructura de la empresa, dijo que en los últimos años su compañía ha realizado siete revisiones significativas en la forma en que implementa la búsqueda web. Sin embargo, los extranjeros no se dan cuenta de que, debido a, como explicó "se puede sustituir la parte de atrás todo sin que nadie se diera cuenta." ¿Cómo hemos de interpretar la diferencia entre Google y las culturas de ingeniería de Facebook en relación con el uso de código abierto? Parte de la respuesta sólo puede ser que Google, después de haber empezado antes, no tenía más opción que desarrollar su

propio software, ya que alternativas de código abierto aún no estaban disponibles. Sin embargo, Steve Lacy, quien trabajó como ingeniero de software de Google desde 2005 a 2010, piensa lo contrario. sostiene que Google sólo sufre de un grave caso de no inventado aquí síndrome. Muchos paquetes de código abierto "Google pone la infraestructura a la vergüenza cuando se trata de la facilidad de uso y el enfoque del producto," escribe Lacy."[Sin embargo los de Google] Los ingenieros desalientan el uso de estos sistemas, hasta el punto en que son castigados por siquiera pensar en utilizar otra cosa que Bigtable / Llave y GFS /Colossus para sus productos." Google o la infraestructura de Facebook todavía podrían agrietarse en su creciente carga? Bases de usuarios regulares de Facebook ha crecido a más de quinientos millones de personas, y continúa añadiendo más de 20 millones de usuarios al mes. Y Google ha de dedicar grandes recursos de computación para mantenerse al día con las 34 000 búsquedas que realiza cada segundo, durante la


ejecución de las subastas de anuncios, la traducción de idiomas, manejar el tráfico de Gmail, recibiendo los vídeos de YouTube y mucho más. ¿Puede todo esto caber en un vaivén sin fin? Parece que sí. Mientras que los costos son enormes, estas empresas parecen ser el manejo de la carga de computación con relativa facilidad. Pero quizás eso no debe sorprender. Después de todo, si no tiene potencia suficiente, siempre se puede retrasar la introducción de cualquier uso intensivo de recursos de servicios que están trabajando y que tanto despliegue de estas características con suficiente regularidad. Tomando Google Instant, una función de búsqueda instantánea de que la empresa presentó en

septiembre pasado. "El objetivo era aumentar el factor de alegría", dice Ben Gomes, quien encabezó el equipo de Google Instant. Instantánea se ve a las primeras letras que lleva una consulta de búsqueda y ofrece una página de resultados sobre la base de lo que se anticipa que la intención de escribir. Por lo tanto, incluso para una simple consulta, búsquedas múltiples ahora debe ir en paralelo, y los cálculos deben llevarse a cabo para elegir que los resultados para mostrar. Google se ha hecho un cambio, si sus ingenieros tenían alguna duda sobre la capacidad de sus sistemas para tomar el castigo? Del mismo modo, Facebook sin duda puede controlar en gran medida a sus usuarios de su sistema fiscal. Desde el año pasado,


por ejemplo, los usuarios de Facebook habían subido50 mil millones de imágenes del sitio. Y, sin embargo, a pesar de la enorme cantidad de ancho de banda y espacio de almacenamiento consumido por todas esas fotos, Facebook haaumentado periódicament e la resolución de las imágenes los usuarios pueden guardar. ¿Qué habrían hecho si sus ingenieros de operaciones sentían que su infraestructura informática estaba en peligro de colapso? Mi punto es que ni Google ni Facebook es probable que contemplen la ampliación de sus sistemas para satisfacer la demanda. Claro, habrá problemas técnicos y retrasos de tiempo en tiempo. Sin embargo, parece poco probable que cualquiera de estas sociedades vayan a sufrir de una

falta a largo plazo de empuje de computación, ya que siguen dando forma a la manera en que manejamos nuestras vidas en línea. La rapidez con que tendrán que construir nuevos centros de datos, y qué tipo de nueva tecnología de ahorro de energía a los centros contendrán, nadie lo sabe. Pero una cosa es segura: sus servidores siempre será feos.

Traducido por: Paul Dremyn Gomez Ch., dremyn@ieee.org

Artículo Original de: David Schneider.

En la RRR 2011, desarrollada en la ciudad de Lima-Perú, nuestra revista alcanzó el 3er puesto como caso de éxito a nivel latinoamericano.

Muchas gracias a todas las personas que hicieron esto posible.


China's Godson Gamble La apuesta del Ahijado de China Estructura de malla coloca al procesador de supercomputadora lejos de la competencia La supercomputadora Dawning 6000, que los investigadores chinos esperan dar a conocer en el tercer trimestre del 2011, tendrá algo muy diferente bajo su cubierta. A diferencia de sus precursores, que emplearon chips originarios de Estados Unidos, esta máquina aprovechará un procesador de gama alta propio del país, el Godson-3B. Con una frecuencia pico de 1.05 Gigahertz, el Godson es más lento que los productos de sus competidores, al menos uno de ellos opera a más de 5 GHz, pero el chip aún impresiona con su eficiencia energética sin precedentes. Puede ejecutar 128 mil millones de operaciones punto flotante por segundo usando solo 40 watts - el doble o más de rendimiento por watts que sus competidores. El Godson tiene una estructura interconectada excéntrica - para la transmisión de mensajes entre los múltiples núcleos del procesador - que también ha ganado atención. Mientras Intel e IBM están comercializando chips que lanzarán comunicaciones entre núcleos al estilo carrusel en una "interconexión tipo anillo", el Godson conecta núcleos usando una versión modificada del sistema de interconexión tipo rejilla llamada red de malla. Los diseñadores del procesador, liderados por Weiwu Hu en la Academia China de Ciencias, en Beijing, parecen apostar por un nuevo tipo de disposición para futuros procesadores de computadora de gama alta.

Anillo de 8 núcleos: En muchos microprocesadores, la información circula alrededor de una interconexión con forma de anillo para llegar a los núcleos del procesador.

Malla de 9 núcleos: Algunos nuevos procesadores de gama alta usa una red de malla. Éstos pueden ser más complejos pero también más eficientes en energía.

Godson de 8 núcleos: El procesador chino se basa en una red de malla modificada que contiene conexiones directas extras para mover datos eficientemente.

Un diseño de malla va mano a mano con el ahorro de energía, dice Matthew Mattina, arquitecto jefe en el San José, California - basado en Tilera Corp. un fabricante de chips ahora montando procesadores de 36 y 64 núcleos usando interconexiones tipo malla en el chip. Imagine una interconexión tipo anillo como un flujo en carrusel. Llegar a alguna salida le exige trasladarse alrededor de casi todo el círculo. Viajando lejos de tu destino antes de llegar a él, dice Martina, requiere más conmutaciones de transistores y por lo tanto consume más energía. Una red de malla es más como las calles entrecruzadas de una ciudad. "En una malla, tú siempre atraviesas la cantidad mínima de cables - tú nunca irás por un camino erróneo", dice. En el chip Godson de 8 núcleos, cuatro núcleos forman una unidad estrechamente conectada - cada núcleo se asienta en una esquina de un cuadrado de interconexiones, como en una malla usual. Los investigadores del Godson también han conectado cada esquina a su opuesto, usando un par de interconexiones diagonales en forma de X a través del centro del cuadrado. Una interconexión de travesaño luego sirve como un paso a desnivel, conectando esta vecindad de cuatro núcleos a una configuración de cuatro núcleos cercana. Los desarrolladores del Godson creen que la escalabilidad de su malla modificada proveerá una ventaja clave, como los diseñadores de chips aumenten el número de núcleos en futuros chips. Yunji Chen, un arquitecto del Godson, dice que las interconexiones tipo anillo de sus competidores podrían tener problemas trabajando con más de 32 núcleos. En realidad, uno de los beneficios del anillo podría proveer su futuro riesgo. Conectando nuevos núcleos para un anillo es bastante fácil, dice K. C. Smith, un profesor emérito de Ingeniería Eléctrica y de Computación en la Universidad de Toronto. Después de todo, hay solo un camino para enviar información - o dos en un anillo bidireccional. Pero compartiendo un camino de comunicación común además significa que cada núcleo adicional aumentado a la extensión del cable que envíe un mensaje debe viajar e incrementar la demanda para ese camino. Con un gran número de núcleos, "la sincronización alrededor de este anillo se sale de control", dice Smith. "Tú no puedes obtener el servicio cuando lo necesitas".


Por supuesto, aumentando más núcleos en una malla también fuerza al sistema. Incluso si tú tienes una rejilla de caminos proveyendo múltiples canales de comunicación, más núcleos aumentan la demanda para la red, y más demandas hacen los viajes de larga distancia más difíciles: Trata de manejar a través de Nueva York en hora punta. Aún así, la escala del ancho de banda de una interconexión tipo rejilla es superior a la de una tipo anillo, dice Mattina de Tilera. Él nota que el ancho de banda total disponible con una interconexión tipo malla aumenta tanto como los núcleos, pero con una interconexión tipo anillo, el ancho de banda total permanece constante incluso cuando la cantidad de núcleos se incrementa. El estado latente - el tiempo que toma para llevar un mensaje de un núcleo a otro - es además más favorable en un diseño de malla, dice Chen. En una interconexión tipo anillo, el estado latente se incrementa linealmente con el número de núcleos, dice, mientras en un diseño tipo malla se incrementa con la raíz cuadrada del número de núcleos. Reid Riedlinger, un ingeniero principal en Intel, indica que una interconexión tipo anillo tiene sus propios beneficios de escalabilidad. Recientemente Intel dio a conocer el diseño Poulson de 8 núcleos que emplea un anillo no solo para aumentar más núcleos sino también para aumentar la memoria en chip de fácil acceso, o caché. Siempre que el chip tenga la potencia y el espacio, dice Riedlinger, un anillo hace más fácil aumentar cada núcleo y caché como un módulo – un movimiento que exigiría estudios de validez y modificación lógica más complicados en una malla. “Aumentando una interrupción de anillo adicional tiene un muy pequeño impacto en estado latente, y la capacidad de caché adicional proveerá beneficios de rendimiento para muchas aplicaciones”, dice. Para aquellos quienes no estén construyendo una supercomputadora nacional, Riedlinger también apunta que una configuración tipo anillo es más fácilmente escalable en una dirección diferente. “Podrías comenzar con un diseño de 8 núcleos”, dice, “y luego, para adaptarlo a diferentes segmentos del mercado, podrías conseguir 4 núcleos de la mitad y venderlo como un producto diferente”. Elaborado por: JOSEPH CALAMIA Traducido por: LIZETH CASTILLO


Acceso Universal a la Energía en el Perú Reto y Realidad Julio Salvador Jácome Jsalvador37@yahoo.es

1. Introducción El concepto del acceso universal en los servicios públicos tiene sus primeras citas en la industria de las telecomunicaciones con la Ley de Telecomunicaciones de Estados Unidos de 1934, en la que se describía el concepto de accesibilidad de los servicios telefónicos, así como el de su disponibilidad universal en favor de los hogares que deseaban utilizar tales servicios. Este concepto luego ha sido trasladado a otros ámbitos y en especial a la energía, así las Naciones Unidas en su publicación Energy for a Sustainable Future (UN, 2010) considera el acceso universal a la energía como uno de los pilares para la lucha contra la pobreza. En el mismo sentido hay quienes consideran que el Acceso Universal a la Energía es un derecho (Lumbreras, Et.Al, 2007). En este marco es relevante destacar que el concepto del Acceso Universal a la Energía, ha sido incorporado en la reciente declaración de la Política Energética del Perú 1 , como uno de sus objetivos de política. El concepto como tal es muy ambicioso, como debe ser todo objetivo, y siendo así obliga a tomar decisiones y rumbos de acción diferentes a los que se han venido tomando en el sector, pues el énfasis sectorial se amplía y sus consecuencias también; lo cual debiera significar un cambio en las estrategias del sector y del Estado en general, pues trasciende el marco sectorial. El acceso a la energía se define objetivamente en la posibilidad económica que tienen los ciudadanos para adquirir la energía, por lo que el análisis se realiza desde la perspectiva micro, antes que al nivel agregado y de las grandes magnitudes, analizándose los condicionantes que enfrentan los usuarios finales en el momento de optar por las diferentes opciones energéticas que el mercado ofrece. Con el nivel de desarrollo económico existente y las tecnologías disponibles resulta contradictorio saber que 1.400 millones de personas en el mundo no tienen acceso a la electricidad (según la IEA, 2010), de los cuales el 85% está en las zonas rurales. Asimismo, se señala que si no se desarrollan políticas especialmente dedicadas a este fin, en el año 2030, la cifra será de 1.200 millones. En el mismo sentido, el número de personas que viene utilizando la biomasa tradicional (leña, bosta, etc.) es de 2.700 millones y de no hacer nada drástico, en el 2030 el número se incrementará a 2.800 millones de personas. En el país se ha logrado hasta el año 2010 un coeficiente de electrificación del 82%, lo cual significa que hay cerca de 6 millones de peruanos para quienes todavía la energía eléctrica no está disponible. En el mismo sentido, en el balance nacional de energía del 1

Decreto Supremo N° 064‐2010‐EM “Aprueban la Política Energética Nacional del Perú 2010 – 2040”.


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

año 2009, el 50% de la energía que consume el bloque residencial–comercial tiene como fuente la biomasa. Se ha evidenciado que existe una estrecha relación entre el consumo energético y el nivel de desarrollo de los países, por ello es que conjuntamente con las políticas de erradicación de la pobreza se tiene que adoptar medidas para facilitar el acceso tanto a la electricidad como a las energías limpias para la cocción de sus alimentos a los ciudadanos de las zonas económicamente deprimidas (IEA, 2010). En ese sentido, lo que se reclama es la participación de los Estados (WEC, 2006) para lograrlo; sin embargo, y a pesar de los grandes esfuerzos que éstos realizan para dotarles de redes eléctricas, resulta irónico comprobar que los pobladores de muchas de estas zonas no puedan acceder a ellas por su falta de capacidad de pago para conectarse, con lo cual la efectividad de estos esfuerzos se minimiza, deviniendo en insostenibles en el mediano y largo plazo.

2.

Acceso a la energía ¿Cuándo puede afirmarse que se tiene acceso universal a la energía? Responder a esta interrogante pasa en primer lugar por entender los conceptos de Disponibilidad y Accesibilidad (Oestmann & Dymond, 2009): a. Disponibilidad. Se relaciona con la oferta de los diferentes tipos de energía que el usuario tiene a su alcance. b. Accesibilidad. Es la capacidad del ciudadano para adquirir y hacer uso de la energía que tiene al alcance. Para poner el contexto económico de los conceptos antes indicados, en el año 2010, “el sector más pobre, compuesto por casi 3 millones de peruanos en pobreza extrema, tiene ingresos de apenas 72 soles mensuales” (Francke, 2010; INEI, 2010); por tanto la capacidad de los ciudadanos en pobreza para acceder a cualquier tipo de energía es muy limitada y como tal esfuerzos muy loables como el de la electrificación rural, lo que garantizan es la disponibilidad de la red eléctrica: “que pase por la puerta de la casa” mas no su acceso o uso efectivo. En consecuencia, se puede afirmar que se tiene acceso universal a la energía cuando se tiene la capacidad de adquisición y la disponibilidad del servicio, y ambos tienen que ser simultáneos, pues de otro modo no se logra concretar el objetivo.

3. La matriz energética desde la perspectiva del usuario En el Gráfico N° 01 se muestra la matriz energética elaborada por el MINEM en el año 2009, donde se puede observar que en el Perú los usuarios finales han accedido a las siguientes formas de energía.


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

Grafico N° 01

Fuente: (MINEM, 2010) Un hecho relevante es la importancia que tiene la biomasa a nivel del sector residencial y comercial, pues como se aprecia en términos oficiales se expresa que el 50% de los consumos energéticos proviene de la biomasa, 27% de la electricidad, el 22% de los hidrocarburos líquidos y el 1% del gas natural. El usuario final utiliza aquel servicio o bien que tenga disponible y la que sus posibilidades económicas le permitan adquirirlo. Considerando la capacidad adquisitiva de los ciudadanos de las zonas rurales, su alternativa económicamente viable es recurrir a la naturaleza (medio ambiente) derribar un árbol, cortarlo, secarlo y usarlo. ¿Energía sin costo? Esta conducta asociada a la capacidad de acceso, colisiona fuertemente con el tema de la conservación y protección ambiental. Se reconoce por esta vía que la pobreza es uno de los principales factores que contribuye en la degradación ambiental (Tolmos, R. 2004).

4. El Costo de la Accesibilidad y Disponibilidad a la Energía Se conoce que a nivel nacional una casa consume en promedio 1 balón de GLP (10 kg) al mes, a partir de ello si se realiza la evaluación económica de adquirir la misma cantidad de energía a partir de distintos combustibles alternativos, se obtiene el Gráfico N° 02, en el cual se enfatiza que el título biomasa, alude a la capacidad de recolección de fuentes naturales de energía disponibles, incluida la leña.


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

El ejercicio que se realiza con relación al gráfico indicado, considera la pregunta ¿Qué haría el usuario final si deseara adquirir uno de los tipos de energía disponibles? Para este caso considérese solamente lo valores finales de los energéticos disponibles. Para un ciudadano rural (sin capacidad adquisitiva), las únicas opciones viables son la biomasa, la naturaleza aún no cobra y el uso es local. Asimismo, dispone del GLP, pues este energético no requiere de redes físicas y puede ser transportado a lugares muy alejados, es portátil. Como puede notarse dispone de dos energéticos pero el acceso mayoritariamente es al de menor costo (biomasa). Para un ciudadano no rural, descartada la biomasa, su primera elección desde la perspectiva económica sería el gas natural; sin embargo, el acceso a dicho energético (costo de conexión y ductos internos) está alrededor de US$ 400. Su segunda mejor opción es la electricidad con tarifa que diferencia las horas de punta, su costo de acceso en este caso está alrededor de US$ 150 (costo de conexión y medidor especial). La tercera mejor opción es la electricidad vía la conexión normal que cualquier casa tiene y cuyo costo de acceso es US$ 90 (costo de conexión y medidor normal). Finalmente, tiene como opción el GLP que siendo el energético más caro tiene el menor costo de acceso US$ 20 (costo del cilindro vacío no requiere nada más). Grafico N° 02 El costo del Acceso S/.35

S/.0

GLP

Biomasa 20$

Electricidad1

S/. 26

0$

90$ BT5A

400$

Gas natural

150$ BT5B

Electricidad

S/.10

S/. 13

A partir de estas verificaciones se puede apreciar los dos anillos conceptuales de acceso a la energía anteriormente definidos. El primer anillo corresponde a los costos de la disponibilidad energética, cuyos costos en el sentido de las agujas del reloj se va


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

incrementando, y otro el de los costos accesibilidad que van descendiendo en el sentido de las agujas del reloj. Ver el Gráfico N° 03: mientras uno crece el otro decrece. Gráfico N° 03 Los Costos de Disponibilidad y Accesibilidad S/.0

GLP Biomasa

S/.35

20$

0$

400$

90$ BT5A

Electricidad

S/. 26

Gas natural 150$ BT5B

S/.10

S/. 13 Electricidad

Ciclos contrapuestos que determinan cómo se consume la energía en el país y en los países en general, pues la economía no hace diferencias, dependiendo de los costos relativos de disponibilidad y accesibilidad. En este sentido es necesario los mecanismos


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

de actuación del Estado como el colombiano para acceder al energético que se desea promover, pues de otro modo se dispone del energético mas no se puede acceder a él.

5. El Acceso Universal a la Energía Cuando se habla en el nivel micro y cuando la economía ajusta, se busca la solución accesible, que no necesariamente es la más económica. De allí que si se revisa el gráfico N° 04, se puede afirmar que a pesar que la electricidad tiene en el país cerca de 150 años, su grado de penetración calculada es sólo del 82%, cuando en los últimos 15 años el GLP ha ascendido en los mismos términos comparativos del 37% al 64%. Nótese que no hay un programa de ampliación de frontera de GLP, como si lo hay en el caso de la electricidad, su consumo creció por la accesibilidad y de la mano de la disponibilidad de dicho energético. Gráfico N° 04 COEFICIENTES DE ELECTRIFICACION, GLPIZACION Y GNIZACION 100%

90%

82.0% 80%

70%

61.6%

63.1%

64.8%

67.2%

68.5%

69.8%

70.2%

70.8%

71.1%

72.8%

51.9% 50%

45.3%

46.1%

1999

2000

41.2% 34.4%

74.1%

78.5%

64.9%

65.7%

2008

2009

67.9%

60.8%

60%

40%

73.4%

76.8%

43.4%

44.0%

2001

2002

45.9%

47.0%

2003

2004

54.7%

36.1%

30%

20%

10%

0% 1996

1997

1998

ELECTRIFICACION

GLPIZACION

2005

2006

2007

2010

GNIZACION

En la parte inferior del gráfico N° 04 se muestra la penetración del gas natural, es tan baja que no se distingue en el gráfico, tiene el costo de acceso más alto. Las velocidades de crecimiento indican que el GLP va a ritmo alto y sostenido soportado por su alta accesibilidad, mientras que en el caso eléctrico los costos de ampliar la frontera sólo pueden aumentar, pues cada vez será más caro hacer accesible la red de electricidad a los ciudadanos rurales, por lo menos con la tecnología actual de redes que se viene impulsando. 5.1. Eficiencia técnico económica ¿Cómo la electricidad que tiene como principal insumo el gas natural termina siendo competitiva con el gas natural visto desde la perspectiva del usuario final?


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

Energéticamente no es lo mismo quemar el gas natural para convertirlo en electricidad o quemarlo directamente en la hornilla de la cocina; en el primer caso en el proceso de conversión de energía térmica en eléctrica se pierde por lo menos el 65% de la energía primaria; a ello hay que añadir las pérdidas de transformación, transporte y distribución eléctricos, lo cual lleva en términos prácticos a que sólo aproximadamente el 30% de la energía primaria llegue hasta la cocina eléctrica. En el segundo caso, quemar directamente el gas natural en las cocinas significa que energéticamente se pierda sólo el 30% de la energía primaria que llega a las hornillas. Diferencias sustanciales en términos energéticos, sin embargo muy parecidos en términos económicos, ¿la razón? El precio del gas natural. Los precios del gas natural tienen valores definidos, que no los definió el mercado sino el contrato, y están definidos de tal manera que el gas natural para las cocinas es más caro que para generar electricidad. En resumen, si bien del punto de vista del usuario, los costos finales de la electricidad y el gas natural son semejantes, la eficiencia en el uso del recurso primario es muy baja. Gráfico N° 05 Evolución de la Matriz Energética en el país, 2000‐2010 Hidroenergía

Gas Natural

Petróleo

Bosta/Bagazo/Otros

Leña

Carbón/Coque

100% 13% 90% 3%

14%

14%

15%

13%

3%

3%

4%

6%

80%

13%

11%

14%

13%

12%

11%

10%

12%

17%

20%

19%

21%

51%

48%

49%

51%

50%

3%

3%

4%

12%

12%

12%

70% 60% 62% 50%

60%

59%

57%

58%

53%

40% 30% 4%

4%

5%

4%

20%

4%

10%

15%

15%

15%

4%

4%

5%

5%

5%

2000

2001

2002

2003

2004

0%

15%

15%

3%

3%

3%

15%

15%

5%

4%

5%

4%

4%

3%

2005

2006

2007

2008

2009

2010

15%

Las políticas energéticas pueden ser implícitas, como fue hasta hace poco en el país, lo cual no significa que no existan; las acciones gubernamentales terminan apoyando políticas que determinan el tipo de energético que el usuario final decidirá utilizar, es cuestión de determinar y diseñar el acceso a los mismos. Así, se aprecia el gráfico N° 5, se puede notar cómo a nivel agregado se ha impulsado


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

fuertemente el uso del gas natural a partir de fijar los precios del gas natural, y todo parece indicar que cada vez el país se hará más dependiente de este energético. Todos los demás energéticos retroceden a la incursión del gas natural, inclusive el hídrico. 5.2. Viabilidad del acceso a la energía Retomando el concepto del ciudadano usuario, y en especial del servicio eléctrico, se ha publicado recientemente los avances que se ha tenido sobre los proyectos electrificación rural, cuyos datos se muestran en el Cuadro N° 01, en el cual se da cuenta de los proyectos desarrollados, la inversión realizada y la población beneficiada. Dado que éste es un proceso de “ampliación de frontera eléctrica”, los poblados con mayor cantidad de habitantes se van atendiendo prioritariamente, siendo que van quedando los de menor cantidad de población y en consecuencia el esfuerzo por llegar en términos económicos favorables será cada vez mayor. Así, si se realiza la evaluación del valor global que el Estado realiza (Gobierno central y gobiernos regionales) para que los ciudadanos rurales tengan disponibilidad a la electricidad, se puede determinar que el costo en que ha incurrido el Estado por cada posible conexión tiene un valor mínimo de 782 US$ y un valor máximo de 4,628 US$, a juzgar por los datos publicados y calculados en el Cuadro N° 01. En este punto la reflexión es que, existe una política del Estado para promover el acceso a la electricidad; sin embargo, para ser coherente con el tercer objetivo del la Política Energética Nacional recientemente aprobada: “acceso universal al suministro energético”, el esfuerzo debiera encaminarse por la mejor forma de otorgar acceso a la energía como un todo y no sólo a un tipo de energético. Objetivamente la política hasta ahora ha sido de acceso universal a la electricidad, tal es así que se ha definido el indicador “coeficiente de electrificación” mediante el cual el Estado evalúa en forma permanente ese objetivo. En cumplimiento con este objetivo, se tiene el caso del departamento de Cerro de Pasco, donde el año 2010 se tuvo una mayor inversión por conexión emprendida por el Estado. Pasco es uno de los departamentos que está ubicado geográficamente en uno de los lugares más altos del país, convendría preguntarse ¿no sería mejor “abrigarlos” con energía, antes que realizar campañas, igualmente loables, de recolección de ropa y campañas periódicas?


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

Cuadro N° 01 Proyectos de Electrificación Rural ‐ 2010

Departamento Amazonas Ancash Apurímac Arequipa Ayacucho Cajamarca Cusco Huancavelica Huánuco Junín La Libertad Lambayeque Lima Loreto Madre de Dios Moquegua Pasco Piura Puno San Martín Tacna Tumbes Ucayali Total

Población Inversión beneficiada N° hogares US$/conex 13375130 11941 2388 2000 44717495 21242 4248 3759 7823795 11387 2277 1227 141133 316 63 798 67199600 58170 11634 2063 64501909 69969 13994 1646 38159214 43848 8770 1554 8007558 6872 1374 2081 75020200 80899 16180 1656 10439424 10649 2130 1751 47366225 56915 11383 1486 24839072 20475 4095 2166 4533748 4910 982 1649 49778827 82272 16454 1080 8182165 12835 2567 1138 1172139 1855 371 1128 3402669 1313 263 4628 73459628 83930 16786 1563 32473209 33747 6749 1718 19855836 32777 6555 1082 10776675 24609 4922 782 2089227 1218 244 3063 17506340 26200 5240 1193 624821218 698349 139670

Sólo para efectos de hacer números: si esos US$ 4.628 de poner a disposición de la familia beneficiada una red de electricidad, a la que en adición debe abonar un monto por la conexión y un monto mensual por el consumo, el monto indicado en términos del energía proveniente de GLP, cuyo costo es de US$ 12 por balón, alcanzaría para disponer de un balón mensual durante 32 años, sin mayor costo. Pero si la idea es darles electricidad, es necesario evaluar el límite de la tecnología de las redes eléctricas y ver las otras alternativas de provisión de electricidad. El sector dispone por los menos de dos fondos y mecanismos impositivos que viene administrando con relación al acceso a la energía, no necesariamente universal, el fondo de compensación de combustibles, el fondo de electrificación rural y tasas impositivas diferenciadas para los combustibles, si el énfasis es del


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

acceso universal, el fondo debería considerarse como un único fondo, para una estrategia común.

6. La matriz Energética Alternativa a. Visión Continuista ¿Lograr que el coeficiente de electrificación sea el 100%? ¿Es ésa la meta? Si se trata de ello pues quedan cerca de dos millones de viviendas por darles la disponibilidad del servicio eléctrico, tomando el valor promedio de lo invertido por el Estado en el año 2010, que asciende a 2000 US$/vivienda, el monto necesario estaría por los 4,000 Millones de US$, para lograr ese propósito. No debe olvidarse que cuando más se avanza, los costos se van incrementando y como tal este valor sería como un valor mínimo. Quedaría sin embargo lograr que esas viviendas puedan acceder al servicio de electricidad, haciendo que cada una de ellas pague US$ 80 para la conexión y luego los pagos mensuales por el consumo. Nótese que no es la más económica de todas las opciones disponibles. b. Visión alternativa Un modelo de visión sostenible sectorial y alineada con el objetivo nacional de erradicar la extrema pobreza, tiene que ver con dos líneas de acción claramente definidas y propuestas por (IEA, 2010) acceso universal a la electricidad y acceso universal a formas limpias de cocción. En tal sentido y adecuando los términos de la propuesta referida, se muestra el Cuadro N° 02, en el cual se traza la visión del 2030 y el reto que se cumpliría antes de esa fecha. La visión tradicional de querer llegar a todos los lugares sólo con un energético, debe ser superada para dar lugar a enfoques integrales, así de una adaptación de la terminología y del objetivo formulado en (IEA, 2010) el acceso universal podría formularse en los términos indicados en el Cuadro N° 2. Cuadro N° 02 Objetivo Acceso a la electricidad

Acceso a la fuentes de cocción limpias

2030 Rural 100% de acceso ‐ 30% conectado a la red interconectada nacional. ‐ 70% conectado a ‐ 75% PSE ‐ 25% Aislados 100% acceso ‐ 30% cocinas con GLP ‐ 15% cocinas a biogas ‐ 55% cocinas mejoradas

Urbano 100% acceso a la red interconectada

100% acceso a la red de gas


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

Fuente: IEA (2010) Atención especial merecen las cocinas con biogas, dado que éstas pueden incluirse en un programa mucho más ambicioso en el cual se integre la energía como un subproducto de proyectos con biodigestores, en los cuales el insumo por lo general son las excretas de los animales y residuos vegetales, cuyos productos son gas natural y fertilizantes. En este segundo caso son insumos muy ricos para abonar las plantas que consumirán los animales y el ciclo se podría cerrar. Éste se presenta como un caso donde el esfuerzo por dar energía transciende el sector, pues el proyecto cuya factibilidad técnica en piloto se dispone en el país, puede dar lugar a la generación de proteínas, energía y fertilizantes, el reto es hacerlos sostenibles.

5. Conclusiones ‐

‐ ‐

El objetivo de política energética del Perú de dar acceso universal a la energía, cambia radicalmente la forma de conceptualizar e implementar los planes del Estado para atender las necesidades de energía de los ciudadanos de las zonas aisladas, rurales y urbano‐marginales. No es suficiente garantizar la disponibilidad de energía, es necesario garantizar la accesibilidad para usar dicha energía, buscando en adición que esta sea sostenible mediante mecanismos sostenibles. Actualmente los costos de accesibilidad están determinando e impulsando el consumo de los energéticos más caros. Los indicadores sectoriales, tales como “coeficiente de electrificación”, tienen que incluir bajo la nueva política las demás opciones energéticas. A la fecha, los tres grandes protagonistas energéticos con alto valor de mercado (electricidad, gas natural y GLP) tienen diferentes costos de acceso para el usuario y ello determina que las energías más caras que son las que tienen menores costos de acceso, sean las más frecuentemente utilizadas. Así, en orden ascendente de costos está el gas natural, la electricidad y el GLP. El objetivo de lograr el acceso universal a la energía conlleva un objetivo mayor que es el de erradicación de pobreza y generar el desarrollo de los pueblos, la forma cómo el sector contribuye puede considerar, tal como ha sido señalado (IEA, 2010), en dos vías el acceso universal a la electricidad y el acceso a formas limpias de cocción. Finalmente los costos de accesibilidad y disponibilidad de los energéticos determinan el balance nacional, por tanto, si el objetivo es el acceso universal a la energía los Fondos y Recursos deben tener una orientación distinta a impulsar un energético en particular y promover el mix de ofertas energéticas para hacer del reto del acceso universal de la energía una realidad. En esta línea de pensamiento el esfuerzo por dar acceso universal a la energía debe considerar una mayor coordinación intersectorial. La energía, no ha sido declarado como un derecho, sin embargo sin ella no se pueden asegurar se brinden los servicios que si han sido considerados como tales.


Acceso Universal a la Energía en el Perú

por: Julio Salvador Jácome

6. Bibliografía Francke, P. (2010) Disponible en: http://www.larepublica.pe/actualidad ‐economica‐ pedro‐francke/13/06/2010/distribucion‐la‐verdad‐incomoda IEA, (2010). Energy Poverty. How to make modern energy Access universal?. UNDP/UNIDO. OECD. September 2010. INEI (2010). Perú. Incidencia de la pobreza extrema 2001‐2010. Encuesta Nacional de Hogares 2001‐2010. Lumbreras, J. Et. Al. (2007). Derechos humanos y acceso universal a la Ecosostenible. N° 25‐Marzo 2007. Cámara Valencia. España.

energía.

MINEM, (2010). Balance Nacional de Energía 2009. Ministerio de Energía y Minas. Perú. 2010. Oestmann, S. & Dymond, A. (2009) Acceso y Servicio Universal (ASU). Modulo 4. Conjunto de herramientas para la reglamentación de las TIC. Information for Development (Info DEV) & International Telecommunication Union (ITU). Tolmos, R. (2004). Desafíos y propuestas para la implementación más efectiva de instrumentos económicos en la gestión ambiental de América Latina y el Caribe: El Caso de Perú. CEPAL. Santiago de Chile. UN (2010) Energy for a sustainable future. The secretary – general´s advisory group on energy and climate change (AGECC) – Summary report and recommendations. April. 2010. New York. WEC (2006). Abril. 2006.

América Latina. Pobreza energética – Alternativas de alivio. Informe.


EFICIENCIA ENERGÉTICA La creciente preocupación mundial acerca del futuro energético de nuestro planeta ha establecido un cuestionamiento de los patrones de producción, transmisión, distribución y consumo de la energía. Existe hoy día la certeza de la urgente necesidad de garantizar la seguridad energética, controlar la contaminación actual que se está dando por algunas fuentes de energía, presentar alternativas de solución al cambio climático. Cada día dañamos nuestro clima utilizando combustibles fósiles (petróleo, carbón y gas) para electricidad, transporte e industria. La generación de energía a partir de estos combustibles genera mundialmente efectos como el invernadero.


El cambio climático ya está afectando nuestras vidas y se prevé que destruirá el medio ambiente de diversos países así como numerosos ecosistemas y especies en los próximos años. Por esta razón nosotros como ingenieros que somos debemos desarrollar proyectos que cambien los patrones en producción y consumo de energía y esto debe comenzar cuanto antes. Necesitamos una transformación completa de la forma de generar, distribuir y consumir la energía. Este gran cambio debe efectuarse contemplando el uso de las energías renovables existentes y la adopción de nuevas medidas de eficiencia energética.

Cabe destacar que la participación de La Rama Estudiantil IEEE en conjunto ABB se extiende también al ciclo de conferencias en universidades, con el tema “Eficiencia Energética: Una alternativa frente al cambio climático”, que estuvo a cargo de Lourdes Cárdenas, Coordinadora de Sistemas de Gestión Ambiental - ABB. Se realizaron conferencias en las principales universidades del Perú: Universidad Nacional de Ingeniería, Pontificia Universidad Católica del Perú, Universidad Nacional del Callao, Universidad Nacional Mayor de San Marcos, capacitando a más de 150 alumnos, en general.

Por este motivo la Universidad Nacional de Ingeniería, a través del Capítulo de Energía y Potencia (PES) de la Rama Estudiantil IEEE, propone como primer paso “I Concurso de Aplicación en Eficiencia Energética”, en el marco del III Simposium de Ingeniería Eléctrica. Gracias al patrocinio de la empresa ABB, líder global de tecnologías de energía y automatización. Objetivo: Impulsar y difundir los avances tecnológicos que presentan los proyectos sobre el uso eficiente de energía, para la aplicación y resolución de problemas industriales, ecológicos, sociales entre otros de nuestra realidad nacional. Podrán participar estudiantes y egresados de las escuelas profesionales de Ingeniería Eléctrica, Electrónica, Mecánica, y ramas afines.  

Proyectos son recibidos desde el día lunes 4 de julio hasta el viernes 30 de septiembre del 2011. Premios: visita guiada a una planta de fabricación de ABB en Brasil, prácticas pre-profesionales en ABB en el Perú, equipamiento para el laboratorio eléctrico de la universidad o institución educativa a la cual los ganadores representen y entrenamiento gratuito en el “ABB Training Center”

Se han establecido dos categorías para la participación: Categoría Pre-grado, conformada por estudiantes de las universidades del Perú de las escuelas profesionales de Ingeniería Mecánica, Ingeniería Eléctrica e Ingeniería Electrónica y ramas afines. Y la Categoría Egresados, en la que podrán participar los profesionales de empresas del sector eléctrico (generación y distribución) e industrial (industria minera, de hidrocarburos, cementera, etc.)

El I Concurso de Aplicación en Eficiencia Energética, ha sido incluido desde el año 2011 en el III Simposium de Ingeniería Eléctrica, evento organizado por la Rama Estudiantil IEEE de la Universidad Nacional de Ingeniería a través del Capítulo Estudiantil de Energía y Potencia (PES) Cabe señalar que el Simposium de Ingeniería Eléctrica reúne anualmente a más de 200 participantes de distintas universidades y consiste de seis conferencias magistrales y visitas técnicas a las instalaciones de compañías del sector eléctrico. Los perfiles de proyectos son recibidos desde el lunes 4 de julio hasta el viernes 30 de septiembre, en la siguiente dirección: pes.ieee.uni@gmail.com


Día 1: 8 de Agosto

UNIVERSIDAD NACIONAL DE INGENIERIA

reieee.uni.edu.pe Rama Estudiantil de la UNI


Día 2: 9 de Agosto

UNIVERSIDAD NACIONAL DE INGENIERIA

reieee.uni.edu.pe Rama Estudiantil de la UNI


Feria Tecnol贸gica

UNIVERSIDAD NACIONAL DE INGENIERIA

reieee.uni.edu.pe Rama Estudiantil de la UNI


Día 3: 10 de Agosto

UNIVERSIDAD NACIONAL DE INGENIERIA

reieee.uni.edu.pe Rama Estudiantil de la UNI


Día 4: 11 de Agosto

UNIVERSIDAD NACIONAL DE INGENIERIA

reieee.uni.edu.pe Rama Estudiantil de la UNI


Día 5: 12 de Agosto

UNIVERSIDAD NACIONAL DE INGENIERIA

reieee.uni.edu.pe Rama Estudiantil de la UNI


REALIDAD VIRTUAL El tonto sentido del olfato y el sentido del gusto Lo que miras y hueles, es lo que pruebas. Video, sonido y las recientes experiencias haciendo uso del tacto son comúnmente empleadas para crear y mejorar las experiencias de realidad virtual. Sin embargo, el sentido del olfato es raramente un factor. Un pequeño grupo de investigadores de la Universidad de Tokio están trabajando para cambiar eso mediante la integración del sentido del olfato y de la vista de manera que alteren el sentido del gusto de una persona. Sus sistemas de Realidad Virtual fueron capaces de confundir a las personas que estaban comiendo una simple galleta haciéndolas sentir que estaban degustando el sabor que ellos habían elegido. El grupo está haciendo uso del hecho que el gusto es afectado por lo que vemos, escuchamos, olemos, entre otros. “Nosotros estamos usando las influencias de estas modalidades sensoriales para crear un seudodegustador pantalla”, dijo TakujiNarumi, un profesor asistente en la Universidad de Tokio. “El objetivo es tener experienciasdiferentes en tema de gustos a través de la realidad aumentada con solo cambiar el estímulo visual y olfativo que reciben”.

Click para ver el video

Para hacer esto, el equipo de Tokio creó un sistema denominado el Meta Cookie, en el cual una simple galleta fue estampada con un marcador editable que permitía a la máquina de visión de software rastrearla fácilmente. El experimento también usó una computadora controladora olfativa con pantalla sobre la cabeza, o HMD, el cual incorpora un sistema de imágenes superpuestas en la galleta y un marcador de la unidad de detección. La unidad olfativa emplea siete botellas plásticas llenas de aroma equipadas con bombas de aire y tubos que entregan aromas individuales a la nariz de las personas. Una bomba de aire adicional es usada para diluir la cantidad de aromas que el sujeto recibe. Las personas que participaron en el experimento fueron consultadas para elegir el sabor de la galleta

pero solo se les dio una simple galleta y se les indicó que la observaran antes de comerla. Una cámara web en el marcador de la unidad de detección tomó el modelo de la galleta y calculó su posición y orientación, es así como se obtuvo la distancia entre la galleta y la nariz de la persona. Esta información fue usada para ajustar la imagen de la galleta, que ya había sido cubierta con una imagen del sabor elegido. Una segunda cámara web se posicionó cerca de la nariz de la persona, apuntando hacia abajo, detectó el punto en el que la galleta se acercó a la boca de la persona y señaló la unidad olfativa para liberar el olor. Mediante la mezcla de aire con el aroma, el sistema pudo ajustar la fuerza del olor a 127 diferentes niveles y hacer que el olor se incremente conforme la galleta se acercaba a la boca. En los últimos ensayos, 43 participantes fueron consultados para comer una o dos galletas y luego escribir acerca de sus experiencias gustativas. “En 72.6 por ciento de los ensayos, los participantes sintieron que ellos degustaron el tipo de galleta que ellos habían elegido”, dijo Narumi. Ahora, los investigadores están trabajando en hacer el HMD olfativo más pequeño mediante el reemplazo de las botellas de plástico con aroma por tecnología inkjet. Ellos también están promoviendo la calidad de superposición de imágenes y buscando adherir una sensación de textura a través del uso de sonido. En cuanto a aplicaciones prácticas, Narumi ve la tecnología siendo usada para reforzar programas dietéticos, por ejemplo el consumo de alimentos blandos que parecen comida más sabrosa, especialmente para pacientes hospitalizados. Él dijo que esto podría pasar en aproximadamente 5 años. Mucho más allá en el futuro, él nos menciona que esta tecnología podría ser usada para el entretenimiento en casa “para aumentar el placer de mirar televisión o cuando se jueguen videojuegos”. Elaborado por: JOHN VOID Traducido por: PAMELA CRISÓSTOMO

CÓMETELO: Trucos gráficos y una computadora-controlador olfativa hace que una simple galleta sepa como almendra, fresa o limón.


Preliminary Internetworking Simulation of the QB50 Cubesat Constellation Hector Bedon, Carlos Negron, Jorge Llantoy, Center for Information and Communications Technologies (CTIC-UNI) National University of Engineering (UNI), Lima, Peru

Carlos Miguel Nieto Telematics Engineering Department Technical University of Madrid (UPM), Madrid, Spain

Cem Ozan Asma von Karman Institute, Rhode-St-Genèse, Belgium Abstract—Constellations of small satellites now become a great alternative for scientific missions to study Earth. As a result, they should be considered appropriate communication mechanisms to retrieve the data collected. This article studies the possibility to implement TCP and UDP over IP through the use of intersatellite links and distributed ground stations, such as Genso project. We evaluate parameters like delay end-to-end and throughput for different configurations of the QB50 constellation proposed by von Karman Institute for Fluids Dynamics (VKI). Cubesats; satellite network; cubesat constellation; space technology; wireless sensor networks.

I.

INTRODUCTION

Since the idea of CubeSat developments made mainly by the universities of Stanford and California Technical University in 2000 [1], in recent years, the number of projects involving the development of low-cost small satellites that make use of commercial products (COTS) has increased [2]. Particularly, in the Latin American region we have the experience of Libertad I [3] and Chasqui I [4,5]; the first one was launched and operated successfully and the latter is currently at the production phase. Hence, the chances of raising projects involving constellations of satellites are becoming more affordable, as is the case of the QB50 [6], an initiative of the von Karman Institute for Fluids Dynamics (VKI). On the other hand the use of communication mechanisms similar to those used by the Internet has been experimenting in space through some successful projects such as the CLEO project [7]. Within the efficient transport mechanisms are being evaluated include those based on Delay Tolerant Networks (DTN) [8] one of which is Saratoga [9] which is a lightweight transport protocol based on User Datagram Protocol (UDP / IP ) and those seeking improvements to the transport protocol TCP [10], but all of these transmission mechanisms are oriented to commercial satellites (commercial broadband satellites) but are not designed for satellite communication with few limitations such as CubeSats. Hence our objective is to evaluate the communication mechanisms that exist on the Internet for a constellation of satellites that have reduced communication

978-1-4244-7173-7/10/$26.00 ©2010 IEEE

capabilities such as the constellation of satellites QB50. Our contribution is focused on generating and simulating two scenarios of this constellation to assess throughput and delay parameters as a function of link bandwidth intersatelital and thus provide a better understanding of the communication aspects of the constellation referred. The paper is organized as follows. Section 2 describes the advantages of CubeSat networks and major initiatives; in Section 3 defines the project QB50 objectives and Section 4 performs an analysis of the transport mechanisms TCP / UDP over satellite links. Section 5 describes the simulation environment used in the simulation. In section 6 we discuss the results and finally in section 7 we show the conclusions of this paper. II.

CUBESAT NETWORKS

A single CubeSat is simply too small to also carry payloads or sensors for significant scientific research. Hence, for the universities the main objective of developing, launching and operating a CubeSat is educational. However, when combining a large number of CubeSats with identical sensors into a network, in addition to the educational value, fundamental scientific questions can be addressed which are inaccessible otherwise. A double (10x10x20 cm3) or triple (10x10x30 cm3) unit CubeSat can include more sophisticated payloads and higher power budget that can be considered as a powerful probe to perform in-situ measurements. Networks of CubeSats have been under discussion in the CubeSat community for several years, but so far no university, institution or space agency has taken the initiative to set up and coordinate such a powerful network. Space agencies are not pursuing a multi-spacecraft network for in-situ measurements in the thermosphere at 100 - 400 km altitude because the cost of a network of 30 - 50 satellites built to the usual industrial standards would be extremely high (over a billion Euros) and not justifiable in view of the limited orbital lifetime. A network of satellites for in-situ measurements in the thermosphere can only be realised by using very low-cost


satellites, and for this purpose, CubeSats are by far the best (if not the only) candidates. The following networks have been suggested as the most interesting (in the order of increasing distance from Earth): •

Upper atmosphere and re-entry research at the lowest possible orbital altitude with the aim to assure a CubeSat nominal lifetime of three months minimum.

Continuous Earth observation at lower altitudes for homeland security and early warning purposes

Alternative communication networks or technology demonstration.

Continuous environmental monitoring (e.g. wildfires, oil spills) by a network of about 30 CubeSats in lowEarth orbits.

Plasma physics in the magnetosphere (next generation Cluster), a network of about 30 CubeSats with a mother spacecraft for communication purposes. III.

THE QB50 PROJECT

QB50 is the first project that considers a network of CubeSats to be launched to the upper atmosphere. QB50 has the scientific objective to study in-situ the temporal and spatial variations of a number of key parameters in the lower thermosphere (between 330 and 90 km of altitude) with a network of 50 CubeSats, separated by a few hundred kilometers and carrying identical sensors. It will also study the re-entry process by measuring a number of key parameters during re-entry and by comparing predicted and actual CubeSat trajectories and orbital lifetimes. Space agencies are not pursuing a multi-spacecraft network for in-situ measurements in the lower thermosphere because the cost of a network of 50 satellites built to industrial standards would be extremely high and not justifiable in view of the limited orbital lifetime. No atmospheric network mission for in-situ measurements has been carried out in the past or is planned for the future. A network of satellites for in-situ measurements in the lower thermosphere can only be realized by using very low cost satellites, and CubeSats are the only realistic option. For the QB50 network, double CubeSats (10x10x20 cm3) are foreseen, with one half providing the usual satellite functions and the other half accommodating a set of identical sensors for lower thermosphere and re-entry research. Compared with other CubeSat networks that are under discussion (continuous environmental monitoring, space weather and plasma physics in the magnetosphere) QB50 has the following advantages: •

The lifetime of a CubeSat in the envisaged low-Earth orbit will only be three months, i.e. much less than the 25 years stipulated by international requirements related to space debris.

A low-Earth orbit allows high data rates because of the small communication distances involved.

In their low-Earth orbits the CubeSats will be below the Earth’s radiation belts, which is very important

because CubeSats use low-cost commercial off the shelf (COTS) components. IV.

TCP/UDP OVER CONSTELLATIONS

Small satellites communications for the QB50 constellation face several problems due to the intrinsic characteristics of satellite links, like the low ISL and GSL transmission bitrate, the high and variable value of the RTT (Round-Trip Time) and the significant error introduced in the link. The error rate will depend on the communication system features (e.g. the link distance, coding and modulation) and the operational conditions (like rain or humidity). These aspects greatly limit the performance of the data transport (transport layer). In the standard versions of the TCP protocols the RTT allows to measure the satellite channel, evaluating the congestion and influencing in the variation of the congestion window. Packet loss due to congestion or channel errors would imply packet retransmission. The increment of the congestion window size is rather slow, because ACK's should arrive first for this to be possible. First, that increment performs in an exponential way depending of the number of received ACK's (this behavior is called "Slow Start") until reaching a certain threshold level, when it begins a linear and more quiet increment (called "Fast Recovery"), thus avoiding congestion. TCP Westwood [11] was introduced with the purpose of limiting the consequences of the losses introduced by a wireless channel. It establishes the threshold level (sstresh) as a measurement of the available bandwidth, using the arrival rate of the ACK's, this way optimizing the variation of the Slow Start and Fast Recovery (called "Faster Recovery" for Westwood version), resulting in a better efficiency. There is a performance modification for all TCP standards, called "NewReno" Modification, which optimizes even more the Faster Recovery. TCP Westwood with NewReno features exists and is analyzed in this document. In contrast to TCP (which is always requesting receipt acknowledgements), UDP is a connectionless protocol and doesn't guarantee any reliability for the packets delivery. Also, the lack of use of ACK's doesn't allow the protocol to sense the efficiency, so the data transmission rate is never modified. UDP and TCP Westwood with NewReno features are compared in this document. V. SIMULATION ENVIRONMENT AND TOPOLOGY Two different network topologies for the QB50 constellation are evaluated in this document. The first scenary is a ring of 50 equally spaced CubeSats. In the second scenary, we analyze a 10000 km long CubeSat string. The criteria for the selection of these scenarios are based on the preliminary studies being held recently by the QB50 project researchers [12,13]. For the preparation of this paper the Tcl-based ns-2 network simulator [14] (with an add-on called NS-Sat-Plot and created by Lloyd Wood) and SaVi (Satellite Visualization software, based on Linux OS) were used.The first allowed for the simulation of the proposed environments. The latter helped for the visualization and animation of the proposed satellite


constellations. For the simulation of the aforementioned environments the design of Tcl scripts for ns-2 was needed. These scripts were based on the following facts: 1.

The constellation is composed of only one polar plane. The orbit height will be of 300 km and the inclinationof 79 degrees. Nine ground stations distributed over the Earth. Most of them are from GENSO Project [15] and one is being currently implemented at UNI and it is part of the Peruvian Satellite Network (PSN) [16]. Both uplink and downlink bitrates are of 9600 bps. The ISL (inter-satellite links) bitrate will take the following differ ent values in the simulations: 0.5 kbps, 1 kbps, 3 kbps, 6 kbps, 8 kbps and 10 kbps. Two transport protocols will be evaluated: First, UDP; then, TCP Westwood with New Reno features (Westwood-NR). The traffic will be "CBR" (Constant Bit Rate), composed of packets of 210 bytes sent at one-second intervals. When inserted in a transport protocol, these packets are still of 210 bytes at UDP. When TCP, the length is 1040 bytes. Link Layer Protocol used is a basic one for NS, with no special features and neither FEC nor ARQ models implemented. An random error model is introduced too. The error probability for each interface is 10 -3; i.e. 0.1%. This means that in each interface, there is a probability of 0.1% in receiving a corrupted packet (this, in our analysis, would become a loss packet because there are no error recovery mechanisms after the packet is received). The queue has a limit of 50 packets and the queuing policy is TailDrop (if the queue is full, packets arriving are discarded). The traffic consists in five CBR flows originating in satellites numbered 1, 10, 20, 30 and 40, and destined to Lima. For TCP, Lima sends standard acknowledgements (ACK's). A TCP Westwood-NR ns-2 package of algorithms created and edited by University of California, L.A. (UCLA) is used in the simulation [17]. The instants of beginning of the flows are shown in Table I, and are different for both scenarios.

2.

3. 4. 5. 6.

7.

8. 9.

TABLE I. Source

BEGINNING MOMENTS FOR TRAFFIC FLOWS Satellite Constellation First scenario time

Second scenario time

Satellite 1

1s

1s

Satellite 2

200s

100s

Satellite 3

400s

200s

Satellite 4

800s

400s

Satellite 5

1000s

500s

Satellite 1 is placed in the middle of the topology always, and it's near Lima at the beginning of the simulation. In those seconds, satellites 10 and 20 are northwards; and 30 a 40 are southwards. It will happen that packets will travel across the ISL until they find a satellite as close to Lima as possible and this will strongly influence in the results. The different topologies can be observed in Fig. 1 and Fig. 2, generated with SaVi.

Figure 1. First satellite topology to be analyzed.

Figure 2. Second satellite topology to be analyzed, a 10000 km long satellite string

In this document, three parameters are measured: a) Throughput arriving to Lima ground station (total number of bytes received by Lima for a time). b) Delay of the packets for the flow from Satellite 1 until they are received in Lima. c) Packet Loss rate (due to channel errors or congestion only), showing also the total analyzed packets, received packets and lost packets. For UDP protocol case, throughput is measured with an algorithm that measures the total bytes received with a time basis of every 40 seconds for UDP and 200 (for Topology 1) and 140 (for Topology 2) seconds for TCP. The total simulation time will be of 1500 seconds for the first topology and 700 seconds for the latter (this is because after 700 seconds the satellites lose line of sight with any ground station for several seconds). Losses due to lack of line of sight for Topology 2 are not considered in the packet loss rate. VI.

SIMULATION RESULTS

1) First scenario (50 Cubesats equally spaced around the Earth): First of all, let's analyze the results for UDP in this first network topology. When varying the ISL bitrate, it results in different throughput curves, being shown in Fig. 3. Some remarks should be done here.


It can be observed that new traffic flows (first at 200, then 400, 800, and finally 1000 seconds) give staggered rises to each throughput curve in the graph. It must also be commented that, when observing the ns-2 trace files, as soon as packets are produced by the CBR sources, they are sent. In addition, the throughput doesn't make any significant change when incrementing the ISL bitrate capacity from 6 kbps to 10 kbps; because the 6 kbps capacity is large enough to carry the traffic. The average traffic flow bitrate per source will be of 1680 bps, or 1.68 kbps. Given that there are five flows, the total downlink rate should be 8.4 kbps. A capacity of 6 kbps in the ISL bitrate, as commented, is large enough to achieve this, because it should carry as much as thrice the value of 1.68 kbps, i.e. 5.04 kbps (just thrice because flows are distributed through the shortest paths and the downlink satellite receives three flows at one side and two at the opposite). Finally, let’s focus just on the first ISL bitrate values (0.5, 1 and 3 kbps). For these values there are peaks observed between 1000 and 1200 seconds in the simulation. This is because the current downlink satellite is a traffic source satellite. Thus, the ISL maximum rate can’t limit the additional 1.68 kbps originated by the downlink satellite. Thus, the throughput is added 1.68 kbps for this period of time. When analyzing the Delay from Satellite 1 to Lima vs. Packet ID, the result is shown in Fig. 4. When observing the graphs it can be commented. For the latter three values, the graph shows a subtle variation in the delay. Also, The increase in the delay becomes more subtle as time goes by, and it relies on the fact that first, the satellite 1 (which is evaluated in this graph and according to the ns-2 trace files), sends its packets to its neighbor, satellite 50, which is the first downlink satellite (one hop). After some seconds, the downlink satellite is 49 (two hops), then satellite 48 and so on. For the total simulation time considered, it should finally be remarked that 10 kbps is the best ISL rate for addressing delay issues.

Figure 4: Delay from Satellite 1 to Lima vs. Time for UDP in Topology 1.

Finally, the results for the packet loss are stated below. Due to the lack of retransmissions and congestion mechanisms when using UDP, error channels and congestion can seriously affect the communications. Also, for a satellite being a source of traffic, it may discard some packets from its queue depending on the amount of bits incoming from the ISL links. It can be seen that the packet loss is greatly reduced since ISL bitrate limit is 6 kbps, because it doesn’t limit the traffic between satellites anymore. Thus, 6, 8 or 10 kbps are enough for an adequate performance of UDP in this first scenario. TABLE II. ISL bitrate limit (kbps) 0.5 1 3 6 8 10

PACKET STATISTICS FOR UDP ON TOPOLOGY 1 Packet Statistics Total Packets

Received

Lost

Packet Loss (%)

4770 4771 4875 5077 5081 5084

754 1444 3868 5069 5073 5076

4016 3327 1007 8 8 8

84.1929 69.7338 20.6564 0.1576 0.1574 0.1574

When performing the TCP analysis, the throughput graph, shown in Fig. 5, looks a bit odder than the one for UDP. In TCP there are some peaks in the graph because of the congestion window mechanism, which varies the time and amount of sent packets depending on the traffic it perceives from measuring the acknowledgements return rate. It can be seen that the throughput increases to 8 kbps since the beginning, this is because the packets sent are much bigger and the TCP mechanisms try to optimize the use of the available bandwidth. In the beginning, according to the ns-2 trace files, TCP send packets of 40 bytes, in order to set up a connection with Lima. This way, first CBR data is buffered by TCP mechanisms and, as soon as the connection is established, it begins sending the data in the 1040 bytes long information packets.

Figure 3: Throughput vs. Time for UDP in Topology 1.

The TCP delay results are shown in Fig. 6. Here, the delay for ISL values of 500 bps and 1 kbps isn’t entirely shown in order to emphasize the results for 3 kbps, 6 kbps and so on. The delay is remarkably different to the one in UDP. It’s much bigger for many of the sent packets, because the congestion mechanisms buffer the delayed 1040 bytes long packets. The TCP thus demonstrates to yield long packet delays due to the


packet length and bits overhead. Nevertheless, the packet loss is always greatly reduced, this being a TCP intrinsic feature.

Figure 7: Throughput vs. Time for UDP in Topology 2. Figure 5: Throughput vs. Time for TCP in Topology 1.

Figure 8: Delay from Satellite 1 to Lima vs. Time for UDP in Topology 2. Figure 6: Delay from Satellite 1 to Lima vs. Time for TCP in Topology 1.

2) Second scenario (A Cubesat string 10000 km long): As a first glance for this topology, the variation in UDP throughput as a result of changing the ISL bitrate limit is shown in Fig. 7. As for the first scenario, the throughput increases in a staggered way, due to new traffic flows in other satellites. Each step in the graph relies in an increment of the traffic amount increase of 1.68 kbps. Also, the augment in the ISL value greatly raises the throughput, till 6 kbps. From this value on, the throughput doesn't show any significant variation anymore, for the same reasons than the first topology. Nevertheless, the performance begins to fall at approximately 540 seconds, given that the topology is a string and the information is sent towards one of the ends, being this end the only part of the constellation to be in the ground station's line of sight. This reduction causes saturation in the ISL links if these don't have enough capacity. Only the 10 kbps ISL link is able to cope with this fact. The delay results are displayed in Fig. 8. The gradual increment in the ISL bitrate value provokes a significant reduction in the delay for 500 bps to 3 kbps, which is not shown in the graph for the same reasons as topology 1. For the greater ISL values, the delay is even more reduced, reaching 5 seconds as the maximum delay. It can be observed too that the delay for lower ISL values is considerably great, which coincide with the throughput graph, where these ISL values don't exceed the total traffic produced when all this traffic is sent, in one direction, towards the downlink satellite.

By the way, as stated in Table III, it's worth remarking again that a large ISL rate causes less packet losses, just as in the first topology. For low ISL values, a lot of packets are lost, especially for 500 bps and 1 kbps. Also, when a satellite is a traffic source, it may drop packets due to its saturated queue, because it receives packets from ISL links apart from producing them, as for the first scenario. Finally, channel loss influences in the packet loss rate too. TABLE III. ISL bitrate limit (kbps) 0.5 1 3 6 8 10

PACKET STATISTICS FOR TOPOLOGY 2

Packet Statistics Total Packets

Received

Lost

Packet Loss (%)

1943 1928 1966 1976 1965 1984

207 412 1101 1770 1916 1982

1736 1516 865 206 49 2

89.3464 78.6307 43.998 10.4251 2.49364 0.100806

In order to prove reliability for data transmission, now a TCP analysis for this topology is done. Results for throughput are shown in Figure 9. Here, each curve tries to keep a constant and great bitrate. The same way, when observing the ns-2 trace files, the same for the other topology, many packets aren't sent automatically, but they are buffered instead in order to send them later. Also, the network performance is affected, reducing the throughput, provided that of the topology is a string, for both UDP and TCP protocols.


Finally, the delay results are shown in Fig. 10. The delay rises with the packet ID (thus, throughout time). This is a result of new traffic flows, as for the aforementioned cases, which increase the amount of sent data (this brings more acknowledgements for each traffic flow to be delayed). In contrast, the increment in the ISL again reduces the delay, greatly at first, and slightly for the greater ISL values. As for topology 1, delay for TCP is greater than for UDP, thus making this aspect a disadvantage. Nevertheless, the insignificant packet loss makes up for this issue.

should be the choice when looking for reliability in data error free communication and throughput optimization; and UDP would be the ideal election for quick data transmission, together with a proper error correction mechanism. Finally, it must be concluded that ISL values should be selected depending on the traffic to be generated, otherwise long delays and low throughput values will be observed. ACKNOWLEDGMENTS The results of this investigation were achieved with support from the Spanish Agency for International Development Cooperation (AECID) and the National Institute for Research and Training in Telecommunications from the National University of Engineering (INICTEL-UNI). REFERENCES [1]

[2] [3] [4]

Figure 9: Throughput vs. Time for TCP in Topology 2.

[5] [6]

[7]

[8] [9]

[10] Figure 10: Delay from Satellite 1 to Lima vs. Time for TCP in Topology 2.

VII. CONCLUSIONS In this paper, we have been able to explore the impact of ISL links within both proposed topologies for the QB50 constellation, observing an enhancement in throughput and a reduction in the delay, as the ISL maximum rate is increased. It can also be appreciated that, when analyzing the TCP protocol in both topologies, the throughput saturation level is limited by the downlink bandwidth. It has been demostrated that TCP performs a more optimum throughput management throughout the simulation time (unlike UDP). Nevertheless, the delay is greater than for UDP; although the low packet loss, characteristic of TCP, compensates that issue. It was observed too that the topology proposed for the first scenario offers a better traffic distribution due to the great simetry level of that 50 Cubesat ring, in contrast to the second scenario. As to which protocol performs better, we can state that TCP

[11]

[12]

[13]

[14] [15] [16]

[17]

H. Heidt, J. Puig-Suari, A. S. Moore, S. Nakasuka, R. J. Twiggs “CubeSat: A new Generation of Picosatellite for Education and Industry Low-Cost Space Experimentation” 14th Annual/ USU conference on small satellites, 2000. http://www.amsat.org.uk/iaru/finished.asp http://www.usergioarboleda.edu.co/proyecto_espacial/ Canales R, J.M.; Bedon, H.; Estela, J.; , "First steps to establish a small satellite program in Peru," Aerospace Conference, 2010 IEEE , vol., no., pp.1-14, 6-13 March 2010. http://www.chasqui.uni.edu.pe Muylaert, J., et al.,. (2009). QB50: An International Network of 50 Cubesats for Multi-Point, In-Situ Measurements in the Lower Thermosphere and for Re-Entry Research. ESA Atmospheric Science Conference, Barcelona, Spain. Lloyd Wood, Will Ivancic, Wes Eddy, Dave Stewart, James Northam, Chris Jackson, "Investigating operation of the Internet in orbit: Five years of collaboration around CLEO", IEEE Communications Society Satellite and Space Communications Technical Committee newsletter, vol. 18 no. 2, pp. 10-11, November 2008. V. Cerf, S. Burleigh et al., "Delay Tolerant Network Architecture", IETF RFC 4838, April,2007. Wood, L.; Eddy, W.M.; Ivancic, W.; McKim, J.; Jackson, C.; , "Saratoga: a Delay-Tolerant Networking convergence layer with efficient link utilization," Satellite and Space Communications, 2007. IWSSC '07. International Workshop on , vol., no., pp.168-172, 13-14 Sept. 2007. Caini, C.; Cornice, P.; Firrincieli, R.; Livini, M.; Lacamera, D.; , "TCP, PEP and DTN performance on disruptive satellite channels," Satellite and Space Communications, 2009. IWSSC 2009. International Workshop on , vol., no., pp.371-375, 9-11 Sept. 2009. Casetti C, Gerla M, Mascolo S, Sanadidi MY, Wang R. TCP Westwood: end-to-end congestion control for wired/wireless networks. Wireless Networks Journal 2002; 8(4):467-479. Muylaert, J., et al.,. (2010) QB50: An International Network of 50 Cubesats for Multi-Point in Situ Measurements in the Lower Thermosphere and Re-Entry Research. Pestana Conference Centre – Funchal, Madeira - Portugal, 31 May – 4 June 2010 Sundaramoorthy P.P. et al., “Preliminary Orbit Analysis of the QB50 Satellite Cluster”. 4th International Conference on Astrodynamics Tools and Techniques-4th ICATT 2010 Eurpean Space Astronomy Centre (ESA/ESAC), Madrid, Spain, 3-6 May 2010. Fall, Kevin; Varadhan, Kannan. (2009). "The ns Manual". The VINT Project, UC Berkeley. http://www.genso.org/ Canales, J.M.; Rodriguez, G.; Estela, J.; Krishnamurthy, N.; , "Design of a Peruvian small satellite network," Aerospace Conference, 2010 IEEE , vol., no., pp.1-8, 6-13 March 2010. http://www.cs.ucla.edu/NRL/hpi/tcpw/tcpw_ns2/tcp-westwoodns2.html#TCPW-NR


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.