2011 02 Revista Ingenieros (Abril-Junio)

Page 1



12

REINALDO SOLARI

En conversación con Jaime Alé, el ex Presidente de Falabella, Reinaldo Solari, relata su trayectoria como ingeniero y empresario.

20

PRODUCTIVIDAD Y CRECIMIENTO

El economista Gonzalo Sanhueza, socio de Econsult RS Capital, analiza la evolución de la productividad en Chile y su relación con el crecimiento económico.

22

EFICIENCIA EN TELECOMUNICACIONES

La empresa YX Wireless, creada por ingenieros chilenos, ha perfeccionado un sistema que permite reducir significativamente los costos de llamados telefónicos de las empresas.

24

CLAVES DE FALABELLA

El gerente general corporativo de Tiendas por Departamento de Falabella, Juan Pablo Montero, explica los factores críticos de la productividad de la empresa y cómo abordan los desafíos en esta área.

26

ENERGÍA Y PRODUCTIVIDAD

El precio de la electricidad en Chile supera en más del doble al que se observa en Estados Unidos y Perú, destaca el presidente de la Comisión de Energía del Colegio de Ingenieros, Cristian Hermansen, en su análisis del panorama energético desde el punto de vista de la productividad.

28

INGENIEROS EMPRENDEDORES

Felipe Valdés, creador de Tiaxa, empresa proveedora de servicios para operadores móviles, explica sus motivaciones y proyecta su crecimiento.

33

TERREMOTO EN JAPÓN

El sismólogo Armando Cisternas analiza las causas y los impactos del terremoto y posterior tsunami del 11 de marzo en Japón.

38

LICITACIONES DE SUMINISTRO ELÉCTRICO

El ingeniero Renato Valdivia explica el sistema de licitación de suministro eléctrico y señala cambios que favorecerían la competitividad en este ámbito.

42

SEGURIDAD EN LA RED

El Presidente del Consejo de la Especialidad Computación e Informática del Colegio de Ingenieros, Alfredo Díaz, menciona las precauciones que deben tomar las personas para proteger sus datos en Internet.

COLUMNAS DE OPINIÓN 5 31

Fernando Agüero Tomás Guendelman

Abril - Junio 2011

1


Escriben Gonzalo Sanhueza Dueñas Socio de Econsult RS Capital, director de empresas y consultor de organismos internacionales. Ha sido asesor de la Presidencia del Banco Central de Chile como miembro del Comité de Política Monetaria; Consejero de Cochilco; Gerente de Análisis Internacional del Banco Central de Chile; Miembro del Pacific Economic and Cooperation Council; Profesor de la Universidad Católica de Chile y de Loyola Marymounth University, en Estados Unidos, en el área de macroeconomía y finanzas. Ha participado en consultorías y ha sido expositor en seminarios en diversos países del mundo. Gonzalo Sanhueza es economista de la Universidad de Chile y Master y Ph.D en Economía de la Universidad de California.

Tomás Guendelman Bedrack Presidente de IEC Ingeniería S.A., Profesor Titular de las Universidad de Chile y Universidad Mayor, y Past President de la Asociación Chilena de Sismología e Ingeniería Antisísmica, (ACHISINA). Es Ingeniero Civil de la Universidad de Chile, Master of Sciences de la Universidad de Berkeley y Doctor Honoris Causa de la Universidad de La Serena. Tomás Guendelman fue recientemente distinguido por el Instituto de Ingenieros de Chile con el Premio Medalla de Oro 2009.

Armando Cisternas Silva Profesor Experto del Departamento de Geofísica de la Universidad de Chile y asociado al Proyecto Milenio P02-033-F. Es Ingeniero Civil de Minas de la Universidad de Chile y Ph.D. del California Institute of Technology, Caltech. Ha sido investigador y académico del Institute de Physique du Globe de Strasbourg, Universite L. Pasteur, y del Institut de Physique du Globe de Paris.

Alfredo Díaz Puentes Presidente del Consejo de la Especialidad Computación e Informática del Colegio de Ingenieros de Chile. Subgerente de TI & Comunicaciones (TIC) de Derco S.A. Alfredo Díaz es Ingeniero Civil en Computación de la Universidad de Chile y MBA de la A.B. Freeman School of Business,Tulane University (Estados Unidos) y de la Universidad de Chile.

Cristian Hermansen Rebolledo Presidente de la Comisión de Energía del Colegio de Ingenieros de Chile. Socio de ACTIC Consultores y profesor del Departamento de Ingeniería Eléctrica de la Universidad de Chile. Fue jefe del Área Eléctrica de la Comisión Nacional de Energía entre 1990 y 1994. Cristian Hermansen es Ingeniero Civil Eléctrico de la Universidad de Chile.

Renato Valdivia Arias Cofundador de Central Energía, plataforma de información, estudio y debate en torno al mercado eléctrico chileno. Es miembro del comité chileno del Cigré. Trabajó en proyectos de transmisión y negociación de contratos en Endesa y actualmente se dedica al desarrollo de proyectos de generación eléctrica renovables. Es Ingeniero Civil Industrial en Electricidad de la Pontificia Universidad Católica de Chile.

Revista Ingenieros es una publicación oficial del Colegio de Ingenieros de Chile A.G. que circula cada tres meses. COLEGIO DE INGENIEROS DE CHILE Presidente: Fernando Agüero Garcés PrimerVicepresidente: Sergio Contreras Arancibia Segundo Vicepresidente: Jaime Alé Yarad Secretario General: Cristian Ocaña Alvarado Tesorera: María Isabel Infante Barros. Gerente General: Pedro Torres Ojeda. REVISTA INGENIEROS | Comité Editorial: Fernando Agüero G., Jaime Alé Y., Armando Cisternas S., Arturo Gana de L.; Tomás Guendelman B., María Verónica Patiño S., Juan Carlos Sáez C., Pedro Torres O. Director: Juan Carlos Sáez.

2

Ingenieros

Producción Editorial: Alka Partners | Edición: Marcela Rojas. Redacción: Isabel Mardones, Luis Salgado, Irene Strodthoff, Jorge Velasco Diseño: Magdalena Tagle. Fotografía: José Manuel de la Maza, Jesús Ángeles Fotografía Portada: Sxc.hu | Impresión: Ograma. Ventas | Mariels Andonie: marielsandonie@gmail.com / Tel: (56-9) 9 318 8046 Toda reproducción, total o parcial, deberá citar a “Revista Ingenieros, del Colegio de Ingenieros de Chile”. Las opiniones publicadas en esta edición son de exclusiva responsabilidad de quienes las emiten; por lo tanto, no reflejan una visión oficial del Colegio de Ingenieros de Chile ni del Comité Editorial de esta revista. COLEGIO DE INGENIEROS DE CHILE: Avda. Santa María 0508, Providencia. Santiago de Chile.Tel. (56-2) 422 1140 | Fax (56-2) 422 1012 | colegio@ingenieros.cl www.ingenieros.cl


Columna del Director EXTERNALIDADES DEL PROGRESO En diversas ocasiones hemos insistido en el concepto que defiende el urbanista francés Paul Virilio en relación al progreso de la tecnología. En síntesis, afirma que toda tecnología lleva aparejada su accidente: los barcos se hunden, los trenes se descarrilan, los aviones se caen, las plantas nucleares pueden producir catástrofes ambientales y humanas. El progreso de la tecnología consiste, justamente, en ir reduciendo la probabilidad del accidente a cifras cada vez más cercanas a cero, siendo imposible, o muy improbable, alcanzar la supresión completa. Los ingenieros y otros profesionales que intervienen en el curso natural de las cosas para resolver problemas de hábitat, alimentación, protección… deben enfrentar los crecientes problemas de accidentes directos que las tecnologías provocan y sus consecuencias, las que antes eran definidas como externalidades. Los médicos tienen el mismo problema: ante la posibilidad de resolver un cuadro de salud grave, siempre deben advertir a quien se somete a la intervención externa del curso natural de su enfermedad, que puede haber “efectos secundarios” de drogas y eventos que surgen durante el proceso de superar la enfermedad o lisa y llanamente salvar la vida. Este paralelo nos lleva a reflexionar sobre la imposibilidad de actuar en el mundo sin provocar ciertos grados de desajuste. El desafío para todas las profesiones técnicas, y en especial para los ingenieros, está en seguir colaborando en la solución de las numerosas necesidades de la sociedad, especialmente de los sectores más vulnerables o desprotegidos materialmente, abordando e incorporando con gran urgencia la necesidad de reducir al mínimo los accidentes tecnológicos y los efectos no deseados del progreso, priorizando, cuando sea posible, todos aquellos cursos de acción menos agresivos con el ser humano y el medio ambiente. Entre estos temas aparecen como los más urgentes: energía, agua, suelos, recursos naturales, geografía urbana; pero también, otras dimensiones que nuestro crecimiento económico produce en la sociedad: estrés, maltrato al interior de las familias o los colegios, mala alimentación, tabaquismo, alcoholismo; todo, relacionado con “externalidades” de las cuales no nos estamos haciendo cargo. Este camino requiere un clima de conversación auténtica que evite las posiciones extremas, pues son las que menos colaboran al progreso como sistema (en contraposición con el avance por sectores). No se puede caer en la inacción en el sector energético, o de la alimentación y la salud de las personas, y en tantos otros sectores con enormes desafíos. No se puede, en definitiva, paralizar todo porque la solución siempre generará un efecto indeseado en alguna parte; pero tampoco, es posible seguir ampliando el poder de las tecnologías sin hacernos cargo plenamente de nuestra obligación de hacerlas cada vez menos agresivas y más seguras para los seres humanos y su entorno ecológico.

Juan Carlos Sáez Director Revista Ingenieros Abril - Junio 2011

3


g

ECONOMÍA ABIERTA

29,6%

Las exportaciones chilenas totalizaron US$69.621 millones en 2010, cifra que representa un crecimiento anual de 29,6%. Las ventas al exterior de cobre ascendieron a US$39.289 millones; esto es, 43,1% superior al total exportado en 2009.

92,5% El 92,5% del intercambio de Chile se realiza con países con alguna preferencia comercial.

Chile tiene 21 acuerdos comerciales con 58 países. El más reciente Tratado de Libre Comercio es el suscrito con Turquía, que entró en vigencia el 1 de marzo de 2011.

4.210 4

Ingenieros

millones

de personas son potenciales clientes de Chile, lo que equivale al 86,3% del PIB mundial.

Fuente: Dirección General de Relaciones Económicas Internacionales, Direcon. Ministerio de Relaciones Exteriores de Chile.


editorial DISPONIBILIDAD DE AGUA El siglo XXI representa desafíos apasionantes a la Ingeniería mundial, tales como el desarrollo de energías competitivas y no contaminantes, la captura del carbono que se emite en exceso a la atmósfera o la producción de mejores medicinas y la fabricación de equipos médicos que permitan controlar mejor la salud de las personas. Pero tal vez el reto más trascendente para mejorar la calidad de vida de millones de personas, es generar las condiciones para que todos los habitantes del planeta tengan acceso a agua potable. Hoy en día, la disponibilidad de agua para beber y otros usos es un problema crítico en muchas zonas del mundo. Aproximadamente 1.000 millones de personas viven sin acceso adecuado al agua y más del doble carece de servicios sanitarios seguros. En algunos países, la mitad de la población no tiene acceso al agua potable y, por lo tanto, es severamente afectada por problemas de salud. Cada día mueren cerca de 5.000 niños en todo el mundo por enfermedades relacionadas con la diarrea. No es que en el planeta no exista agua suficiente, pero ésta no siempre se encuentra en el lugar y en las condiciones adecuadas. Alrededor del 3% del agua del planeta es dulce y la mayor parte se encuentra en forma de nieve y hielo. El 97% restante se encuentra fundamentalmente en los océanos y es agua salada que no puede usarse en esas condiciones para sostener la vida humana ni vegetal. Históricamente, los ingenieros han sido los proveedores principales de los métodos para satisfacer las necesidades de agua de la población; desde la construcción de los primeros canales o de acueductos monumentales, hasta las modernas plantas de purificación de aguas residuales y complejas redes de distribución. Para satisfacer los requerimientos del siglo XXI, que además incluyen de manera relevante la preservación del medio ambiente y los ecosistemas, los métodos tendrán que ser más sofisticados. El agua de los océanos es abundante, pero es necesario extraerle la sal antes de utilizarla en la agricultura y en la mayoría de los procesos industriales y tratarla correctamente para el consumo de las personas. La desalinización ya se efectúa masivamente en algunos países, pero requiere de plantas cuya construcción es muy costosa y de mucha energía para operar. Emplean el método de osmosis inversa, que utiliza una membrana para separar la sal. Las nuevas tecnologías que permitan reducir el consumo de energía y, por tanto, los costos, contribuirán a hacer más accesible este valiosísimo recurso. Un nuevo enfoque potencialmente útil, llamado nano-osmosis, que filtra la sal con el uso de pequeños tubos de carbono, ha entregado resultados excepcionales a nivel experimental.También están en desarrollo tecnologías para mejorar el reciclaje de aguas servidas, para ser utilizadas en usos no personales, tales como el riego o para fines industriales, o reabastecer acuíferos sobre explotados. Para estos efectos se está estudiando el uso de membranas de nano-filtración, que pueden ser diseñadas para eliminar contaminantes específicos al tiempo que permiten pasar importantes nutrientes. Un enfoque complementario implica el desarrollo de estrategias para reducir el consumo de agua. El riego agrícola consume enormes cantidades de agua que en su mayor parte no es utilizada por las plantas. Las tecnologías mejoradas para abastecer de manera más eficiente los cultivos, tales como el riego por goteo, pueden reducir sustancialmente la demanda de agua para la agricultura. Otra estrategia especialmente atractiva para lugares con problemas importantes de infraestructura y de distribución, es el uso de pequeñas unidades de destilación descentralizadas. Algunos proyectos actuales permitirán producir unidades de destilación de bajo costo que pueden retirar los contaminantes de cualquier fuente de agua. Una unidad más pequeña que una lavadora de platos, podría proporcionar agua limpia para las necesidades diarias de cien personas. En síntesis, las tecnologías avanzadas y de precios razonables que deberá proporcionar la Ingeniería en los próximos años, marcarán una gran diferencia en la calidad de vida de cientos de millones de personas.

“El reto de Ingeniería más trascendente de este siglo es generar condiciones para que todos los habitantes tengan acceso a agua potable”.

Fernando Agüero Garcés Presidente Colegio de Ingenieros de Chile Abril - Junio 2011

5


g

HACIENDO INGENIERÍA El equipo del ingeniero Alexander Olowinsky del Instituto Fraunhofer para la Tecnología Láser en Aquisgrán, Alemania, logró desarrollar una técnica que no tiene las limitaciones de los métodos tradicionales de soldadura de plásticos mediante láser. Hasta ahora, la parte frontal de la pieza a soldar tenía que ser transparente para permitir al láser atravesarla limpiamente, mientras que la parte situada detrás, absorbía la radiación. Por ello, se escogía una sola combinación de plásticos: uno transparente y el otro negro. El método desarrollado por este equipo selecciona una longitud de onda muy específica con la que es posible obtener buenos resultados en una gama más amplia de piezas de plástico. La tecnología médica, y los análisis biológicos en particular, están entre los principales sectores que se van a beneficiar del nuevo proceso de soldadura, pues en muchas aplicaciones en esta área se necesita una combinación de dos plásticos transparentes. La soldadura láser es un proceso rápido y muy preciso. Por ejemplo, en unos pocos segundos, un haz láser suelda juntas la base y la cubierta de un indicador de velocidad, que quedan unidas sin haber tenido que utilizar ningún tornillo, grapa, abrazadera o pegamento. El resultado es una soldadura perfecta, con costuras difícilmente visibles a simple vista. Durante el proceso de soldadura, no se emite ninguna chispa ni vuelan partículas por el aire. Además,

(©Fraunhofer, ILT)

Nuevo método permite soldar plásticos transparentes

el calor resultante está confinado en un área mínima. Esto protege al material. Muchas industrias ya sueldan plásticos mediante láser. Fuente: NCYT (Noticiasdelaciencia.com / Amazings.com) Más información: http://www.fraunhofer.de/en/press/research-news/2010-2011/14/laserwelding-in-the-right-light.jsp

Despega el segundo avión espacial reutilizable

6

Ingenieros

automático en la pista de la base californiana de Vandenberg. Sus patrocinadores podrían no obstante elegir prolongar su misión durante más tiempo, ya que el estado del OTV-1 sugiere que podría haber permanecido más días en órbita sin ningún problema (su vida útil antes del vuelo era de unos 270 días). El OTV-2 es igual a su antecesor, si bien se han efectuado algunas mejoras, como el ajuste de la presión de sus neumáticos, uno de los cuales se rompió durante el aterrizaje del OTV-1. Fuente: NCYT (Noticiasdelaciencia.com / Amazings.com) Más información: http://www.ulalaunch.com/site/pages/News.shtml#/66/ (© 2010 United Launch Alliance, LLC)

La fuerza aérea norteamericana (USAF) presentó el 5 de marzo el segundo de sus prototipos de lanzamiento reutilizable. Diseñado originalmente por la NASA y transferido a los militares, el OTV-2 es un vehículo alado, un cuerpo sustentador, capaz de efectuar una misión en el espacio y aterrizar después automáticamente para ser reutilizado. La primera misión (OTV-1) se llevó a cabo exitosamente el año pasado. Se espera que dicho vehículo sea lanzado de nuevo más adelante para demostrar su reutilización. Mientras tanto, la segunda de las naves construidas despegó a las 22:46 UTC del sábado día 5 de marzo, desde Cabo Cañaveral, a bordo de un cohete Atlas-V (501/AV-026). Como su antecesor, este avión espacial alcanzó aparentemente la órbita prevista, a unos 400 km de altitud, pero su misión es secreta y la USAF no dará información sobre su desarrollo. El OTV-2 (USA-226) pesa unas 5 toneladas y no puede llevar tripulación. Sin embargo, posee una bodega que puede abrir en el espacio para exponer sus contenidos. Así se pueden ensayar nuevos sensores para futuros satélites espía o llevar a cabo experimentos tecnológicos. El vehículo también debería ser capaz de maniobrar para tareas de inspección. Se calcula un retorno del OTV-2 a la Tierra hacia el mes de diciembre, con un aterrizaje


Avanza desarrollo de televisión holográfica Bove y sus colaboradores confían en que trabajando durante un poco más de tiempo podrán aumentar aún más la frecuencia, hasta los 24 fotogramas por segundo de las películas o los 30 cuadros por segundo de la televisión, frecuencias que crean con plena perfección la ilusión de movimiento continuo. Fuente: NCYT (Noticiasdelaciencia.com / Amazings.com) Más información: http://web.mit.edu/newsoffice/2011/videoholography-0124.html (©Christine Daniloff)

El grupo de Michael Bove, del Instituto Tecnológico de Massachusetts (MIT), presentó un nuevo sistema de televisión holográfica que puede capturar la información visual utilizando dispositivos electrónicos relativamente corrientes, enviarla a través de una conexión de internet apta, y recibirla en una pantalla holográfica. Lo más notable de este sistema es que permite actualizar la imagen con una frecuencia que se acerca a la de las películas. A fines del pasado año, unos investigadores de la Universidad de Arizona presentaron un sistema experimental de videoconferencia holográfica. Dicho sistema utilizaba 16 cámaras para capturar datos, y la pantalla para exhibir las imágenes tridimensionales se actualizaba cada dos segundos. El nuevo sistema del MIT utiliza sólo un dispositivo de captura de datos: la nueva cámara Kinect diseñada para la consola de juegos Xbox de Microsoft, y tiene una frecuencia de actualización de cerca de 15 cuadros o fotogramas por segundo. Además, los investigadores del MIT no tuvieron en sus manos una cámara Kinect hasta finales de diciembre, y sólo en cuestión de una semana consiguieron duplicar la frecuencia del sistema de 7 a 15 fotogramas por segundo.

Logran escribir información magnética en una molécula Un estudio internacional en el que ha colaborado el Consejo Superior de Investigaciones Científicas (CSIC) de España logró escribir información, en forma de ceros y unos, sobre una superficie cubierta de moléculas magnéticas. Los resultados de esta investigación, publicados en la revista Nature Communications, constituyen un avance en el camino hacia el almacenamiento de datos a gran escala. “En los computadores, los discos duros almacenan datos codificando ceros y unos mediante magnetismo en pequeños sectores de superficie. Hacer lo mismo a escala atómica supondría multiplicar la capacidad de almacenamiento en millones de veces, reducir el gasto de energía del computador y aumentar la velocidad de lectura y escritura. Con los resultados de esta investigación nos estamos acercando un poco más a esa meta”, explica el investigador del CSIC Nicolás Lorente, del Centro de Investigación en Nanociencia y Nanotecnología. La ventaja que ofrecen las moléculas respecto a los átomos a la hora de codificar datos es su asimetría. “Un átomo es esférico respecto a su momento magnético. Es decir, es igual desde cualquier ángulo, y para poder escribir sobre él es necesario primero romper esa simetría, lo que es extremadamente difícil”, apunta Lorente. Convertir las moléculas en minúsculas unidades de almacenamiento de un bit tampoco ha sido tarea sencilla para los investigadores.

“La imantación es lo que permite escribir sobre las moléculas. Para transmitirles ese magnetismo lo que hicimos fue bombardearlas con haces de electrones. Sin embargo, vimos que el magnetismo variaba de una molécula a otra y nos preguntamos por qué unas se imantaban y otras no”, continúa Lorente. Los investigadores encontraron que la explicación de este fenómeno se hallaba en la geometría de las moléculas que modifica su estructura electrónica. La investigación ha demostrado que los cambios en la geometría molecular alteran la imantación de las moléculas y que, además, esos cambios pueden ser reversibles, y por tanto controlables, mediante la exposición de las moléculas a bombardeos de electrones. El método para comprobar si una molécula está imantada es el efecto Kondo, que caracteriza el comportamiento de algunos conductores eléctricos a baja temperatura. “A voltajes pequeños, la aparición o ausencia del efecto Kondo implica grandes variaciones de la resistencia eléctrica. Esa resistencia es fácilmente medible”, añade el investigador del CSIC. Esta tecnología tiene, por ahora, la limitación de que sólo es posible a muy bajas temperaturas, de 30 grados kelvin (unos -243ºC), muy alejadas de las habituales en la vida cotidiana. Fuente: CSIC (Consejo Superior de Investigaciones Científicas, España) Más información: www.csic.es Abril - Junio 2011

7


g

HACIENDO INGENIERÍA ¿Cuánta información posee la civilización humana? exabytes de información a través de tales sistemas, el equivalente a que cada una de todas las personas del mundo transmitiera el Martin Hilbert, líder del equipo de investigación. contenido de seis periódicos todos los días. En 2007, todos los ordenadores de uso general del mundo calcularon una cantidad de instrucciones por segundo en el mismo orden general de magnitud que el número de impulsos nerviosos ejecutados por un cerebro humano. Efectuar a mano los cálculos derivados de dichas instrucciones tomaría 2.200 veces el tiempo transcurrido desde el Big Bang (la creación del universo). De 1986 a 2007, el período de tiempo examinado en el estudio, la capacidad de computación mundial creció en un 58 por ciento al año, diez veces más rápido que el Producto Interior Bruto (PIB) de Estados Unidos. Las telecomunicaciones crecieron en un 28 por ciento cada año, y la capacidad de almacenamiento de datos creció en un 23 por ciento al año. Estos números son impresionantes, pero aún minúsculos en comparación con el orden de magnitud en el que la naturaleza trata la información, tal como apunta Hilbert. (©USC)

En un nuevo estudio se ha calculado la cantidad de información que la humanidad almacena, transmite y calcula mediante la actual capacidad tecnológica total del mundo. Vivimos en un mundo que cada vez depende más de nuestras capacidades tecnológicas, sostiene el líder de esta investigación, Martin Hilbert, de la Escuela Annenberg para la Comunicación y el Periodismo, dependiente de la Universidad del Sur de California. Analizando tanto los dispositivos analógicos como los de memoria digital, los investigadores calculan que la humanidad es capaz de almacenar al menos 295 exabytes de información. (Éste es un número que tiene 20 ceros.) Dicho de otra forma: si una estrella fuera un bit de información, ese número representaría toda una galaxia de información por cada persona del mundo. La cifra es 315 veces la cantidad de granos de arena del mundo. Pero no llega al uno por ciento de la información almacenada en todas las moléculas de ADN de un ser humano. El año 2002 podría ser considerado como el del verdadero comienzo de la era digital, al ser éste el primer año en que la capacidad de almacenamiento digital mundial superó a la capacidad analógica total. A partir de 2007, casi el 94 por ciento de nuestra información almacenada se encuentra en formato digital. En 2007, la humanidad transmitió con éxito 1,9 zettabytes de información a través de tecnologías de difusión como la televisión y los dispositivos GPS. Eso es equivalente a que cada persona del mundo lea 174 periódicos cada día. Respecto a las tecnologías de comunicación bidireccionales, como los teléfonos, en 2007 la humanidad intercambió 65

Fuente: NCYT (Noticiasdelaciencia.com / Amazings.com) Más información: http://uscnews.usc.edu/science_technology/how much_information_is_there_in_the_world.html

Cartas al Director Energía solar gratis Deseo pronosticar un sueño que podría ser realidad en el corto plazo; entendiéndose por tal, en este caso, un poco más de un cuarto de siglo. Hacia 2040 existirá el Servicio Interconectado Mundial (SIM), una red que permitirá disponer de energía eléctrica gratis. Este servicio será abastecido por una serie de chacras fotovoltaicas en todos los países que tienen el privilegio de pertenecer al cinturón de la Tierra de mayor radicación solar. Habrá países africanos, asiáticos, americanos, e islas como Hawai… Sin duda, Chile tendrá un punto de conexión; ubicado, seguramente, en nuestro maravilloso Valle

8

Ingenieros

del Elqui, que tiene fama por ser uno de los lugares del mundo con los cielos más diáfanos. Se presume que los gastos que demande esta instalación serán financiados con los impuestos recaudados por diferentes países. Estamos “soñando”. Sin embargo, tenemos una referencia. El Premio Nobel de Física, Carlo Rubbia, quien visitó el año pasado el país, dijo durante una conferencia en el Colegio de Ingenieros de Chile: “El Sol entrega a la Tierra, en una hora, la energía que el planeta requiere para subsistir un año. Que ésta se utilice o no, es un problema del ser humano”. Roberto C. Soto Ingeniero Civil de la Universidad de Chile


(©constructionweekonline.com)

Innovador sistema eleva eficiencia de conversión de calor en electricidad

Investigador Steve Wright junto a un prototipo de turbinas basadas en el ciclo de Brayton

Un equipo de investigadores de los Laboratorios Nacionales de Sandía en Estados Unidos está entrando en la fase de demostración de un innovador sistema de turbina de gas para la generación de electricidad. Este nuevo sistema promete incrementar la eficiencia de la conversión de calor en electricidad hasta en un 40 por ciento. El sistema también es muy compacto y se prevé que su costo económico sea relativamente bajo. La línea de investigación seguida en este proyecto está orientada a las turbinas basadas en el ciclo de Brayton, trabajando con dióxido de carbono supercrítico. El objetivo es reemplazar paulatinamente las turbinas de vapor basadas en el ciclo de Rankine, las cuales tienen una menor eficiencia, presentan problemas de corrosión a altas temperaturas y ocupan 30 veces más espacio. El ciclo de Brayton podría producir 20 megavatios de electricidad con un equipamiento de sólo cuatro metros cúbicos de volumen. El ciclo de Brayton, llamado así en honor a su principal inventor, el ingeniero George Brayton (1830-1892), originalmente funcionaba calentando aire en un espacio cerrado y luego liberándolo en una dirección particular. Ese mismo principio se utiliza actualmente en los motores a reacción. Esta máquina es básicamente un motor a reacción que utiliza líquido caliente, en palabras del principal investigador del proyecto, Steve Wright. Hay muchísimo interés, industrial y

científico, en los sistemas de CO2 supercrítico para la generación de electricidad utilizando todas las fuentes potenciales de calor, incluyendo la energía solar, la geotérmica, y otras. Los Laboratorios Nacionales de Sandía poseen en la actualidad dos prototipos de pruebas de este sistema de CO2 supercrítico. Uno se encuentra en Arvada, Colorado, donde ha estado funcionando y produciendo aproximadamente 240 kilovatios de electricidad durante la fase de desarrollo, la cual comenzó en Marzo de 2010. Ahora está siendo sometido a mejoras técnicas. Una segunda unidad, ubicada en Sandía, Albuquerque, está siendo utilizada para investigar todo lo relacionado con las peculiares condiciones físicas que se registran cerca del punto crítico, donde el dióxido de carbono tiene la densidad de un líquido, en tanto que retiene muchas de las propiedades de un gas. Una vez realizadas todas las pruebas pertinentes, e identificadas las mejores características para los diseños más apropiados, la siguiente fase será desarrollar una planta generadora de demostración, del orden de los 10 megavatios, e iniciar el proceso de comercialización de la tecnología. Fuente: NCYT (Noticiasdelaciencia.com / Amazings.com) Más información: https://share.sandia.gov/news/resources/news_releases/ brayton-cycle-turbines/

Abril - Junio 2011

9


g

HACIENDO INGENIERÍA Un equipo de investigadores ha desarrollado una nueva y eficaz técnica para determinar la autoría de mensajes anónimos de correo electrónico. Las pruebas demuestran que tiene un alto nivel de precisión, y, a diferencia de muchos otros métodos para determinar la autoría de un mensaje, puede proporcionar evidencias aceptables en los tribunales de justicia. Aunque a menudo se puede utilizar la dirección IP para buscar la vivienda donde se originó un correo electrónico, es necesario determinar de una forma fiable y eficaz cuál de los varios sospechosos ha escrito los mensajes que se investigan. Benjamin Fung, de la Universidad de la Concordia, en Canadá, y sus colegas Mourad Debbabi y a Farkhund Iqbal, desarrollaron su novedoso método de atribución de autoría para resolver esta necesidad, sobre la base de las técnicas utilizadas en el reconocimiento del habla. Su enfoque se basa en la identificación de los patrones frecuentes, es decir, combinaciones únicas de rasgos que se repiten en los correos electrónicos de un sospechoso. Para determinar si un sospechoso es el autor del mensaje que se analiza, primero se deben identificar los patrones presentes en los correos electrónicos escritos por el individuo. Entonces, hay que filtrar cualquiera de estos patrones que estén también presentes en los correos electrónicos de otros sospechosos. El resto de los patrones frecuentes son exclusivos del autor de los

(©Concordia University)

Técnica permite identificar autores de e-mails anónimos

Benjamin Fung.

correos electrónicos que se analizan. Si, por ejemplo, el correo electrónico anónimo contiene errores tipográficos o errores gramaticales, o está totalmente escrito en letras mayúsculas, es posible valerse de esas características especiales para crear una “huella dactilar” del modo de escribir del autor. Con el uso de este método, es viable determinar con un alto grado de precisión quién escribió un correo electrónico dado, e, incluso, inferir el género, la nacionalidad y el nivel de educación del autor. Fuente: NCYT (Noticiasdelaciencia.com / Amazings.com) Más información: http://www.concordia.ca/now/what-we-do/ research/20110307/identifying-anonymous-email-authors.php

Sistema de seguridad pasiva para reactores nucleares

Fuente: NCYT (Noticiasdelaciencia.com / Amazings.com) Más información: http://oregonstate.edu/ua/ncs/archives/2011/mar/%E2%80%9Cpassive-safety%E2%80%9D-reactor-designswould-improve-response-japan%E2%80%99s-nuclear-events 10

Ingenieros

(© Oregon SU)

Un reactor nuclear con un diseño basado en el concepto de la “seguridad pasiva”, como el que han estado probando durante los últimos 15 años unos investigadores de la Universidad Estatal de Oregón, y que ahora también se aplica en nuevas centrales nucleares de otros países, tiene una mayor capacidad para soportar el tipo de catástrofe nuclear que afronta Japón. Ese concepto de la “seguridad pasiva” se basa en fuerzas naturales, como la gravedad y la convección, para enfriar un reactor cuando los sistemas de bombeo o la alimentación eléctrica externa fallen. Serviría para evitar precisamente el tipo de problema al que se enfrentan en la central nuclear de Fukushima Daiichi, donde un terremoto y un tsunami dejaron fuera de servicio a los sistemas de refrigeración activa que debían impedir el peligroso calentamiento de los núcleos de los reactores. Algunas de estas centrales nucleares basadas en el concepto de la seguridad pasiva también pueden obtener refrigeración natural constante y por tiempo ilimitado a partir de la circulación natural del aire por las estructuras de contención, sin tener que depender de suministros adicionales de agua. “Todo el concepto de seguridad pasiva se ideó para evitar el tipo de problemas a los que ahora se enfrentan estos reactores dañados en Japón”, explica José Reyes, profesor del Departamento de Ingeniería Nuclear y Física de la Salud y la Radiación en la Universidad Estatal de Oregón. “Los reactores con sistemas de seguridad pasiva funcionan, ya se construyen, y ahora estamos desarrollando pequeños sistemas modulares que aumentarán la seguridad y la fiabilidad de los reactores”.

Reactor modular.


Transmisión inalámbrica de energía a través de muros metálicos Un equipo de investigadores, liderados por Tristan Lawry del Instituto Politécnico Rensselaer, desarrolló un ingenioso sistema que utiliza ultrasonidos para transmitir simultáneamente grandes cantidades de datos y energía, sin usar cables, a través de gruesos muros metálicos, tales como los de cascos de buques y submarinos. En la actualidad, para instalar sensores de seguridad críticos en el exterior de buques y submarinos militares, los especialistas de la Marina de Estados Unidos deben hacer agujeros en el casco a través de los cuales pasar los cables de transmisión de energía y datos. Cada agujero incrementa el riesgo de problemas potencialmente graves, como vías de agua y fallas estructurales. Además, instalar estos sensores en buques que están en servicio activo requiere de procesos caros y largos. El invento del equipo de Tristan Lawry resuelve este problema. A diferencia de los sistemas electromagnéticos inalámbricos convencionales, que no transmiten eficazmente la energía y los datos a través de los cascos de los buques por el efecto de “Jaula de Faraday” que presentan, el nuevo sistema utiliza ultrasonidos (ondas acústicas de alta frecuencia, inaudibles para el oído humano por ser demasiado agudas) para propagar de manera fácil señales a través de gruesos muros de metal y de otros cuerpos sólidos. Se utilizan transductores piezoeléctricos para convertir las señales eléctricas en señales acústicas y viceversa, permitiendo que el sistema cree puentes eléctricos inalámbricos a través de estas barreras. El ingenioso diseño de Lawry incluye canales ultrasónicos, que no se interfieren el uno al otro, para transmitir energía y datos independientemente. Con este nuevo sistema, Lawry ha demostrado la trasmisión simultánea y continuada de 50 vatios de energía y 12,4 megabytes por segundo (Mbps) de datos a través de una plancha sólida de acero de 6 centímetros de espesor, en tiempo real. Estos resultados superan con creces a los obtenidos con todos los sistemas anteriores conocidos capaces de transmitir energía y datos simultáneamente a través del metal. Lawry confía en que aplicando algunas pequeñas modificaciones a su diseño, éste pueda sostener velocidades de trasmisión de datos y niveles de energía mucho más altos.

(© RPI)

Tristan Lawry. Fuente: NCYT (Noticiasdelaciencia.com / Amazings.com) Más información: http://www.eng.rpi.edu/lemelson/finalist_lawry.cfm

Abril - Junio 2011

11


g

12

Ingenieros


Reinaldo Solari “Hoy no es posible ser un autodidacta en los negocios” Por Jaime Alé

Abril - Junio 2011

13


g

Ingeniero destacado

“En Falabella trabajan más de 400 ingenieros”

C

on una capitalización de más de US$22 mil millones, al cierre de 2010 Falabella se convirtió en la empresa de más alto valor bursátil de Chile. La exitosa trayectoria de la compañía la ha llevado a posicionarse como uno de los mayores conglomerados del retail de Latinoamérica, con más de 70.000 empleados en sus operaciones en Chile, Argentina, Perú y Colombia. A su expansión desde la primera tienda, ubicada en la calle Ahumada del centro de Santiago, al Mall Parque Arauco, siguieron, entre otros hitos, la internacionalización, la fusión con la cadena Sodimac, el desarrollo de la línea de supermercados Tottus, la participación accionaria en Mall Plaza y la creación de un banco, una agencia de viajes y una corredora de seguros. En esta entrevista, el ingeniero Reinaldo Solari Magnasco, su Presidente hasta 2010, relata episodios de su vida que confirman la importancia del espíritu emprendedor y el estilo de liderazgo en este impresionante crecimiento.

14

Ingenieros

¿Cómo fue su infancia, en Iquique? Era el noveno de diez hermanos. Cuando tenía dos o tres meses, nos fuimos a Italia y volví a Iquique cuando tenía 9 años (no sabía hablar castellano). Estudié primero en el colegio Don Bosco y después, en el Liceo de Iquique. Para estudiar cuarto año de Humanidades, quería venir a Santiago, pero todavía me tenían de pantalón corto y no me dejaron. Fue entonces cuando mi hermano Alberto, casado con Eliana Falabella, se vino a Santiago para hacerse cargo de Falabella, lo que me permitió, un año después, venir al Internado Nacional Barros Arana, donde hice el quinto año de Humanidades. En calidad de internado. Sí, y tengo muy buenos recuerdos de ese tiempo. Después ingresó a la Escuela de Ingeniería. Sí. Durante el primer año, salía a las 7 de la mañana de mi casa para poder sentarme en alguna parte donde pudiera escuchar la exposición de

los profesores, por el gran número de alumnos. Ese problema duró seis meses, porque no había selección de ingreso, pero después de las primeras pruebas, el 50% dejaba la universidad. Yo vivía al lado de la Escuela de Odontología, en Santa María. Allí tomaba la micro, que se iba hacia la Plaza Italia y luego atravesaba Vicuña Mackenna y toda Avenida Matta hasta llegar a Beauchef. Al egresar, recibió el Premio al mejor alumno de su promoción. Así es. Egresé en1947 y en el viaje de estudios que se hizo ese año me eligieron el mejor compañero, que era lo que exigía el Premio Marcos Orrego Puelma; pero entonces nos dijeron que ya no era más así; que tenía que ser, además, el mejor alumno… y yo jugaba fútbol, entonces. Pero como la fórmula para calcular la nota final consideraba la nota del quinto año de Ingeniería multiplicado por coeficiente uno; la de sexto, con coeficiente dos y la de la Memoria, por coeficiente tres, abandoné un poco el fútbol y me puse a estudiar más, y así llegué a 40.3 puntos y obtuve el premio.


Presidente del Centro Deportivo de la Escuela de Ingeniería y participé en el Consejo General de Deporte de la Universidad. Seguramente eso me llevó a jugar fútbol. ¿En qué puesto jugaba? Centro Half, en esa época. Estuve cerca de un año. Pero después de titularme, jugué por el Audax, porque mi hermano era Presidente y cada vez que jugaba con la Universidad de Chile, en mi familia había problemas, y en ese entonces, el entrenador Tirado me decía “Vas a jugar por la Chile o por el Audax”… Pero fueron años muy buenos.

Jaime Alé

¿Dónde hizo sus primeros trabajos de ingeniería? Cuando egresé ya estaba trabajando con Carlos Infante, ingeniero de la Católica. Mientras estudiaba, los últimos años conseguí, por amistad, que él me recibiera en su oficina de cálculo estructural. Y también hizo el servicio militar ¿En qué batallón? El servicio militar lo hice en La Serena, en mis vacaciones de verano. Fue una muy buena experiencia, también. Fue en el R2 de La Serena, que hoy es militarizado. Antes, todavía tenía algo de caballería. Cuando me recibí de ingeniero, tuve que volver al servicio militar por el segundo período, pero a los pocos días me liberaron, porque yo era el único hijo soltero de mi madre viuda. ¿Cómo llegó a ser jugador del equipo de la Universidad de Chile? Me gustaba mucho el deporte, organizaba olimpiadas en la Escuela y equipos de fútbol universitario. Fui

¿Por qué dejó el fútbol? Porque descubrí el ski cuando fui con otros estudiantes a construir las fundaciones del refugio de la Universidad de Chile en Farellones. En cuanto tuve oportunidad de disponer de algún honorario, me construí una casa junto con mi hermano. La inauguramos en 1950 y es la que tengo todavía. En ella han estado grandes corredores y campeones olímpicos que invitamos a entrenar con el equipo chileno. Usted organizó el mundial de ski en Chile... El ski era un deporte de élite, porque sólo sabían esquiar quienes habían vivido en Europa o en Estados Unidos. Aquí no había andariveles, y cuando en 1953 me pidieron ser Presidente de la Federación de Ski me propuse cambiar eso. Todos los corredores antiguos y los mejores esquiadores se refugiaron en el Hotel Portillo y los demás se fueron conmigo a Farellones. Eran principalmente los hijos de quienes trabajan arriba y los de buenos esquiadores que iban siempre. Yo era el horror de los padres, porque como los mantenía esquiando y viajaba con ellos a Europa y Estados Unidos en verano, no podían seguir estudiando. Entre ellos había tres sobrinas, hijas de mi hermano Alberto: Liliana, Maria Luisa y Teresa. Las tres fueron campeonas

en Chile y una de ellas participó en el mundial en Portillo. ¿Cómo logró que Chile fuera sede del mundial? Fueron cuatro años muy difíciles, porque, como dijo Carlos Dittborn “como no tenemos nada, queremos hacerlo todo” y el gran problema era que nuestro país está en el hemisferio sur y la zona más importante del esquí mundial está en el hemisferio norte. El costo de mantener deportistas entrenando para competir en otro hemisferio era muy elevado para las federaciones; de manera que muchas veces nos quisieron quitar el mundial, y tuve que viajar con los pocos pesos que ahorraba, porque la federación no tenía. En 1964 vinieron los inspectores y en ese año no cayó una gota de nieve. Para cumplir las exigencias, tuvimos que conseguir que el Cuerpo de Ingenieros de Tejas Verdes fuera a vivir a Portillo durante el verano para “demoler” las piedras; debimos mejorar los sistemas de comunicaciones, para que los periodistas de todo el mundo pudieran enviar la información, y tuvimos que solicitar al BID que financiara la construcción de un camino, porque no podíamos depender sólo del tren. Conseguí que Raúl Devés lo hiciera, asumiendo su empresa el riesgo, porque sólo les podríamos pagar si lo aprobaba el BID. Por suerte, lo hicieron, y pudimos respirar tranquilos. En 1965 hicimos un pre-campeonato al que llegaron 80 corredores. Ese mismo día comenzó a llover en Santiago y así continuó durante 18 días. Se desbordó el Canal San Carlos y en Portillo, una noche la temperatura subió a 19° y eso provocó un alud. Desaparecieron todos los andariveles; murieron cinco personas que estaban durmiendo, y pudieron haber sido muchas más, porque la mayoría había ido a Los Andes o estaban en el hotel en una fiesta… A pesar de todo, en 1966 hicimos el mundial y las condiciones fueron totalmente opuestas. Fue un gran evento. Abril - Junio 2011

15


g

Ingeniero destacado

Reinaldo Solari

Usted trabajó en Endesa. Sí, con Reinaldo Harnecker, que era su gerente general, y con Raúl Sáez, en el proyecto de Sauzalito y el comienzo de una central en el norte. Pronto me di cuenta que el grupo de profesionales de Endesa era muy joven, porque la empresa se había fundado hacía diez años, y eso significaba que nunca llegaría a ser jefe. Entonces, me fui a trabajar en una empresa que construía casas y edificios de 4 o 5 pisos, mientras buscaba mi camino. Así llegó a CYCSA… ¡Ah, eso fue a la fuerza! Era una empresa de su familia. Sí, mi hermano Alberto la había comprado para sus hermanos, pero ninguno quiso participar; entonces, como yo hacía clases en la Escuela de Ingeniería, en Beauchef, me dijo “pasa después de las clases hasta que encontremos un gerente”… ¡No lo encontraron nunca! Pero lo importante fue que, en el año 1959, fui a Estados Unidos, preparándome para las olimpiadas de 16

Ingenieros

ski de 1960, y allí tuve contacto con gente de negocios y me di cuenta que ellos tenían una fórmula de administrar totalmente diferente a la que se usaba en Chile. Por eso, fui a hablar con unos técnicos, y ellos me vendieron dos libros, diciéndome que los estudiara y volviera un año después, a California, para aclarar dudas. Así lo hice. ¿Qué libros eran? Uno era sobre las leyes económicas de Estados Unidos y el otro, sobre su sistema de manejo de inventarios. ¿Cuál era su enfoque? Para ellos era claro que hay que tener inventario a precio de venta. Así, si usted vendió en 100, el inventario bajó en 100, si están los dos a la misma moneda. Comenzamos a aplicarlo, pero eso fue todo un cambio de mentalidad. Luego se me ocurrió comprar un local en Concepción para instalar una tienda independiente de Falabella, y como las cosas no me resultan fáciles…vino el terremoto del ’60…Cuando logré llegar a Concepción, tres días después, el edificio estaba completamente doblado. Tuve dos años de muchos conflictos

hasta que lo pude reestructurar. Allí comenzamos a aplicar el sistema; por supuesto, siempre en contacto con Falabella, porque mi hermano era el gerente; hasta que llegó el año 1980, en que mi hermano tuvo una enfermedad grave y falleció y las hermanas Falabella quisieron vender. Entonces, formamos un equipo con Juan Cuneo y Sergio Cardone y compramos Falabella. Reestructuramos, incorporamos avances tecnológicos, organizamos el sistema de crédito…y despegamos. En qué momento, exactamente, Falabella dio el salto que la convirtió en lo que es hoy. La llegada a Parque Arauco fue un paso importante, porque se llegó a un mercado de altos ingresos. En Concepción estaba operando desde el año 1962, pero en Santiago estaba reducida a Ahumada,”la calle de Falabella”. Este paso fue muy resistido, porque Falabella estaba orientado a un mercado masivo, pero yo creo que en ese momento sin el mercado ABC1 no se podría haber avanzado tan rápido. De la misma manera que no habría podido hacer el mundial de ski si no hubiera


“Hay que tener el respaldo de la familia para ser un buen empresario”

muchos sistemas computacionales y muy avanzados, y dos millones y medio de cuentas activas, sin contar Argentina y Perú. Estos sistemas nos permiten saber cuál es nuestra venta por minuto, cuántos empleados debe haber en cada tienda a cada hora y muchas otras cosas, muy importantes para nuestro negocio.

FUNDACIÓN APTUS contado con 40 profesionales que hablaban, al menos, dos idiomas y que tenían auto. ¡Las condiciones son tan diferentes a las de hoy! Para conseguir un zapato de esquí había que ir a buscar a un ruso que lo hacía a medida de un año para otro. Conseguir un par de esquíes, sólo era posible cuando se iban los extranjeros y nos vendían los suyos… Por eso, cuando hicimos el mundial, impulsé una ley para importar todos estos artículos. Sus hijos son ingenieros, como usted. Sí, pero de la Universidad Católica. ¿En qué sentido su formación ha sido distinta a la de ellos? Creo que la enseñanza, en la mayoría de las escuelas, ha sido cada vez más liberal. Antes era mucho más estricta, más rigurosa; por eso, cuando ellos se recibieron, insistí en que tenían que hacer un master en Estados Unidos. Los dos mayores fueron al MIT y el menor, Carlo, a Wharton. El me reemplazó en el directorio de Falabella, y está más dedicado a las finanzas. Sandro es el Gerente General de Sodimac y Piero es quien está a cargo del family office. ¿Cuántos ingenieros trabajan en Falabella? Hoy trabajan unos 400 ingenieros en la empresa. En Falabella tenemos

¿Qué lo motivó a crear Fundación Aptus? Tengo una señora muy buena, tres hijos que no es fácil que sean mejores, una situación económica buena, prestigio… Sólo tengo que dar gracias a Dios, que me ha dado capacidad intelectual y de trabajo. Pensando en esto, me sentí obligado a devolver, de alguna manera, estos dones. Desde hace muchos años hemos colaborado para pagar los estudios de algunos estudiantes universitarios, pero, hablando con mi familia, les comenté que me gustaría hacer algo para mejorar la educación en Chile. Una de mis nueras hizo un estudio y me dijo que lo mejor era asociarme con Patricia Matte, que dirige la Sociedad de Instrucción Primaria. Después de 3 años y una inversión de más de US$2,5 millones, tenemos a 40 especialistas asesorando a profesores de colegios vulnerables con muy buenos resultados. Ustedes se enfocan en el trabajo con los profesores… Sí, y también con los directores. El equipo de especialistas asesora a las escuelas y les entrega material para que apliquen una fórmula distinta de enseñanza a niños en situación de vulnerabilidad. Me decía este verano una profesora de uno de los colegios, que “con el sistema de Aptus cualquier alumno aprende”.

Eso es muy bueno, porque está hecho respetando absolutamente el plan de estudios del Ministerio de Educación. Falabella, como empresa, también apoya la educación. ¿Este proyecto está relacionado? No; Falabella ha desarrollado su programa “Haciendo Escuela” desde 1960. El primer colegio fue la Escuela F-53 Arnaldo Falabella. Está en Estación Central y es un caso modelo; tiene 1.000 alumnos y excelentes resultados en el SIMCE. Falabella apoya a alrededor de 40.000 alumnos actualmente, pero Aptus es una innovación que está enfocada en las escuelas en las cuales todo es más difícil. ¿Cuáles son, en su opinión, los factores críticos del éxito empresarial? Son muchos, pero creo que los principales son: primero, tener una buena preparación. Hoy casi no existen empresarios que no hayan egresado de una buena universidad. No es posible ser un autodidacta en los negocios. En segundo lugar, hay que tener motivación por emprender y dirigir personas. Eso se ve desde la escuela, donde hay alumnos que siempre están uniendo a los demás para hacer algo, desde una olimpiada a una cimarra. Un emprendedor organiza. Después, creo que hay que tener mucha resistencia a lo negativo que se nos presenta en la vida. Es necesaria mucha constancia, para reponerse y para no sentirse decaído por las contrariedades… No siempre la tendencia es positiva; hay muchos trastornos. Y finalmente, es necesario saber vivir, porque hay que combinar el trabajo con la vida, con la familia. La persona que no es capaz de hacer eso, o que no tiene respaldo familiar, no podrá ser un buen empresario. g Abril - Junio 2011

17


g

Ingeniero destacado

18

Ingenieros


Productividad en Chile Revertir la tendencia negativa de la productividad en el paĂ­s es uno de los principales desafĂ­os de la economĂ­a chilena.

Abril - Junio 2011

19


g

Reportaje Central

Productividad en Chile

LA PIEDRA FILOSOFAL DEL CRECIMIENTO

El país tiene nuevamente la posibilidad de recuperar el ritmo de crecimiento alto del PIB, aumentando las ganancias de productividad. Para esto, sólo basta generar un ambiente económico propicio para que sean las propias empresas quienes logren las anheladas rebajas reales de costos. Por Gonzalo Sanhueza

L

a productividad es, para los economistas, lo que era la piedra filosofal para los alquimistas. Así como esta última transmutaba metales ordinarios en oro, la productividad permitiría a las economías generar un mayor número de bienes y servicios sin requerir de más insumos. De ahí que, a lo largo de la historia, hemos visto generaciones y generaciones de economistas dedicados exclusivamente al estudio de la productividad, intentando definir qué es, cómo se mide y cómo se promueve. Ahora bien, la investigación sobre productividad tiene su origen en los estudios sobre el crecimiento económico y, más específicamente, en lo que se denomina la contabilidad del crecimiento. Esta doctrina busca, básicamente, explicar el crecimiento económico en función del crecimiento de los factores productivos. De este modo, como se muestra en la ecuación 1, el crecimiento del PIB de un país podría ser explicado por los siguientes tres factores: i) el crecimiento del factor trabajo multiplicado por el aporte que hace una unidad adicional de trabajo al PIB, ii) el crecimiento del factor capital por el apor te que hace una unidad

20

Ingenieros

adicional de capital al PIB, y iii) un residuo R. Este residuo R representaría las ganancias de productividad. Ecuación 1:

Tradicionalmente, los economistas nos hemos referido al factor R como un cambio tecnológico, asociándolo al resultado de innovaciones provenientes de la investigación y desarrollo, o bien, como la productividad total de los factores (PTF), la que habiendo sido ajustada por las ganancias de calidad del factor trabajo y del factor capital, provendría de economías de escala, de spillover o de complementariedades. Sin embargo, Arnold Harberger, en su discurso presidencial en la 110ava Reunión del American Economic Association, en 1991, interpretó el residuo R de manera más simple, especificando que éste aludía a rebajas reales de costos que se generaban al interior de las empresas. La principal ventaja de esta interpretación yacía en que el residuo R se tornaba más tangible y transformaba a las propias empresas en las principales protagonistas de las reducciones de costos.

Más aún, el propio Harberger planteó que existían 1.001 formas de reducir los costos reales y que la gran mayoría de estas ya estaba siendo implementada en alguna parte de la economía. Además, estableció que el proceso de reducción de costos se parecía más a los champiñones que a la levadura, en el sentido que ésta última hacía crecer el pan en forma pareja como si se inflara un globo. Los champiñones, en cambio, aparecían en cualquier parte, de la noche a la mañana, y sin previo aviso. Su hipótesis quedó validada al observar que gran parte de los ahorros de costos se concentraban en pocas empresas. En efecto, nuestra variable R no sería un fenómeno transversal a la economía en un determinado período de tiempo, o a lo largo del tiempo, sino que se trataría de un subgrupo pequeño de empresas que, en conjunto, explicarían gran parte de la reducción real de costos observada en la economía. De este modo, no sería extraño encontrar, en una misma industria, empresas disminuyendo sus costos y otras incrementándolos.

La década pErdida La historia de Chile de los últimos veinticinco años indica que nuestro país ha experimentado períodos


muy propicios para capturar estas reducciones de costos y acelerar el crecimiento del país. Efectivamente, entre los años 1986 y 1997, la tasa de crecimiento media anual del PIB fue 7,3%, apor tando el factor trabajo 2,5 puntos porcentuales, equivalentes al 34% del total; el factor capital 2,7 puntos porcentuales, equivalentes al 36% del total, y el factor R 2,2 puntos porcentuales, equivalentes al 30% restante. Sin embargo, durante el periodo 1998 a 2008, la tasa de crecimiento media del PIB fue de sólo 3,6% anual. Este menor crecimiento se explicaría, en par te, por el menor aporte del factor trabajo que se redujo a 1,4 puntos porcentuales y, fundamentalmente, por el factor R cuyo apor te fue cero. Así, el cambio de tendencia en el R de los últimos 20 años significó que, en el 2010, el PIB del país fuese 30% más bajo del que debería haber sido. Esto es equivalente a una pérdida anual del PIB de USD 60.000 millones o de USD 3.500 per cápita. ¿Cómo se explica este cambio en la evolución del R? La principal explicación encuentra su origen durante la segunda mitad de los años ochenta y la primera mitad de los noventa, cuando se emprendieron un conjunto de políticas públicas que facilitaron dicho ahorro de costos reales en la economía. Entre estas políticas se encuentran: i) la apertura a la competencia internacional y su efecto en las empresas nacionales, ii) la entrada de inversión extranjera directa al país y su transferencia tecnológica, iii) la privatización de empresas con sus consecuentes ganancias en eficiencia y, iv) la estabilidad macroeconómica y el control de la inflación que permitieron que el sistema de precios funcionara como mecanismo de asignación de los recursos. Durante los últimos diez años, no obstante, el país dejó de hacer reformas económicas, lo

que inevitablemente se tradujo en un menor R y, por ende, en un menor crecimiento.

Reactivando el R Hoy, el país tiene nuevamente la posibilidad de recuperar el ritmo de crecimiento alto del PIB, aumentando el valor del R. Ahora bien, en muchas ocasiones nos confundimos pensando que para volver a generar un R alto se requiere desarrollar toda una industria de innovación, con importantes desembolsos en investigación y desarrollo. De hecho, hace ya casi diez años que se impuso el royalty a la minería con el objetivo de impulsar la inversión en investigación y desarrollo, creándose comisiones y agencias de Estado. Sin embargo, aún no se han visto los resultados. Es por esta razón que debemos ceñirnos a los planteamientos de Haberger, que se postulan mucho más simples: para alcanzar un R alto sólo basta con generar un ambiente económico propicio para que sean los propios empresarios quienes engendren las anheladas rebajas reales de costos. Para esto existe un conjunto de políticas públicas que sería necesario desarrollar. En primer lugar, habría que aumentar la flexibilidad del mercado laboral. En efecto, las empresas deben tener un espacio más amplio de negociación con sus colaboradores de manera de alcanzar mayores niveles de eficiencia. Adicionalmente, sería necesario reducir los costos de despido para permitir los ajustes de planta que mantienen la competitividad de las empresas. De hecho, esta última es una de las principales recomendaciones de la OECD. Segundo, el Estado debería destrabar la aprobación de los proyectos eléctricos. Las industrias del país no pueden competir pagando más de USD 200 por MWh, en circunstancias que si el costo marginal lo dieran las generadoras a carbón

“El Estado debe destrabar la aprobación de los proyectos eléctricos. Las industrias del país no pueden competir pagando más de USD 200 por MWh”

bajaría hasta los USD 80 MWh. En tercer lugar, el Gobierno debería repotenciar las concesiones en aquellas áreas que implicarían reducciones significativas de costos de transporte y logísticos. Se estima que el país debería invertir, en los próximos cuatro años, del orden de USD 10.000 millones en viabilidad interurbana, USD 2.500 millones en infraestructura portuaria y USD 500 millones en aeropuertos. Finalmente, el Estado debería reformularse para reducir los tiempos y costos de formar y cerrar empresas, además de mejorar la Ley de Quiebras. La pregunta es, entonces: ¿existen posibilidades reales de volver a tener un R positivo? Afortunadamente la respuesta es sí. Las políticas públicas que mencionamos son perfectamente implementables. Si bien algunas requerirían de recursos públicos, el país tiene esta vez los ingresos del cobre que, si se invierten en esto, le darían ventajas competitivas de largo plazo. Otras requieren de grandes acuerdos, ya que su implementación podría implicar transferencias de riqueza entre distintos actores de la población, lo cual hace más complicada su viabilidad política. Sin embargo, si no hacemos este esfuerzo hoy, corremos el riesgo de que el país se quede, nuevamente, en los umbrales del Desarrollo. g

Abril - Junio 2011

21


g

Reportaje Central

COMUNICACIÓN EFICIENTE YX Wireless, empresa formada por ingenieros chilenos, ha desarrollado una línea de conversores celulares que permite alcanzar hasta un 90% de ahorro en las llamadas a móviles. Por Luis Salgado

A

lejandro Pattillo y Felipe Vásquez han trabajado desde hace más de 8 años en el desarrollo de conversores celulares, equipos que permiten transformar la llamada de telefonía fija en una celular, generando un ahorro a partir de la diferencia tarifaria que existe entre llamadas fijo - móvil y entre móviles. En 2002 la empresa que fabricó los primeros conversores celulares que hubo en Chile pidió asesoría a estos ingenieros civiles eléctricos de la Universidad Católica. Ellos recomendaron “dar una vuelta de tuerca” y crear un producto nuevo para solucionar los problemas de calidad de fabricación y de licencia del código que utilizaban. Acordaron realizar un joint venture para desarrollar los equipos, pero algunas diferencias con la empresa, llevó a los profesionales a seguir trabajando en mejoras al producto de manera independiente. Fue así como en 2003 ambos ingenieros, junto a Mike Leatherbee, fundaron YX Wireless. A principios de 2004 la recién formada empresa ya había producido sus primeros equipos y pudo ofrecerlos a un precio menor que la competencia, gracias a que las placas que desarrollaron las encargaron a un fabricante taiwanés. YX Wireless logró apoderarse rápidamente de buena parte del mercado chileno y exportar sus productos. Hoy, cerca del 70% de sus ventas se concentran en su gama de conversores celulares Xibelis: Lyric VoIP, Lyric LCR y Telulink. 22

Ingenieros

Segunda generación En 2008 la empresa comenzó a trabajar en su segunda generación de conversores celulares. Éstos son capaces de rutear las llamadas, de manera que el usuario no sólo obtiene el ahorro por llamadas entre teléfonos móviles, sino, además, por realizar llamadas on net, entre números telefónicos de la misma red móvil, evitando los costos de interconexión entre ellas. “En el Xibelis Lyric LCR incorporamos la inteligencia para que fuera capaz de discriminar a qué red móvil se dirige la llamada. El equipo puede tener 2, 4 o 6 sim cards de compañías distintas e incorpora una base de datos con los prefijos de numeración de cada compañía celular; entonces, cuando el usuario marca un número telefónico, el equipo revisa su base de datos para saber a qué compañía corresponde y sacar la llamada por la línea más conveniente. También reconoce la línea que menos minutos ha usado, permitiendo gestionar los minutos del plan de cada número telefónico”, explica Alejandro Pattillo, socio fundador de YX Wireless. El desarrollo del Xibelis Lyric LCR influyó en la obtención del Premio Avonni a la Innovación en categoría Tecnologías de la Información y Comunicación (TIC) y el galardón Chile Diseño en la categoría Productos Especializados para la Industria. Ese año, la empresa vendió cerca de 350 unidades y al año siguiente, más de 800.

En 2010 la empresa sacó al mercado el Lyric VoIP. “Toda la infraestructura de la telefonía del mundo está migrando hacia IP y nuestro equipo está alineado con ese nuevo cambio de tendencia”, agrega Pattillo.

Valor de los detalles “Existen varios equipos similares y productos sustitutos para nuestra tecnología. Nosotros nos enfocamos en resolver ciertas problemáticas desde el punto de vista del usuario que no tienen que ver solamente con reducir los costos. El hecho de que los equipos sean dispositivos de 6 líneas como máximo, permite al cliente ir incrementando su capacidad de reducción de costos en la medida que la empresa va creciendo. Nuestra competencia tiene equipos con 30 canales por lo menos. En nuestra solución, los equipos se detectan automáticamente entre ellos; entonces, el costo de escalamiento para el cliente es bajísimo”, explica el ingeniero. La empresa además trabaja permanentemente en actualizaciones para las bases de datos de sus equipos.“Nos enfocamos mucho en el tema del soporte y de la operación de los equipos para que el administrador del sistema o el gerente de TI no se preocupe de un equipo más en la red”, dice Pattillo, quien agrega que los nuevos equipos Xibelis también incluyen el soporte de portabilidad numérica, funcionalidad recientemente aprobada por la Subsecretaría de Telecomunicaciones.


Los equipos de última generación permiten, además, almacenar los últimos números hacia los cuales se han realizado llamadas, permitiendo que ante una eventual devolución de llamada, ésta sea recibida en el mismo anexo que

originalmente la cursó. “Cualquier empresa que trafica más de 300 mil pesos en llamadas telefónicas al mes debe tener uno de estos equipos. En el mejor de los casos, los clientes llegan a ahorrar un 90%, aunque la

media de ahorro es de 70%. El tiempo de recuperación de la inversión, normalmente, es de 6 meses o menos”, destaca. g

YX Wireless Desde 2003 la empresa fundada por los ingenieros Alejandro Pattillo, Felipe Vásquez y Mike Leatherbee ha enfocado sus esfuerzos en desarrollar soluciones tecnológicas en el ámbito de las Comunicaciones. Actualmente, la empresa factura cerca de US$ 2 millones anuales y sus productos están llegando a países como México, Perú, Colombia, Argentina y Venezuela. Además de conversores celulares YX Wireless ha desarrollado equipos de envío masivo de mensajes de texto, tecnologías de comunicación IP para sistemas de alarmas y equipos M2M (Machine to Machine), los cuales facilitan la comunicación entre maquinarias industriales de una misma compañía, simplificando procesos y mejorando la eficiencia de éstos.

Fuente: www.yx.cl Abril - Junio 2011

23


g

Reportaje central

JUAN PABLO MONTERO

“LO QUE NO SE MIDE, NO SE GESTIONA” Falabella cuenta con un sistema que le permite optimizar la dotación de vendedores y asistentes en tiendas en base a la demanda estimada por día y hora, relata su Gerente General Corporativo de Tiendas por Departamento, Juan Pablo Montero.

¿Cuáles son los procesos claves en el negocio de Falabella desde el punto de vista de la productividad? Todo negocio de retail exitoso se sustenta básicamente en 3 pilares: una propuesta de valor seductora para el cliente; esto es, una selección de productos y marcas que satisfagan sus necesidades y una atractiva exhibición en el punto de venta, lo que llamamos la “puesta en escena”, conveniencia en precios, calidad, comodidad... El segundo pilar tiene relación con la operación de las tiendas, donde se busca ser lo más eficientes posibles en gastos sin dañar la atención deseada. El tercer pilar es la logística, de manera de tener el producto correcto en el momento correcto y al costo correcto. Los procesos claves desde el punto de vista de productividad están relacionados con estos 3 pilares, y la ejecución perfecta es crítica. Los americanos hablan de “precision retailing”; cada día hay menos espacio para equivocarse, hay que ser muy certeros en la planificación de cada cosa que hacemos.

24

Ingenieros

¿Cuáles son los indicadores de productividad relevantes para Falabella? Lo que no se mide no se gestiona. Tenemos una gran cantidad de indicadores de productividad para cada uno de los procesos claves antes indicados, en rigor cada área de la compañía tiene este tipo de indicadores; entre ellos, las ventas por m2, rotaciones de Inventario, el índice de gastos de administración y ventas sobre la venta, y los indicadores de lead-time logísticos, tanto desde el origen a las bodegas como desde éstas a las tiendas.

contrario, competimos contra nosotros mismos.

¿Cómo han evolucionado esos indicadores? Es un proceso de mejora continua. Todos los años nuestros gerentes presentan planes para superarlos. Constantemente, estamos implementando iniciativas e incorporando sistemas y tecnología que buscan mejorar estos índices, por lo que su evolución en los últimos años ha sido siempre positiva. De existir benchmarks internacionales, nos fijamos metas para competir con los mejores. De lo

¿Qué medidas han sido determinantes de la evolución de esos indicadores? La preocupación permanente por mejorarlos, estimulando a nuestros ejecutivos y colaboradores a generar ideas en este sentido, invirtiendo en tecnología y, sobre todo, valorando los avances, pero sin sentir nunca que es imposible mejorar un poco más. Este proceso ya forma parte de nuestra cultura. Nuestro equipo gerencial tiene metas específicas por lograr y superar con respecto a estos indicadores.

“Cada día hay menos espacio para equivocarse. Debemos ser muy certeros en la planificación de cada cosa que hacemos”


¿Aplican algún modelo matemático para optimizar procesos relevantes? Sí, utilizamos modelos matemáticos y sistemas de información avanzados en varios procesos. Por ejemplo, en operaciones tenemos un sistema que nos permite optimizar la dotación de vendedores y asistentes en tiendas en base a la demanda estimada por día y hora. Otra área que utiliza varios modelos es Planificación de Mercadería, para definir las cantidades de cada producto que se deben comprar y luego enviar a cada tienda, o

para monitorear la demanda producto a producto en períodos de liquidación y proponer los descuentos de precio para que se logre el objetivo de liquidar todo el stock maximizando la venta. ¿Cómo se comparan sus niveles de productividad con los de otras compañías exitosas en el mundo? En algunos indicadores nos comparamos de igual a igual con los mejores del mundo y en otros hay espacio para seguir mejorando.

¿Cuáles son los desafíos de Falabella en este ámbito? El mayor desafío es mantener la motivación del equipo para seguir pensando en cómo se puede mejorar más. La creciente competencia cruzada que se observa en el mundo en la industria del retail exige ser tremendamente eficiente. La presión en los márgenes es permanente, y aquellos operadores que no cuenten con conceptos como “lean retailing” están en riesgo competitivo.

Abril - Junio 2011

25


g

Reportaje Central

ENERGÍA Y PRODUCTIVIDAD El desarrollo económico de un país como Chile debe considerar la existencia de un suministro eléctrico confiable y a precios razonables. Por Cristian Hermansen R.

N

uestro país tiene una alta dependencia energética. Importa alrededor del 75% de su energía primaria consumida y sus principales fuentes nacionales son la hidroelectricidad y la quema de leña. En los últimos años, las condiciones de abastecimiento han oscilado entre precarias y normales, con períodos cada vez menores en este último caso, producto de sequías, cortes de gas natural y fallas de unidades generadoras. Además, con altos precios de electricidad como resultado del alza de los combustibles fósiles importados y del reemplazo a combustibles más caros, como son el gas natural licuado y el diesel que han sustituido al gas natural argentino; dinámica a la cual se suma una disminución del componente nacional, que es la hidroelectricidad. La electricidad tiene como principal característica que no es un producto almacenable comercialmente. No podemos guardar electricidad de un año para otro, excepto en embalses interanuales, y el único existente en nuestro país es el Lago Laja. Más allá de la situación puntual de Santiago, de embalses sin agua y déficit de capacidad de transmisión eléctrica, no existe en el país una política de reservas estratégicas de combustibles; es un mercado concentrado en pocas empresas de gran tamaño que no ha conseguido la incorporación de nuevos actores impor tantes.

26

Ingenieros

Por otra parte, hay una necesidad creciente de energía para lograr un crecimiento económico del orden del 6% anual, para lo cual se requiere nueva generación de energía eléctrica y eficiencia energética. Como país, es importante desarrollarnos. Es un tema que parece obvio, pero se olvida que si no existe crecimiento estamos condenando a muchas personas a permanecer en la pobreza. En cualquier escenario de crecimiento eléctrico, ya sea tradicional o con eficiencia energética, necesitamos elevar la capacidad instalada actual, del orden de 15.000 MW, a valores entre 35.000 MW y 45.000 MW en 2025, dependiendo del uso eficiente de la energía. (Ver gráfico) Para el incremento de competitividad del país se requiere superar barreras nuevas, como lo es la Huella de Carbono (cantidad de CO2 emitida en el desarrollo de un producto) asociada al Calentamiento Global. La generación eléctrica con carbón emite del orden de 1.050 Kg de CO2 por MWh generado; una central hidroeléctrica del orden de 7 Kg de CO2 por MWh generado y una central nuclear, del orden de 9 Kg de CO2 por MWh generado. Por lo tanto, debemos desarrollar nuestro potencial de energías limpias, en especial, el recurso hidroeléctrico con centrales grandes, medianas y pequeñas. Otra característica de la situación actual es la poca participación de los usuarios, muchos de los cuales no conocen ni

ejercen sus derechos y, por lo tanto, no exigen a las autoridades una explicación de la política energética futura. Sin embargo, sí existe una participación activa de sectores de la comunidad que se oponen a cualquier tipo de desarrollo energético, incluso a las energías renovables no convencionales. Tenemos en el país una adecuada capacidad técnica y profesional con buenos ingenieros y técnicos para desarrollar el sector eléctrico, pero no existe una visión de largo plazo del Estado ni de sus gobiernos de turno para definir las necesidades energéticas y su satisfacción para los próximos 30 ó 40 años, como sí ocurre en países vecinos. Las últimas crisis han hecho evidentes las necesidades de: diversificar la matriz energética y la lista de proveedores de combustibles, incluir como objetivo la seguridad de suministro y realizar una planificación estratégica de largo plazo. El problema es implementar estas acciones y mantenerlas en el tiempo, ya que, habitualmente, terminada una sequía de agua o de combustible se vuelve a una mirada complaciente de corto plazo y no se realizan acciones de mayor proyección. En el desarrollo de energías nacionales se debe contemplar la realización de centrales hidroeléctricas de mediano y gran tamaño, recursos hidroeléctricos al sur de Puerto Montt, minicentrales hidráulicas, utilización de los canales de regadío para generación eléctrica, energía eólica, energía solar fotovoltaica y térmica, biomasa, unido a la eficiencia energética y a la disminución del consumo de leña.


50.000 45.000 40.000 35.000 30.000 25.000 20.000 15.000 10.000 5.000 -­‐

5,50% 6,00% 7,50%

2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023 2024 2025

Potencia instalada MW

Proyecciones de crecimiento de la demanda eléctrica

años Fuente: ACTIC Consultores

Un tema que ha sido secundario es la seguridad de abastecimiento eléctrico, que ha estado subordinado a desarrollo de mínimo costo, política cuyo resultado constatan los cortes tras el terremoto de febrero de 2010 y el déficit de transmisión a Santiago. Nuestro nivel de desarrollo como país integrante de la OCDE debe considerar una mayor seguridad con mayores respaldos y resguardos técnicos. Esta mayor seguridad incrementará los costos de abastecimiento, pero ello se modera ampliando el mercado con la incorporación de nuevos actores, mayor competencia, proyectos sustentables y una mirada de largo plazo. El precio actual de la electricidad en Chile supera en más del doble el precio en Estados Unidos (país desarrollado)

y de Perú (país en vías de desarrollo) para señalar solamente dos ejemplos de nuestro continente. Su efecto en las empresas chilenas es fuerte y lo demuestran las empresas industriales que desarrollan sus nuevos proyectos o trasladan los existentes a Perú. Las metas que debemos tener como país se pueden resumir en: abastecimiento seguro y confiable, educación de la población en temas energéticos, desarrollo de energías renovables no convencionales con la incorporación de ingeniería chilena, evitar el rechazo a priori de diversas comunidades a centrales renovables y líneas de transmisión, estudiar el ingreso de generación nuclear responsable, desarrollo de políticas públicas de energía y enfrentar las nuevas barreras comerciales, como son: huella de carbono, huella hídrica,

Necesitamos elevar la capacidad instalada de generación eléctrica desde los 15.000 MW actuales a entre 35.000 y 45.000 MW en 2025 norma ISO 50001, emisiones de CO2 e intensidad energética. Para esto debemos desarrollar proyectos de generación, industriales, mineros y condiciones de consumo sustentables ambientalmente. g

Abril - Junio 2011

27


g

Ingenieros emprendedores

ÉXITO EN TERRENO MÓVIL Tiaxa ha pasado de ofrecer plataformas para votaciones por mensajes de textos para reality shows a incursionar en el proceso de tarificación de operadores móviles. Su nivel de software le permite estar a la altura de empresas como Nokia, Ericsson, Comverse o Huawei. Por Luis Salgado

L

a pasión de Felipe Valdés por el análisis de grandes volúmenes de datos comenzó cuando estudiaba ingeniería aeroespacial en la Universidad de Princeton, Estados Unidos. Al titularse, en 1993, decidió viajar a Chile, porque nunca había vivido establemente en el país. Durante siete años acumuló experiencias relacionadas a los negocios en empresas como Enersis, Silicon Chile y Starmedia. Con el paso del tiempo, tuvo ganas de iniciar un proyecto de manera independiente, relacionado con el procesamiento de grandes números, Internet y telefonía móvil. Fue así como armó un plan de negocios y se instaló en Estados Unidos para levantar capital. Junto a un socio logró reunir US$ 6 millones, lo que les permitió crear Tiaxa en el año 2000. ¿Cuál fue la oportunidad de negocio que vieron en ese momento? El modelo de negocios de ese entonces era de operador virtual de redes. A través del sitio www.tiaxa.com, el usuario ingresaba su número celular y el sitio identificaba el operador móvil y ofrecía una serie de servicios bajo la marca Tiaxa. Teníamos acuerdos de contenidos con diarios, también horóscopos, chistes, información sobre acciones, clima. Además, teníamos dos aplicaciones: una con la que podías transferir los e-mails que recibías

28

Ingenieros

en Outlook a un teléfono celular y otra con alertas de calendario. En ese momento eran aplicaciones muy novedosas.

REINICIO

las votaciones por mensajes de texto de los reality shows”, recuerda al comentar la incursión de la empresa en el programa “Tocando las estrellas” de TVN. Luego de participar en otros realities surgieron los primeros servicios corporativos en base a mensajes de texto a Banco de Chile y Dicom. ¿Qué actividades realiza actualmente la empresa? Estamos dedicados a agregarle valor al proceso de cobro a todas las operadoras de telefonía móvil. Desarrollamos un software que los operadores de telefonía móvil usan para tarificar todo lo que no es voz a los usuarios de prepago. Adicionalmente, tenemos un área que se dedica a servicios corporativos, donde tenemos cerca de 20 clientes. Ahora estamos trabajando en el tema de avance de saldo para los usuarios de prepago que consiste en estudiar el comportamiento de estos usuarios para decidir si se les puede avanzar saldo o no, para que puedan completar más llamadas, bajar más música, etc.

Felipe Valdés y su equipo siempre tuvieron fe en que la telefonía móvil iba a tomar fuerza en algún momento, y por eso decidieron seguir trabajando en torno a esa industria. “En 2003 tuvimos nuestro primer golpe de suerte: la tecnología que teníamos para integrarnos al back-end de los operadores móviles nos sirvió para

¿De qué manera llegaron al negocio de la tarificación? Nos dimos cuenta, haciendo reality shows en Chile, Argentina y Ecuador, que generábamos mucho tráfico y, debido a eso, a veces los operadores móviles no podían cobrar bien a los clientes de prepago y las votaciones pasaban gratis. En 2004 Bellsouth

El año 2000 Tiaxa llegó a generar un millón de mensajes de texto y en países como Brasil y Colombia, fue la empresa de más alto tráfico; sin embargo, el modelo no estaba generando ingresos debido a que después de la caída de Nasdaq, con la crisis de las “punto com”, estas compañías de telefonía móvil eran más reacias ante este tipo de negocios, y el modelo de Tiaxa consistía en que las operadoras compartieran sus ingresos a partir de los mensajes de texto. Al no generar ingresos, la empresa estuvo a punto de quebrar entre 2001 y 2003. De los US$ 6 millones reunidos no quedó nada, el resto de los socios abandonó el proyecto y de las 50 personas que llegó a tener la compañía en 5 países, sólo quedaron 8. Todo el equipo se reunió en Chile para una reestructuración.


“Nuestras soluciones son tan buenas como las de grandes ‘jugadores’ mundiales”, destaca el creador de Tiaxa, Felipe Valdés.

Abril - Junio 2011

29


g

Ingenieros emprendedores

Ecuador decidió confiar en nosotros, una empresa chilena de 8 personas, toda la tarificación y el cobro de aplicaciones de contenidos. Se fueron dos de nuestros ingenieros a Ecuador y resolvieron el problema en dos meses, lo que a mí me da gran orgullo, porque empresas como Nokia (Finlandia) y Comverse (Israel), que son líderes en el tema de facturación mundial, no habían podido resolver ese problema. A partir de ahí comienza, realmente, la historia de éxito de Tiaxa: pasamos de facturar US$ 800 mil en 2003 a US$ 1,8 millones en 2004. Actualmente, la compañía tiene oficinas en Perú, Ecuador, Colombia, México y desde diciembre de 2010 en Hong Kong, llegando a procesar 2.000 millones de transacciones al mes. Para 2011, la empresa proyecta ventas por US$ 15 millones, un 85% más que el año anterior. 30

Ingenieros

“Un gran problema que tiene Chile es que el techo de sueldos técnicos en el área TIC es muy bajo”

La tecnología de Tiaxa está operando en 7 países y un contrato con Movistar le permitirá llegar a 6 nuevos mercados. Hoy, cerca de 80 personas trabajan en la compañía, con un marcado perfil técnico. ¿De qué manera Tiaxa retiene a sus talentos? Un gran problema que tiene Chile es que el techo de sueldos técnicos en el área TIC es muy bajo y la principal manera de aumentar los ingresos

es a través de un MBA. Nosotros tenemos desarrolladores que están entre las personas mejor pagadas de la compañía, porque no queremos que hagan MBA, sino que queremos que hagan software tan bueno como los que se hacen en Finlandia, Estados Unidos e Israel, donde sí se valora a la gente que es capaz de plasmar esa propiedad intelectual en un programa que funciona. ¿Cómo observa el nivel de la ingeniería chilena? Nuestros clientes ven que nuestras soluciones son tan buenas como las de grandes jugadores mundiales como son Nokia, Ericsson, Comverse o Huawei. Entonces, creo que hay muy buena ingeniería en Chile. Los desafíos tienen más que ver con habilidades “blandas” como trabajo en equipo, disposición a viajar a lugares remotos y el inglés. g


Columna de Tomás Guendelman Bedrack

DESTELLOS Según el Diccionario Larousse, un destello es un chispazo, ráfaga de luz intensa y de breve duración, o bien, una muestra muy pequeña de una cualidad que aparece inesperadamente o sólo en algunos momentos. La historia registra destellos que han cambiado de forma radical los conceptos que se tenían de numerosos hechos del mundo real, provocando, mediante un chispazo de inspiración, miles de desarrollos posteriores que estaban muy lejos de la mente del iluminado.

de ganso y tinta verde, invisibles para su gastada visión y avanzada edad. De hecho, Fourier murió al poco tiempo. Once años más tarde, los documentos cayeron en manos de Liuville, quien les dio el destino correcto. Difundió este destello de inteligencia e intuición relacionado con la teoría de ecuaciones y las funciones enteras, de las que nace la Teoría de Grupos, rama excepcionalmente fecunda y de amplia aplicación en estos días.

Debido a la amplitud del tema y a mi propia limitación de conocimientos, no puedo ser exhaustivo, de modo que me referiré, exclusivamente, a tres destellos que me impactaron de manera más directa. Sin embargo, y sin más detalles, no tendría excusas para ignorar la manzana de Newton, la tina de Arquímedes y la piedra dejada caer desde la torre de Pisa, que inspiró a Galileo para afirmar que el tiempo de caída de un cuerpo es independiente de su peso, modificando así la hipótesis que, dos mil años antes, formulara Aristóteles. Tampoco puedo no mencionar los impactos en la Física debido a la genialidad de Einstein, Bohr, Heisenberg, Dirac, y tantos otros.

Siguiendo en el ámbito de los destellos asociados a desarrollos tecnológicos, comento un diálogo -tal vez ficticio- entre dos científicos, uno creyente y el otro no. El primero sostenía que tan sólo con observar la función del ojo del ser humano se podía concluir que su creación no era producto del azar, y que era un testimonio indiscutible de la existencia de un ser superior. El no creyente, por su parte, postulaba que el conocimiento científico adquirido a la fecha permitía construir un instrumento que discriminara entre luz y obscuridad, y que la construcción de un ojo artificial de iguales, o incluso superiores capacidades a las del ojo humano, era sólo cuestión de tiempo. Por cierto que este diálogo no resolvió el conflicto, pero

No sé si fue mi primer impacto con el tema de esta columna, pero sin duda, fue uno muy profundo el que encontré en el libro “Una concisa historia de las matemáticas”, de Dirk J. Struik. Uno de sus capítulos está dedicado al joven y desventurado matemático francés Evaristo Galois, muerto a los veinte años en un duelo de honor con el activista político d’Herbinvill, por razones no muy claras, que van desde conflictos políticos –Galois era un connotado antimonarquista- hasta un lío de faldas. Tan pronto Galois aceptó el reto, sabía que moriría y consideró que lo mejor que podía hacer era escribir en detalle sus creaciones matemáticas, y dirigirlas a su amigo Augusto Chevallier, para que éste, a su vez, las hiciera llegar al secretario perpetuo de la Academia Científica de Francia, Jean Baptiste Joseph Fourier. Éste, lamentablemente, no pudo leerlas debido a que estaban escritas con pluma

“Chispazos de inspiración provocaron miles de desarrollos posteriores que han cambiado el curso de nuestras vidas” no podemos negar que, desde el primer intento exitoso del ser humano de registrar una escena hasta estos tiempos, se ha pasado de una caja de madera a un artefacto no más grande que una cajetilla de cigarrillos, con el que se puede fotografiar, filmar, grabar, calcular, mandar mensajes, colgarse de Internet, comunicarse telefónicamente, entre muchas otras funciones, y que los desarrollos continuarán creciendo, mucho más allá de lo que dicta nuestra imaginación. Visto así, da la impresión de que el fallido diálogo religioso, casi sin proponérselo, ha dado lugar a un considerable efecto

Abril - Junio 2011

31


g

Ingeniería global

en la vida del planeta y que, a partir de ese destello, han surgido personas y productos que han cambiado el curso de nuestras vidas. Por último, me referiré a Ray Clough, profesor de Análisis Estructural y de Ingeniería Sísmica de la Universidad de California, en la sede de Berkeley, en los años en que tuve el privilegio de hacer mis cursos de posgrado en esa extraordinaria casa de estudios. A comienzo de la década de los cincuenta, las empresas aeronáuticas estaban en carrera para desarrollar una nave capaz de unir Nueva York y París en una hora; es decir, a una velocidad del orden de los cinco mil kilómetros por hora. Este proyecto se denominó Rapid Traffic, y su principal obstáculo lo constituía el enorme peso del fuselaje, por la necesidad de incorporar grandes factores de seguridad en su diseño, debido a las serias limitaciones que tenían las herramientas de cálculo aplicables a problemas complejos. Con grandes esfuerzos se hacían intentos usando los métodos de Diferencias Finitas, Galerkin, Colocación, Coeficientes Indeterminados, entre los más importantes. El más fácil de emplear era este último, aunque tenía el grave inconveniente de requerir la definición de un polinomio de alto grado para expresar adecuadamente el desplazamiento de los nodos de la estructura, en función de su posición en el espacio. Sólo se podía lograr resultados si se limitaba el tamaño del polinomio al extremo de lo que podían manejar los computadores de la época, lo que iba en desmedro de la precisión deseable. Una de las empresas que participaban en el proyecto encargó a Clough la búsqueda de un procedimiento de análisis que asegurara la precisión de los resultados, de modo de obtener un diseño con esfuerzos confiables, lo que sin duda se traduciría en fuselajes de peso optimizado. Clough aceptó el desafío y decidió emplear el método de Coeficientes Indeterminados, pero en lugar de utilizar una expresión única para toda la estructura, dividió el cuerpo del

32

Ingenieros

“Miles de investigadores se apoyaron en los desarrollos de Ray Clough y su Método de Elementos Finitos, presente hoy en todo programa computacional de análisis estructural”

fuselaje en pequeños trozos, los que denominó “Elementos Finitos”, y les asignó, individualmente, un modesto polinomio, y les agregó requerimientos de compatibilidad geométrica entre elementos vecinos y equilibrio de esfuerzos con las cargas aplicadas. El resultado de esta metodología condujo a una relación entre cargas y desplazamientos que definió la matriz de rigidez del elemento, dejando disponibles todas las herramientas del cálculo matricial de estructuras. De ahí en adelante, miles de investigadores se apoyaron en los desarrollos de Clough, ampliaron y optimizaron las expresiones originales, aumentando sus beneficios y puliendo las mínimas imperfecciones iniciales. Clough está hoy retirado y ha sido objeto de las más importantes distinciones que se otorgan en el mundo a quienes han dado brillo a la profesión y a la academia. Sus aportes son numerosos, pero creo no equivocarme si considero que la invención del Método de Elementos Finitos, presente hoy en todo programa computacional de análisis estructural, es el más importante de todos.


g

Actualidad

LECCIONES DEL TERREMOTO EN JAPÓN Las aceleraciones debidas al sismo principal llegaron a casi 3 g en uno de los sitios. Sin embargo, la buena calidad de la construcción minimizó el daño debido al terremoto. Los efectos más destructores los provocó el tsunami. Por Armando Cisternas

E

l 11 de marzo de 2011, a las 14:46:23 (hora local), tuvo lugar el mayor terremoto que Japón haya conocido. Este sismo de magnitud Mw = 9.0, cuyo epicentro se encuentra a 38°.322 N y 142°.369 E, y cuya profundidad hipocentral es de 32 km, generó un enorme tsunami que invadió las costas produciendo una cantidad inesperada de destrucción y muerte. Colateralmente, se produjo otra gran catástrofe: la desarticulación de las centrales nucleares existentes en Fukushima, las que continúan produciendo desechos radioactivos que han afectado una enorme superficie en torno a los reactores, además de sus efectos en la atmósfera y en el océano.

El sistema de alerta temprana dada por la Agencia Meteorológica del Japón funcionó correctamente al producirse el terremoto y se estima que salvó miles de vidas.

Figura 1: Zona epicentral del sismo de Honshu y ciudades cercanas. Se da también la amplitud estimada de la sacudida : Severa, Fuerte, Moderada.

EL SISMO Es interesante ver la distribución de los premonitores y las réplicas del sismo principal. Todo comienza el 9 de marzo con un premonitor de magnitud Mw = 7.3, seguido de tres otros de magnitud superior a Mw = 6 el mismo día. Luego, hay un corto silencio de un día, y el 11 de marzo llega el sismo

principal con magnitud Mw = 9.0. La distribución de réplicas es también impresionante. Las dos réplicas mayores, de magnitud Mw = 7.9 y Mw = 7.7, se produjeron el mismo día 11 de marzo, pero luego hubo otra de magnitud Mw = 7.1 el 7 de abril. Se han producido unas 60 réplicas grandes de magnitud Abril - Junio 2011

33


g

Actualidad

Mw > 6 entre el 11 de marzo y el 13 de abril, lo que indica una actividad extraordinaria. La distribución espacial de las réplicas, que sirve para estimar la superficie rota en el plano de falla, puede verse en la Figura 2. Durante uno o dos años continuará habiendo réplicas, siendo cada vez menos frecuentes de acuerdo con la ley de Omori, que indica un decrecimiento del número de réplicas en función del tiempo, siguiendo una ley de potencia. Las aceleraciones debidas al sismo principal fueron muy importantes, llegando a un valor de casi 3 g en uno de los sitios. Sin embargo, la buena calidad de la construcción, gracias a una norma antisísmica de las mejores a nivel mundial, minimizó el daño debido al terremoto.

Los efectos más destructores, como veremos más adelante, se debieron al tsunami. La ciudad más afectada fue Sendai, a 130 km de la zona epicentral. En cambio, en Tokyo, a 370 km del epicentro, la aceleración llegó sólo a 0.16 g. La superficie de ruptura del sismo principal tuvo unos 500 km de largo por 150 km de ancho, con un desplazamiento relativo entre las placas de unos 15 m. Al contrario de lo que ocurre en Chile, la placa oceánica, o Placa Pacífica, se hunde hacia el oeste, por debajo de la Placa japonesa (Figura 3). El acercamiento entre las placas, como en Chile, es muy rápido; del orden de 9 cm por año. El contacto entre las placas se produce en la fosa marina, a unos 190 km al Este de la costa. Por otra parte, el epicentro se

Figura 3: Los dos perfiles ortogonales a la fosa indican el hundimiento de la placa oceánica bajo la placa continental (arriba), y la fuente sísmica generadora del Tsunami (abajo).

halla a 72 km al Este de la costa. Esto indica que la ruptura se propagó hacia el Este, hasta llegar a la fosa, generando allí la primera ola del tsunami.

EL TSUNAMI

Figura 2: Se muestra la distribución espacial de un número de réplicas, que permite una estimación de la superficie rota en el sismo principal. Se ve también la Fosa Marina en línea roja. 34

Ingenieros

Es posible imaginarse la fuerza inicial del tsunami como una columna de 6 km de profundidad que es empujada instantáneamente hacia arriba al llegar la ruptura a la fosa marina. Si el desplazamiento entre las Placas es del orden de 15 m, como es el caso en Honshu, y el ángulo del contacto entre placas es del orden de 20°, entonces, la componente vertical del movimiento es dz = 15*sen(20°) = 5 m. Y esto, a lo largo de toda la falla. La Figura 4 muestra la ola inicial en la fosa y la altura del tsunami en la costa de Honshu utilizando la modelización matemática de la ola. El tiempo de llegada de un tsunami puede calcularse, aproximadamente, suponiendo que el fondo marino corresponde a la hipotenusa de un triángulo rectángulo, cuyos catetos son la distancia L de la fosa a la costa, y la profundidad H del fondo del mar en la fosa. Como la velocidad del tsunami es


Figura 4: Modelamiento de la ola del Tsunami (de Sebastián Riquelme) con un largo equivalente al de la ruptura (amarillo) y la amplitud de la ola en la costa (rojo).

La superficie de ruptura del sismo principal tuvo unos 500 km de largo por 150 km de ancho, con un desplazamiento relativo entre las placas de unos 15 m. v = √(g h) donde g es la aceleración de gravedad y h la profundidad del fondo marino, en un punto cualquiera, se tiene que el tiempo de llegada desde la fosa a la costa es T = 2 L / √(g H), donde L y H están dados en km., g en km/sec2, y T en sec. En Chile, la fosa está a 100 km de la costa, y el tsunami generado allí toma un cuarto de hora en llegar al punto más cercano de la costa. En Japón, las distancias son mayores y el tiempo mínimo de viaje hasta la costa es de una media hora. La destrucción producida por el tsunami en Japón fue mucho mayor que la debida al terremoto. En realidad, el sistema de alerta temprana dada por la Agencia Meteorológica del Japón (JMA), funcionó correctamente al producirse el terremoto, y se estima que salvó miles de vidas. Esta alerta temprana fue posible gracias a la impresionante cantidad de recursos humanos y materiales que Japón ha dedicado al estudio de los terremotos. En particular, la Red Sismológica del Japón cuenta con más de

1.000 estaciones sismológicas instaladas a lo largo del país. Muy importante en relación con la alerta temprana fue el uso de la Fase W, un nuevo método que permite conocer el tamaño del terremoto, y la posibilidad de un tsunami, dentro de un cuarto de hora después de producido el sismo. Esta técnica está funcionando ya en la Universidad de Chile. La naturaleza del tsunami había sido mal estimada en el diseño de las medidas de seguridad en Japón. Se dio el caso en que los muros que se construyeron para detener la ola del tsunami no fueron lo suficientemente altos y no pudieron hacerlo. Tampoco se tomó en cuenta la situación topográfica de muchos lugares en la zona afectada, y una enorme cantidad de lugares habitables eran sumamente planos y, por ello, las personas no encontraron sitios altos donde refugiarse y evitar la ola (Figura 5). La propagación del tsunami afectó también toda la costa del Pacífico, incluyendo la costa entre Alaska y Chile,

aunque en Chile la altura máxima fue de solo 2 m. Tal como ocurrió en el caso del terremoto chileno de 1960, el recorrido del Tsunami entre Japón y Chile demoró unas 22 horas. El ensayo de evacuación que se hizo en nuestro país fue muy positivo, pues las personas pudieron familiarizarse con los detalles del acceso a los lugares altos y tener una idea de la duración del proceso antes de volver a bajar a sus viviendas. En Japón, la situación fue crítica. La alerta permitió la evacuación de muchos miles de personas que pudieron salvarse. Pero, como hemos dicho, las condiciones locales habían sido subestimadas, lo que resultó en unos 13.000 muertos y más de 15.000 desaparecidos. El área inundada superó los 500 km2. La altura de la ola dependió de las diferentes condiciones locales. En el Puerto de Ofunato, llegó a unos 24 m. En el puerto pesquero de Onagawa la ola fue de 15 m. En el aeropuerto de Sendai el mar subió unos 12 m.

Abril - Junio 2011

35


g

Actualidad

radioactivo y Cesio 137. La mezcla del hidrógeno con el oxígeno ha producido las explosiones en el exterior de los reactores y la distribución de material radioactivo. ¿Quién podría pensar que Japón, uno de los países más sísmicos del mundo, con su alta capacidad tecnológica, no podría haber previsto el efecto de un gran terremoto sobre esas centrales nucleares? En realidad, Japón es un país de alta tecnología y los reactores nucleares fueron calculados para resistir grandes terremotos con el conocimiento más avanzado en el momento de la construcción. Las plantas que fallaron eran las más antiguas, y estaban en el límite de vida útil y segura. Eran plantas que debían ser re-actualizadas, o bien cerradas, pues ya habían cumplido con el período de seguridad.

Figura 5: Vista de una población destruída por el Tsunami, mostrando la ausencia de lugares elevados.

PELIGROSIDAD NUCLEAR

Este terremoto fue especialmente destructivo debido al tsunami desatado, que en algunos lugares llegó unos 10 km tierra adentro, dejando 4.4 millones de casas sin electricidad y 1.5 millones de casas sin agua potable. Esto ha sido fundamental en la falla del sistema de protección de las centrales nucleares de la región de Fukushima («Isla de la Felicidad » en japonés. Figura 6).

de Fukushima Dai-Ni (1 al 4), se detuvieron automáticamente con el terremoto, tal como se esperaba. Pero después vinieron los problemas, pues no se esperaba un tsunami tan fuerte. En efecto, el tsunami impidió que los grupos electrógenos de reemplazo, que funcionaban con diesel, pudiesen ser activados. El sistema de enfriamiento falló en los reactores más antiguos (6 de los 10 existentes en Fukushima). El ascenso de la temperatura produjo fusión de material radioactivo liberando gases, pero afortunadamente las paredes confinantes de 1 m. de espesor resistieron. Para evitar la subida de presión, los ingenieros decidieron liberar parte del gas en forma de nubes radioactivas. Estos gases ya habían llegado a Francia el miércoles 23 de marzo.

Los reactores de Fukushima Dai-Ichi (1 al 6, desde el más antiguo al más reciente) y

Si se funde el corazón de los reactores Dai-Ichi 1,3 se libera Hidrógeno, Yodo

El Terremoto de Honshu ha desatado una amplia discusión sobre la seguridad nuclear y algunos gobiernos ya han tomado medidas para detener el proceso de construcción de nuevas centrales nucleares.

36

Ingenieros

El gobierno suizo, después de la situación que se produjo en Japón, decidió suspender la construcción de dos nuevas plantas nucleares que estaban programadas. Decisiones semejantes han sido tomadas en Alemania y en Inglaterra. Francia se mantiene todavía sin emitir un juicio al respecto, pero el debate interno y en la prensa es claramente fuerte en el sentido de revisar la política francesa de desarrollo nuclear. Rusia, que experimentó la catástrofe de Chernobyl, conoce bien el problema y observa seriamente la situación japonesa. Sin embargo, lo más importante fue la decisión del gobierno japonés, quien declaró que las centrales dañadas serían cerradas definitivamente. El movimiento ecologista ha sido siempre opuesto al desarrollo de la energía nuclear, y la situación actual en Japón le ha dado un argumento muy importante, pues todo el mundo está a la espera de que pueda ocurrir algo todavía mayor. La situación ha sido muy crítica a partir de la pérdida del control de uno de los reactores en Fukushima. La evolución sigue siendo impredecible, y el gobierno japonés ha reconocido que la dimensión de la catástrofe es semejante a la ocurrida en Chernobyl.


Figura 6: La Planta Nuclear de Fukushima, mostrando tres reactores.

OTROS EFECTOS DEL TERREMOTO Muchos otros sistemas fueron duramente afectados por el terremoto y el tsunami. Las telecomunicaciones fueron interrumpidas en el área impactada. Pero, como una respuesta muy respetable, algunas empresas decidieron ofrecer libre acceso a Wifi con el fin de facilitar las comunicaciones. En el caso del transporte, los trenes fueron inmediatamente suspendidos en Tokyo quedando 20.000 personas afectadas, pero todo continuó normalmente al día siguiente. Varios puentes sufrieron daños importantes. Hubo fuego en algunas refinerías de gas y petróleo, en particular en Ichihara. En la zona norte, quedaron 4.4 millones de personas sin electricidad debido al corte en las centrales nucleares, situación que persistía en abril. En el caso de la compañía de Electricidad de Tokyo (TEPCO) la capacidad de producción disminuyó a ¾ de la que tenía antes del terremoto. Muchos puertos fueron cerrados después del tsunami. En el caso de Tokyo, el puerto se reabrió rápidamente, pero en la zona del terremoto quedaron 15 puertos destrozados.

CONCLUSIONES La experiencia japonesa será muy importante para el futuro de la energía nuclear. Lo que se aprenda en Japón podrá servir para reconsiderar el diseño de plantas nucleares. Este es el problema de fondo: ¿debe abandonarse completamente esta vía de generación de energía, que ha revelado ser una de las más productivas? O bien, ¿se debe re-estudiar cuidadosamente el problema para generar un mayor nivel de seguridad que el que existe actualmente? Chile está confrontado con el problema. Esto lleva a plantearse nuevamente la posibilidad de tener energía nuclear en el país. Es posible construir centrales nucleares que resistan los mayores terremotos. Esto se ve en el mismo Japón donde otras plantas, con diseños más modernos que las de Fukushima, pudieron detenerse automáticamente en el momento del terremoto, y no sufrir el impacto del tsunami. Chile es un país aun más sísmico que Japón. Esto nos indica, una vez más, que debe haber un proyecto a largo plazo, sostenido por el Gobierno, cuyo objetivo sea el conocimiento al mejor nivel posible de nuestros terremotos y tsunamis. Esto

Chile es un país aun más sísmico que Japón. Esto nos indica, una vez más, que debe haber un proyecto a largo plazo cuyo objetivo sea el conocimiento al mejor nivel posible de nuestros terremotos y tsunamis.

implica un programa que contemple: a) creación de una Red Nacional de Sismología que sea equivalente a la japonesa; b) medios y personal técnico adecuado para el funcionamiento continuo de la Red; y c) conformación de un gran grupo de especialistas en terremotos y tsunamis al más alto nivel, que sean capaces de investigar con los datos de la Red las características de nuestra sismicidad. Estos especialistas deberían estar en distintas universidades a lo largo del país. g Abril - Junio 2011

37


g

Energía

LICITACIONES DE SUMINISTRO ELÉCTRICO Los contratos suscritos entre distribuidoras y generadoras, cuando el sistema entre en régimen, explicarán más del 90% de la cuenta de los clientes residenciales. Es importante, entonces, perfeccionar el sistema de licitaciones de suministro. Por renato Valdivia (www.centralenergia.cl)

E

n Chile existen ante la ley dos tipos de consumidores de electricidad: los “clientes libres”, generalmente compañías del sector industrial quienes, por su alto volumen de consumo, pueden acceder directamente al mercado de la generación y negociar sus propios contratos de suministro, y por otra par te, los “clientes regulados”, pequeños consumidores para quienes la ley establece que sean abastecidos a través de una empresa de distribución, que es quien negocia con las generadoras. A esa categoría corresponden los clientes residenciales. la cuenta que estos clientes reciben cada mes en sus hogares está compuesta básicamente por 3 conceptos: • Cargo fijo: monto determinado por la autoridad que cubre cier tos costos de la empresa. Típicamente, equivale a menos del 10% de la cuenta. • Cargo único por uso del sistema troncal: cuya finalidad es pagar par te del sistema de transmisión. Corresponde al consumo de energía multiplicado por la tarifa troncal; esta última, definida por la autoridad. representa menos del 1% de la cuenta. • Cargo por energía: Al igual que el anterior, es proporcional al consumo y depende de la tarifa vigente para la energía. En este caso, la tarifa depende de los contratos que haya suscrito la distribuidora con alguna empresa generadora. normalmente, explica más del 90% de la cuenta. las empresas distribuidoras son actores relevantes del mercado eléctrico chileno. En 2010, por ejemplo, Chilectra compró el 22% de la energía eléctrica comercializada en el país. A través de un sistema de licitaciones competitivo y no discriminatorio, se espera que las empresas distribuidoras logren los menores precios de compra de energía y, al 38

Ingenieros

mismo tiempo, que las empresas de generación accedan a contratos de largo plazo que aseguren ingresos estables y permitan la expansión de capacidad necesaria para abastecer el crecimiento de la demanda. Aun cuando las licitaciones son herramientas de mercado, la autoridad interviene imponiendo un monto máximo a los valores de adjudicación. Esto, con el propósito de proteger a los consumidores finales. Este techo es calculado por la Comisión nacional de Energía (CnE) en función de los costos marginales del sistema en el momento de llamar a licitación. Si tras el proceso queda energía sin adjudicar, se repite la licitación, incrementando el precio techo en 15%.

EL cOsTO DE PrODucir la ubicación geográfica incide en los costos de producción tanto como el tipo de fuente. En el mercado se da una dinámica de expor taciones e impor taciones desde centros de generación barata hacia sectores donde ésta es más cara. Por ejemplo, una fracción impor tante de la energía consumida en Santiago es producida en las regiones VII y VIII. El resultado final es que el costo de la energía varía en el tiempo según los recursos disponibles -sin agua se utilizan combustibles que aumentan los costos-. Cuánto cuesta generar la última unidad de energía disponible es conocido como costo marginal. Al observar la curva del año 2006 se aprecia que el costo marginal, que en este caso corresponde a la zona de Quillota, se mantuvo bajo los 100 uS$/MWh el primer semestre y bajó de los 50 el segundo semestre, mientras que durante los primeros meses del 2008, debido a la sequía y recor tes del gas argentino, los costos se elevaron a cifras históricas, por sobre los 300 uS$/MWh. Esto se refleja en las primeras experiencias de licitaciones. En 2006 las generadoras se adjudicaron bloques de suministro de energía en un rango


FLucTuAciOnEs DEL cOsTO DE PrODucción EVOluCIón En lA zOnA dE QuIllOTA

Costo Marginal Quillota (Barra 220 kV) 350

US$/MWh

300 250 200 150 100

oct-­‐10

ene-­‐11

jul-­‐10

abr-­‐10

oct-­‐09

ene-­‐10

jul-­‐09

abr-­‐09

oct-­‐08

ene-­‐09

jul-­‐08

abr-­‐08

oct-­‐07

ene-­‐08

jul-­‐07

abr-­‐07

ene-­‐07

jul-­‐06

oct-­‐06

abr-­‐06

ene-­‐06

jul-­‐05

oct-­‐05

abr-­‐05

ene-­‐05

jul-­‐04

oct-­‐04

abr-­‐04

ene-­‐04

jul-­‐03

oct-­‐03

abr-­‐03

-­‐

ene-­‐03

50

El gráfico muestra cual es costo marginal -promedio mensual- de la electricidad en la zona de Quillota. Se puede apreciar lo cambiante de este valor, el cual alcanzó cifras históricas durante el otoño de 2008 debido a la sequía y los recortes de gas argentino.

entre 47,04 y 58,951 uS$/MWh, quedando algunos bloques desier tos, por lo que se realizó un segundo proceso (2006-2), en el que los precios llegaron a 65,8 uS$/MWh. En 2008, durante un nuevo proceso, Colbún se adjudicó los subbloques más caros en 124 uS$/MWh, casi duplicando los valores alcanzados tan sólo dos años antes. Entonces, si algunas licitaciones quedan parcialmente desier tas, como las más recientes, y las que se adjudican lo hacen a precios muy cercanos al techo impuesto por la ley, es sensato preguntarse: ¿está operando en forma correcta el mercado? ¿Se desarrolla una real competencia?

LimiTAciOnEs DEL sisTEmA Sin lugar a dudas, el sistema implementado es perfectible. Tomemos, por ejemplo, el más reciente proceso licitatorio, llevado adelante por las distribuidoras Chilectra, Chilquinta y sus respectivas filiales, el que concluyó en marzo de 2011. Si se observan las bases de licitación del proceso de Chilectra, se constatará que los sub-bloques de suministro, que es la unidad mínima de energía por la que un generador puede ofer tar, comienzan con un tamaño de 55 GWh en 2014, aumentan a 165 GWh en 2015 y alcanzan un tamaño definitivo de 247,5 GWh para el período 2016 - 2027. Esto supone una fuer te barrera de entrada para los pequeños generadores. una empresa desarrolladora de pequeñas centrales hidroeléctricas de pasada, por ejemplo, tendría que contar con más de 60 MW de potencia para poder respaldar uno de estos sub-bloque con una política comercial prudente. Si

Para dar acceso a los desarrolladores de proyectos minihidro y eólicos sería recomendable limitar a 35 GWh el tamaño máximo de los sub-bloques licitados por las empresas distribuidoras. se quisiera par ticipar de la licitación con un parque eólico, este debería tener más de 130 MW de respaldo, lo que es más de dos veces la potencia de Canela II, el parque eólico más grande instalado en Chile a la fecha. Esta limitación, en la práctica, deja afuera a muchos actores pequeños, e incluso medianos, afectando la competitividad del proceso. de acuerdo a lo establecido en el reglamento de los PMGd (Pequeños Medios de Generación distribuida) los proyectos menores o iguales a 9 MW pueden optar a un régimen de precio estabilizado, por lo que es menos imperioso para ellos acceder a estas licitaciones. Sí lo es para las pequeñas centrales que superan los 9 MW, las que quedan sin alternativas de contratar su producción. Por lo tanto, para incentivar mayor competencia y dar a los desarrolladores de proyectos minihidro y eólicos acceso a contratos de largo plazo que faciliten el financiamiento de sus proyectos, sería recomendable limitar el tamaño máximo de los sub-bloques a 35 GWh, límite que representa un nivel de contratación razonable para una central minihidro de 9 MW. Abril - Junio 2011

39


g

Energía

Indexar los contratos de suministro de acuerdo a la tecnología de generación que lo abastece permitiría que los precios en el largo plazo reflejaran más fielmente los costos competitivos de la energía.

Otro elemento clave es el plazo desde la adjudicación del proceso licitatorio hasta la entrada en vigencia de la obligación de suministrar. De acuerdo a la Ley Cor ta II, este plazo no podrá ser inferior a 42 meses ni superior a 60. Esto tiene por objeto permitir postular con proyectos aún no construidos, los que logran obtener financiamiento bancario al asegurar un contrato de suministro. Dado esto, sorprende C

Ventas por tipo de clientes

GWh

Ventas de energía SIC 40.000 35.000 30.000 25.000 20.000 15.000 10.000 5.000 -­‐

2003

2004

2005

2006

Cleintes Regulados Clientes Regulados

2007

2008

2009

2010

2009

2010

Clientes Libres Clientes Libres

Ventas de energía SING 14.000 12.000 GWh

10.000 8.000 6.000 4.000 2.000 0

2003

2004

2005

2006

2007

2008

La figura muestra la diferente composición entre el Sistema Interconectado Central (SIC) y el del Norte Grande (SING). Mientras el primero está dominado por consumos regulados, abastecidos a través de empresas de distribución, el segundo está compuesto por muchas empresas mineras, calificadas como clientes libres.

40

Ingenieros


que en el reciente proceso de licitación que concluyó en marzo de este año, el suministro de energía eléctrica se deba iniciar a contar del primero de enero de 2014 para abastecer a Chilectra, y en el caso de Chilquinta, el primer bloque de suministro tiene por fecha de inicio el primero de enero de 2013. Estos plazos no permiten que se alcance a construir un proyecto nuevo para abastecer el contrato, con la salvedad de un parque eólico, lo que significa una barrera de entrada para los nuevos actores, disminuyendo la competencia para las generadoras establecidas. Respecto de los precios, hay un elemento distorsionador : la indexación. Los contratos se adjudican a las generadoras que ofrecen los menores precios, pero esos precios constituyen una base a par tir de la cual evolucionan en base a una combinación de indexadores que el generador determina libremente de entre las alternativas que establecen las bases de licitación (carbón, GNL, diesel y CPI, que es un indicador de la inflación estadounidense). Por una par te, esto implica que quien se adjudica un contrato por ofrecer un menor precio inicial no necesariamente está ofreciendo el menor precio a lo largo de toda la extensión del contrato, que generalmente supera los 10 años, dado que diferentes indexaciones pueden divergir sustancialmente en un plazo tan prolongado. Adicionalmente, la evolución de los precios del contrato de suministro no necesariamente va a seguir la evolución de los costos que enfrenta el generador por el concepto de operar sus centrales. Esto puede llevar al vicio de indexar el precio a la variable más conveniente y no a la más representativa. De hecho, si se observa el proceso 2008-1, todas las ofer tas se indexaron 100% al CPI. ¿Por qué? La licitación se hizo en un momento en que los precios de los combustibles estaban muy elevados, por lo que indexar un contrato a los combustibles que efectivamente se utilizan para generar incorporaría un alto riesgo de que los precios de los contratos se vayan corrigiendo a la baja. El CPI, en cambio, es una medida de la inflación estadounidense que normalmente tiende al alza. Tendría más sentido que la CNE definiera la forma de indexar los contratos de acuerdo a la tecnología de generación que lo abastece, con un techo relacionado con el costo marginal del sistema (o más precisamente, del nodo

de suministro), lo que permitiría que los precios en el largo plazo reflejaran más fielmente los costos competitivos de la energía, lo que es deseable. Siendo el proceso licitatorio competitivo, los generadores deberían ofer tar un precio que les asegure una adecuada rentabilidad. Sin embargo, la indexación no debería constituir una fuente adicional de ingresos, pues esto introduce una desviación respecto de los precios competitivos ofer tados. La función de la indexación es proteger al generador que se compromete a suministrar energía a un precio prefijado por un período prolongado de tiempo en el que sus costos podrían variar sustancialmente por factores ajenos a su control.

La tarea pendiente A seis años de la promulgación de la Ley Cor ta II y resuelto el tema primordial que motivó la instauración de las licitaciones de suministro- dar seguridad y estabilidad de precios para incentivar la inversión en generación eléctrica- nos encontramos en medio de otro episodio de estrechez del sistema. Es bueno plantearse, entonces, si el mecanismo implementado requiere ajustes para servir de mejor manera al desarrollo competitivo del sector de generación eléctrica. Hoy tenemos cer teza de que el gas argentino no está disponible, y acceso al GNL mediante los terminales regasificadores, pero a precios que no son atractivos para generar con este combustible. El carbón se convir tió en la tecnología de desarrollo del sistema. Pero desde el Gobierno se ha planteado el anhelo de alcanzar una par ticipación de 20% de las ERNC en la generación al 2020. E incluso rondan rumores de que se modificaría lo que se considera ERNC para efectos de la ley, entre otros, por medio de un incremento en el tamaño límite para las pequeñas centrales hidroeléctricas de pasada. ¿Puede lograrse un rediseño de las licitaciones de suministro que favorezca el desarrollo de las ERNC? ¿Bajo qué condiciones sería esto deseable? ¿Puede utilizarse para reducir el costo de la energía, favoreciendo tecnologías que bajen los costos marginales? No cabe duda que el sistema es perfectible, y dada la cantidad de energía que se transa por medio de este mecanismo, el impacto que tiene en el desarrollo de la matriz energética y su alta incidencia en las cuentas de los consumidores residenciales, una revisión del mismo se hace urgente. g

Abril - Junio 2011

41


g

Informática

SEGURIDAD EN LA RED La privacidad de los datos no se alcanza necesariamente con protocolos de encriptación o complejas soluciones de software y hardware, sino con educación de los usuarios. Por Alfredo Díaz

La famosa frase “la información es poder” cada día toma más sentido dentro de las empresas, organizaciones e inclusive en los usuarios finales. Si lo analizamos desde una perspectiva meramente de beneficios, es evidente para muchas personas que ser los primeros en obtener cierto tipo de información puede generar cuantiosos dividendos: anticiparse a las variaciones del mercado de acciones, saber la composición de costos para poder negociar contratos, conocer las debilidades de mi competencia para poder superarla, saber los movimientos en puestos de trabajo dentro de una organización… Sin embargo, los modelos económicos nos muestran que los equilibrios tienden a estar presentes de manera amplia, evitando así las distorsiones, por lo que el balance para la idea anteriormente expuesta se podría expresar en términos de costos que se incurren por no obtener dicha información, o dicho de otra forma, cuando se pierde o es robada información importante: mis datos personales sensibles de ser utilizados en fraudes, los datos de mi base de datos de clientes, de acreedores, correos electrónicos de negociaciones o de fijación de precios… 42

Ingenieros

En una época hiperconectada y de sistemas ubicuos como la que estamos viviendo, no podemos evitar interrelacionarnos a cada momento con muchas personas a través de distintas maneras y dispositivos. Esto ha generado que el flujo de información que intercambiamos entre las personas se haya visto incrementado de una manera más acelerada, aunque pueda estar en discusión la calidad de la data transmitida. Ya no basta con evitar que intercepten nuestros correos electrónicos, o bien, nuestra clave de seguridad en un algún sitio web para vernos afectados; el solo hecho de comentar algún dato confidencial a través de las múltiples redes sociales que hoy utilizamos, nos podría provocar grandes pérdidas monetarias o problemas de seguridad. Lo anterior, que parece una exageración, lo han comenzado a entender las empresas que prestan servicios a través de la red y que deben su éxito a la cantidad de usuarios que utilizan sus servicios, sin los cuales su valor en el mercado se iría a pique. Varios de ellos han comenzado a ofrecer a sus usuarios que se conectan vía web un acceso securitizado y encriptado a través de protocolos como el TSL (Transport Layer Security) o el anterior SSL (Secure Sockets Layer) que data de la versión


más antigua del browser Netscape en el año 1995 y que es más familiar al usuario final porque las direcciones web en internet comienzan con “https” en vez de “http”. Lo que buscan estos protocolos es transmitir la información de una forma encriptada entre ambos extremos, para evitar que la información sea interceptada por terceros o que accedan a datos sensibles. Considerando lo rápido que avanzan las tecnologías, es difícil entender lo tardía que ha sido la adopción de este antiguo protocolo en los servicios de redes sociales, en comparación con la temprana adopción por parte de sectores como la banca. Una explicación puede ser la falta de un diseño con foco en seguridad desde los inicios de aplicaciones como Facebook o Twitter (las redes sociales más conocidas por los usuarios en Chile) o bien la creciente preocupación que han hecho notar los usuarios por robo de cuentas y su consecuente mal uso. Recordemos que hoy las redes sociales no se utilizan únicamente para diversión o entretención; personalidades del ámbito público e incluso instituciones las utilizan para publicación de información relevante para sus accionistas o bien para la comunidad: si la cuenta twitter de un banco en Chile avisa de manera “errónea” una posible fusión o adquisición por parte de un banco extranjero, eso impactará fuertemente en el comportamiento de los clientes y del valor de sus acciones. Por otro lado, si la cuenta de un ministro de estado chileno informa “maliciosamente” de una emergencia, puede provocar el caos entre la ciudadanía. En la medida que los usuarios experimentamos los robos de identidad y de información, comenzamos a tomar más en serio las medidas de seguridad en el uso de las tecnologías, o simplemente optamos por alejarnos de ellas. Pero dada la ubicuidad de los computadores y redes y la gran dependencia que tenemos de ellos, se hace poco factible el dejar de utilizar las tecnologías disponibles, por lo que debemos aprender nuevas costumbres que nos permitan “transitar” de manera segura por las redes del conocimiento. ¿Deben los usuarios esperar a que las empresas se tomen todo el tiempo necesario para implementar las medidas de seguridad requeridas para operar y entretenernos de manera segura? Claro que no, y por tal razón para muchas de ellas es un factor diferenciador el hecho de ofrecer medidas de seguridad óptimas a sus usuarios. ¿Usted utilizaría la web de un banco que no le ofrezca una “llave de seguridad” (pin pass, cartola con números únicos, mensaje al celular, etc) para realizar transferencias? Probablemente no, y esa decisión lo haría buscar un banco alternativo en donde se sienta mucho más seguro. Las empresas están comenzando a escuchar a los clientes y comienzan lentamente a invertir en seguridad. Si en la vida cotidiana colocamos cortinas en nuestros dormitorios para evitar que los vecinos invadan nuestra privacidad, ¿en el mundo de la información en red tenemos el mismo nivel de sofisticación y preocupación por nuestra privacidad? En la práctica no es así y la mayoría de los usuarios esparcen sus

“Considerando lo rápido que avanzan las tecnologías, es difícil entender lo tardía que ha sido la adopción de protocolos como el SSL en los servicios de redes sociales” datos a diestra y siniestra por la red llenando formularios en la web, respondiendo encuestas vía email, inscribiéndose en cuanto servicio nuevo aparece, etc. Nuevamente hagamos el ejercicio de compararlo con situaciones que nos son familiares: disfrutando de una agradable cena en un reconocido y respetado restaurante se nos acerca una joven para invitarnos a llenar un folleto para participar de un sorteo en un crucero. Lo llenamos confiados en el buen renombre del restaurante. A los pocos días nos comienzan a llamar para que participemos de un focus group o de algún evento en el cual debemos estar todo el día para ver si nos venden algún servicio o producto. Otro ejemplo: en nuestro supermercado de la esquina nos piden que actualicemos nuestros datos personales porque han sacado una nueva tarjeta. Extrañamente a los pocos días comienza el Spam a nuestras direcciones de correo y llamadas telefónicas de bancos ofreciéndonos jugosas promociones. La privacidad de los datos en la red es cada día un tema que genera molestia y problemas de seguridad a los usuarios. Y es que la pancarta de “los datos son míos y no tienes permiso de dárselos a nadie más” toma nuevamente una mayor relevancia en lo que digo y comparto en la red. ¿Quién me asegura que los datos particulares que me piden que llene en un servicio en línea solo serán para uso de administración de ese servicio y no lo venderán a empresas que fabrican base de datos para el Spam u otros fines? Posiblemente casi nadie lo hace y quienes lo hacen colocan páginas y páginas de disclaimer y autorizaciones que el usuario le entrega a la empresa en cuestión para el “uso y manejo” de los datos privados. Mucha de la información personal que tenemos es en estricto rigor de nuestra propiedad y en las manos equivocadas puede provocarnos un tremendo daño. Por lo anterior, es importante que sepamos definir con quiénes compartir nuestros datos personales, para evitar desagradables situaciones que puedan perjudicarnos. Debemos entender que nuestros datos personales (email, nombres, teléfonos, RUT, banco) son datos valiosos para muchas empresas que lucran con el tráfico de ellos, por lo que debemos ser cautos al momento de entregarlos. La privacidad de los datos no se alcanza necesariamente con protocolos de encriptación o complejas soluciones de software y hardware, sino que por una cultura y educación de los usuarios. Debemos entender que las “cortinas de los dormitorios” en el mundo de internet somos nosotros mismos, diciendo qué información compartir y con quién. g Abril - Junio 2011

43


g

Informática

agregar a FAVORITOS... www.biorefiningmagazine.com

Biorefining Magazine es una publicación especializada en biocombustibles y productos químicos de base biológica. En su sitio web entrega información sobre avances tecnológicos, financiamiento de proyectos, políticas y mercados relacionados a esta industria.

44

www.wri-ltd.com

Wood Resources International LLC (WRI) es una consultora forestal que ha realizado estudios en 35 países. Sus servicios se centran en evaluaciones in situ de los recursos forestales, flujos de materia prima (troncos y astillas de madera), comercio de productos forestales, perspectivas de costos de la madera (los precios de la madera para pasta y los precios de trozas de aserrío) en todo el mundo y la evolución de la industria forestal. En su sitio web publica precios de productos forestales en el mercado mundial y análisis periódicos con un alto grado de detalle.

www.it-toolkits.com/index.htm

www.mint.com

En este sitio es posible obtener estudios y herramientas relacionadas con Tecnologías de la Información desarrolladas por la consultora Janco, especializada en aplicaciones que contribuyan a obtener ventajas competitivas en los negocios.

Mint fue seleccionado entre los mejores sitios de 2010 por la Revista Time, en la categoría de finanzas. Este portal permite a sus usuarios manejar en forma integral todas sus cuentas, gastos e inversiones y analizarlas con respecto a los presupuestos definidos.

Ingenieros




Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.