Revista Ingenieros 207

Page 1

Ingenieros REVISTA DEL COLEGIO DE INGENIEROS DE CHILE A.G. OCTUBRE – DICIEMBRE 2013 / EDICIÓN N° 207

04 13

Crisis energética: ¿es viable la energía nuclear en Chile?

CIL, actividades de un equipo creativo e innovador El futuro de China y Occidente

Entrevista a Rodolfo Saragoni, Premio Nacional Colegio de Ingenieros 2013



SUMARIO 12 Rodolfo Saragoni: científico, profesor e ingeniero

El Premio Nacional Colegio de Ingenieros 2013 cuenta los motivos que lo llevaron a la ingeniería sísmica, su línea de investigación, cómo ha logrado combinar su trabajo profesional con la docencia en la Universidad de Chile y por qué la actividad gremial ha sido importante en su vida.

18 Energía Nuclear: dos visiones

José Maldifassi se pregunta qué pasaría en el mundo si se eliminan las centrales nucleares; concluye que el efecto más importante sería ambiental por el aumento de las emisiones de gases efecto invernadero. Para Rodrigo García, los costos asociados a los riesgos de daños por accidentes nucleares los asume la ciudadanía; por eso la decisión de introducir o no la energía nuclear en Chile debe efectuarse después de una consulta democrática.

25 El desafío del Centro de Innovación del Litio, CIL

Situarse en el futuro y encontrar un nicho en el cambio radical que se visualiza en la industria del transporte es lo que persigue este Centro con sus investigaciones en desarrollo e innovación de las baterías de litio. “Las oportunidades están ahora”, afirma Jaime Alée, su Director.

28 Academia Politécnica Aeronáutica (APA), un referente aeroespacial

Cuna de la Ingeniería Aeronáutica en Chile, la calidad de sus egresados y sus labores de investigación y desarrollo llevaron a la Academia a obtener este año el Premio Nacional Colegio Ingenieros. El ingeniero Fernando Mujica revisa su historia y logros.

32 Innovación, un imperativo estratégico

¿Quién gana y quién pierde con la innovación? Nicolás de Biase explica que la gestión de innovación y la tecnología son fuente de ventajas competitivas y permiten la diferenciación, pero antes las empresas deben definir qué estrategia adoptarán.

38 Chile debería implementar la optimización estructural

Los avances de la ingeniería y materiales han permitido la creación de estructuras poco funcionales y eficientes desde el punto de vista estructural, sostiene Tomás Zegard. En la U. de Illinois investiga las estructuras óptimas, necesarias para Chile porque, según él, son eficientes y funcionales.

Columnas de Opinión

30 Tomás Guendelman

34 Armando Cisternas


ESCRIBEN ARMANDO CISTERNAS Ingeniero Civil en Minas, U. de Chile y Ph.D. en Sismología, Instituto Tecnológico de California, Caltech, es Profesor de Geofísica de la Universidad de Estrasburgo, Francia, y de la Universidad de Chile. Sus áreas de especialización son Sismología Teórica, Tsunamis y Métodos Matemáticos de la Geofísica. Reconocido en su especialidad, ha encabezado un grupo de científicos que exigen al Estado mayor inversión para la investigación de los terremotos. NICOLÁS DI BIASE Ingeniero Civil Industrial U. de Chile, MBA Universidad Adolfo Ibáñez, ha participado en diversos cursos de perfeccionamiento en Chile y en el extranjero, entre los que destaca Advanced Marketing en la Universidad de Harvard. Desde 1988 ha desarrollado actividades académicas en la Universidad de Chile en las áreas de Sistemas de Información, Gestión, Marketing y Gestión de la Innovación y la Tecnología. Actualmente desempeña el cargo de Technology Infrastructure Solutions, Regional Brand Manager en Avnet (ex Tallard). RODRIGO GARCÍA PIZARRO Ingeniero Civil U. de Chile, durante muchos años fue Profesor Adjunto del Departamento de Ingeniería Civil, guía y patrocinador de memorias de título que forman un conjunto de estudios tendientes a la penetración de la energía eólica en Chile. En la actualidad dirige una empresa de proyectos de energía renovable, es director de ACERA (Asociación Chilena de Energías Renovables) y miembro de la CCTP (Comisión Ciudadana Técnico Parlamentaria para la Política y Matriz Eléctrica). TOMÁS GUENDELMAN Ingeniero Civil U. de Chile y M Sc. U. California, Berkeley; Presidente de IEC Ingeniería S.A. y del Instituto de Ingenieros de Chile y Profesor de Análisis Estructural Avanzado. Ha recibido la Medalla de Oro del Instituto de Ingenieros de Chile, un Doctor Honoris Causa de la U. de La Serena, Premio Nacional en Ingeniería Estructural, AICE; Premio a la Excelencia en Ingeniería Antisísmica, ACHISINA; premios por excelencia docente del Centro de Alumnos de Ingeniería y del Departamento de Ingeniería Civil de la Universidad de Chile.

Revista Ingenieros es una publicación oficial del Colegio de Ingenieros de Chile A.G. que circula cada tres meses. COLEGIO DE INGENIEROS DE CHILE Presidente: Fernando Agüero Garcés Primer Vicepresidente: Sergio Contreras Arancibia Segundo Vicepresidente: Alfonso Larraín Vial Secretario General: Cristián Hermansen Rebolledo Tesorera: María Isabel Infante Barros Gerente General: Jaime Blanco Cristi

REVISTA INGENIEROS / COMITÉ EDITORIAL Fernando Agüero G. / Jaime Alé Y. / Armando Cisternas S. / Arturo Gana de Landa / Tomás Guendelman B. / Juan Carlos Sáez C. / Jaime Blanco C. / Margarita Gatica L. 2

Ingenieros

DIRECTOR Juan Carlos Sáez C. PRODUCCIÓN EDITORIAL Marta Infante / Fabiola Martin DISEÑO Mary Ann Streeter / Vanessa Kusjanovic CONTACTO COMERCIAL Margarita Gatica gcomercial@ingenieros.cl / Teléfono (56-2) 2570 1900 Toda reproducción, total o parcial, deberá citar a “Revista Ingenieros, del Colegio de Ingenieros de Chile”. Las opiniones publicadas en esta edición son de exclusiva responsabilidad de quienes las emiten; por lo tanto, no reflejan una visión oficial del Colegio de Ingenieros de Chile ni del Comité Editorial de esta revista. COLEGIO DE INGENIEROS DE CHILE Avda. Santa María 0508, Providencia. Santiago de Chile. Teléfono (56-2) 2570 1900 colegio@ingenieros.cl www.ingenieros.cl


COLUMNA DEL DIRECTOR

UNA SIMPLE PREGUNTA A

sisto por estos días a la Feria del Libro de Frankfurt, la más importante en el mundo en materia de transacción de derechos literarios. Además de los aspectos profesionales del encuentro, se destaca el inmejorable ambiente para el debate ilustrado. Durante mi desayuno aprovecho de darle los últimos toques a esta columna editorial. Se sienta junto a mí un distinguido editor suizo quien, me imagino por gentileza, me pregunta de qué va el texto, ante lo cual le cuento de la Revista y de su contenido y de los debates aparentemente sin salida que existen en Chile, en particular en relación a nuestros desafíos energéticos.

Juan Carlos Sáez Director Revista Ingenieros

Me sorprende con esta frase: “En el mundo los países recurren a la política de los consensos cuando ya es bastante tarde, para salvar a la nación; en Suiza llevamos 700 años de política de los consensos”. El hombre es políticamente de izquierda y por lo tanto se siente obligado a agregar: “Puede resultar un poco conservador y aburrido”. Es así, pienso yo, puede resultar un poco conservador y aburrido, pero si hemos de juzgar por los resultados en diversas dimensiones del desarrollo como calidad de vida, medioambiente y tantos otros, al menos podríamos extraer las lecciones de gobierno que nos puedan ser útiles mirando la historia de Suiza con sus luces y sus sombras. ¿Qué país no las tiene? Esta conversación gatilla mi necesidad de recomenzar este texto y quedarme con la pregunta. Compartirla con los lectores. Tan simple es la pregunta que no nos la hacemos antes de iniciar los debates: ¿estamos dispuestos a ceder en algo para construir consensos o vamos a esperar llegar a los bordes de las crisis en todos estos temas en los que se juegan las claves del desarrollo? Se dirá con razón que las diversas respuestas a estos desafíos críticos marcan sendas distintas al desarrollo; es decir, a diversas concepciones del desarrollo. Pero ese ha sido también el desafío en Suiza. No imponerles a los demás un tipo de desarrollo obliga a los consensos. Esos consensos no son siempre un lugar a medio camino de todo, sino algo nuevo que nace de la imaginación y la apertura a las visiones distintas a la propia. No es chiste: la nueva solución podría no ser ni lo uno ni lo otro, sino todo lo contrario. Escuchando a mi amigo editor suizo, recordé algo que leí de Amiel, famoso escritor, filósofo y teólogo nacido en Ginebra en el siglo 19 (que inspiró con su novela Diario Íntimo a tantos como León Tolstoi) y que expresa muy bien el ánimo político de esa nación, algo cuya cita exacta no logro encontrar lejos de mi biblioteca, pero que recuerdo más o menos así: “¿Qué es un espíritu cultivado? Es aquel que puede observar desde innumerables puntos de vista”. ¿Cuántos de nosotros estamos dispuestos a hacerlo?

octubre - diciembre 2013

3


En Cifras

Precio de la Electricidad en Chile En la actualidad el precio de la electricidad en Chile para clientes no regulados es cuatro veces superior al de los países vecinos y más que el doble del promedio mundial, tendencia que se verá acentuada en los próximos años. En el Sistema Interconectado del Norte Grande las tarifas en agosto fueron US$ 79.8 el MWh, en circunstancias que nuestros competidores en Perú operan con un costo entre US$ 43,1 y US$ 51,1 el MWh, según sea en horario de punta o no.

237.1 206.6

173.7

184.6

Cardones

Polpaico

Charrúa

aI tem

Promedio Agosto 2013 Julio 2013

4

Ingenieros

46.3

Lima

nte

Crucero

Sis

Sis te No ma I rte nte Gr rco an ne de ct (SI ado NG )

0

r Ce cone ntr ct al ad (SI o C)

50

39.2

51.1

Perú 43.1

79.8

81.9

126.3

150

100

271.1

268.3 222.4

250

200

282.3

292.0

Chile 271.6

300

294.6

Precios de electricidad mensual (US$/MWh)

Máximo


EDITORIAL

CRISIS ENERGÉTICA D

esde hace algunos años los temas dominantes en el seno del Colegio de Ingenieros son los tópicos referidos a la crisis energética que vive el país por la insuficiente generación eficiente y por los altos costos de la electricidad. Al cierre de industrias del plástico y de fabricación de artículos cerámicos, se ha sumado recientemente el término de actividades de una gran fábrica de papel y el anuncio que el Metro de Santiago debió declarar desierta la licitación para el suministro de electricidad por la ausencia de ofertas competitivas. Existen 24 proyectos de generación paralizados temporal o definitivamente, por dificultades en la aprobación de sus estudios de impacto ambiental, por motivos judiciales o por conflictos con las comunidades aledañas. Esta situación está afectando a los nuevos proyectos mineros, los que disminuyeron su ritmo de inversiones de manera significativa. Todo indica que durante el invierno de 2016 el país deberá enfrentar racionamiento eléctrico o pagar fuertes sobreprecios por consumos superiores a un porcentaje de lo histórico. Fernando Agüero G. Presidente Colegio de Ingenieros de Chile

Se requiere un acuerdo nacional que reconozca la gravedad de la situación y comprometa el apoyo a los proyectos de generación eléctrica que menos impacten el medioambiente y más aporten a las necesidades de energía en el futuro.

Las restricciones a las centrales hídricas y térmicas han derivado en una dependencia cada vez mayor de electricidad generada con petróleo diesel, que es la fuente de más alto costo. Hoy el precio de la electricidad en Chile para clientes no regulados es cuatro veces superior al de los países vecinos y más que el doble del promedio mundial, tendencia que se acentuará en los próximos años, con la consiguiente grave pérdida de competitividad de las actividades productivas, cierre de industrias y su traslado a países vecinos. El precio promedio durante agosto alcanzó a US$ 206,6 el MWh, con un máximo de US$ 292,0 el día 2 de ese mes en la subestación de Polpaico, y en la subestación Charrúa ascendió US$ 126,3, con un valor máximo de US$ 282,3 a comienzos del mes. En el Sistema Interconectado del Norte Grande las tarifas en agosto fueron US$ 79.8 el MWh, en circunstancias que nuestros competidores en Perú operan con un costo entre US$ 43,1 y US$ 51,1 el MWh, según sea en horario de punta o no. A estas alturas, los mayores costos en Chile son inevitables y el proceso sólo podrá comenzar a reversarse a partir de un cambio de actitud de la ciudadanía y el establecimiento de normas que promuevan el ingreso de nuevos actores a la industria. Todos los esfuerzos en el país se han concentrado en el desarrollo de energías renovables no convencionales, lo que el Colegio de Ingenieros apoya irrestrictamente, pero es irreal pensar que así se resolverá el problema. Hoy se requiere de un acuerdo nacional, liderado por el gobierno, los trabajadores y los empresarios, con la participación de representantes del poder judicial y del parlamento, que reconozca la gravedad de la actual situación y comprometa el apoyo a los proyectos de generación eléctrica que menos impacten el medioambiente y más aporten a las necesidades de energía en el futuro. Esto supone aprovechar los importantes recursos hídricos renovables que tiene el país, explorar sin complejos el uso futuro de la energía nuclear, profundizar el uso de fuentes renovables no convencionales y fomentar el consumo más eficiente de electricidad a todo nivel. El éxito de un acuerdo de esta naturaleza radica en la capacidad de todos para renunciar, en algún grado, a aspiraciones individuales y particulares legítimas, en beneficio del bien de toda la sociedad. Asimismo se deberán concordar los términos que regulen la construcción de las nuevas líneas de transmisión que se requieren urgentemente para permitir un acceso seguro de electricidad desde y hasta todos los rincones de Chile y flexibilizar los términos para el ingreso de nuevos generadores al mercado. octubre - diciembre 2013

5


HACIENDO INGENIERÍA Logran crear un material que se consideraba imposible

El material, a base de carbonato de magnesio y bautizado upsalita, tiene gran potencial para reducir la cantidad de energía necesaria para controlar la humedad ambiental en la industria electrónica y en la farmacéutica, puede utilizarse para recolectar ciertas sustancias de vertidos químicos (el petróleo de una marea negra, p.ej.), en sistemas de aplicación de medicamentos a pacientes y para mejorar las condiciones de salubridad después de un incendio. Tras un siglo creyendo que era imposible fabricar un material mediante la vía que permite elaborar a otros carbonatos desordenados, el equipo de Maria Strømme, profesora y jefa de la división de Nanotecnología y materiales funcionales en la Universidad de Uppsala, consiguió sintetizarlo.

(Foto: Simon Ydhag)

Cientificos de la Universidad de Upsala, Suecia, lograron sintetizar un nuevo material con capacidades de absorción de agua y valores de área de superficie que marcan un récord y superan los límites de lo que se consideraba científicamente viable.

El equipo de investigación que ha hecho el hallazgo y a la derecha, el material que se suponía que era imposible de crear.

Se ha comprobado que la upsalita tiene la mayor área de superficie encontrada en un material de su clase: 800 metros cuadrados por gramo; está llena de poros vacíos, todos con un tamaño inferior a los 10 nanómetros, y su estructura porosa le proporciona una manera única de interactuar con su entorno, lo que posibilita aplicaciones únicas y llamativas. Por ejemplo, absorbe más agua a humedades relativas bajas que los mejores materiales disponibles hoy para dicho fin.

http://noticiasdelaciencia.com/not/8121/logran_crear_un_material_que_se_consideraba_imposible/

Un incremento “universal” en la conductividad eléctrica Simulaciones por ordenador han mostrado cómo la conductividad eléctrica de muchos materiales aumenta de manera universal al estar sometidos a un campo eléctrico muy intenso. Este hallazgo podría conducir a avances tecnológicos importantes en campos como la electroquímica, la bioquímica, la ingeniería eléctrica y otros.

(Imagen: Centro de Nanotecnología de Londres)

En el estudio se investigó la conductividad eléctrica de un electrolito sólido, un sistema de átomos positivos y negativos en

una estructura cristalina. El comportamiento de este sistema es un indicador de la conducta universal que presentan cuantiosos materiales, desde el agua pura hasta sustancias biológicas y vidrios conductores. La conductividad eléctrica, una medida de la facilidad con que un material dado conduce la corriente eléctrica, generalmente es explicada en términos de la Ley de Ohm, la cual establece que es independiente de la intensidad del campo eléctrico aplicado, es decir, los voltios por metro. Esta ley se cumple muy bien con campos débiles, lo que significa que la mayoría de las muestras de material tienen una resistencia eléctrica definida, medida en ohmios. Sin embargo, sometidos a campos eléctricos intensos, muchos materiales se desvían de la Ley de Ohm, aumentando rápidamente su conductividad al aumentar la intensidad del campo.

Las nuevas simulaciones por ordenador han permitido obtener detalles de escala atómica, y a partir de ellos profundizar en aumento universal de la conductividad eléctrica predicho por Onsager en 1934.

Para una amplia gama de diferentes materiales, el modo en que aumenta la conductividad es universal, o sea, no depende del material implicado, sino que es el mismo.

http://noticiasdelaciencia.com/not/8082/un_incremento__universal__en_la_conductividad_electrica/ 6

Ingenieros


Facultad de Ingeniería de Universidad de Valparaíso gana proyecto Innova Chile Un proyecto Innova Chile por 90 millones de pesos ganó la Facultad de Ingeniería UV, iniciativa que busca posicionarla como una entidad que contribuya a la competitividad del país a través del desarrollo tecnológico y la innovación aplicada. El Decano David Jamet explicó que el proyecto no sólo genera cambios para la Facultad, sino que en conjunto con iniciativas anteriores como el FIAC y la innovación curricular, busca una forma distinta y moderna de hacer universidad. Esteban Sefair, académico y uno de los responsables de la iniciativa, añade que “el proyecto significa mucho porque nos va a permitir ser una facultad de clase mundial en la medida que podamos rediseñar lineamientos en tres ámbitos específicos,

como son ingeniería para la salud, respondiendo a la necesidad Decano David Jamet. que la propia Universidad tiene en esa área; ingeniería para el sector marítimo portuario, como una respuesta a una necesidad de la región y el país, y lo que hemos denominado ingeniería para el medio ambiente, que tiene relación directa con un conjunto de necesidades vinculadas a nuestro plan de desarrollo”.

Autobús eléctrico que se recarga en marcha instalar y enterrar los cables sólo es necesario hacer obras en puntos alternos de la calzada, no a todo el largo. El OLEV cumple con las normas internacionales para campos electromagnéticos, sin sobrepasar el valor límite del nivel de seguridad necesario para garantizar la salud humana. El sistema de cables enterrados actúa también de forma inteligente, distinguiéndolo de los automóviles comunes. (Foto: KAIST)

El OLEV, desarrollado por el Instituto Avanzado de Ciencia y Tecnología (KAIST) en Corea del Sur, es un vehículo eléctrico al que se le ha dado forma y función de autobús, que puede ser recargado de energía mientras está parado o en marcha, eliminando así la necesidad de detenerse a recargar en una estación. Además, no requiere pantógrafos con los que abastecerse de electricidad de cables suspendidos a lo largo de su ruta. El nuevo sistema ya se ha instalado, con tramos de recorrido de autobús eléctrico, en Seúl y en el campus del KAIST. El OLEV recibe energía de forma inalámbrica gracias a una nueva tecnología conocida como SMFIR e introducida por el KAIST, la cual permite que vehículos eléctricos en marcha tomen electricidad de forma inalámbrica desde la superficie de la calzada. La energía proviene de cables eléctricos enterrados bajo el pavimento, que crean campos magnéticos. Bajo la carrocería del vehículo OLEV, un dispositivo receptor convierte estos campos en electricidad. La longitud de las bandas de cables enterrados en la calzada de la calle es por regla general de entre un 5% y un 15% de la longitud del tramo de calzada que constituye la ruta, por lo que para

El autobús OLEV.

http://noticiasdelaciencia.com/not/8092/autobus_electrico_queserecarga_en_marcha/ octubre - diciembre 2013

7


HACIENDO INGENIERÍA El tenebroso legado del mercurio en el medio ambiente Un grupo de investigadores medioambientales de la Universidad de Harvard ha presentado evidencias de que será necesario promover reducciones significativas en las emisiones de mercurio para estabilizar los niveles actuales del elemento tóxico en el medio ambiente. Los científicos han estado recolectando datos históricos sobre las emisiones de mercurio desde hace 2000 años, y confeccionando nuevos modelos ambientales del ciclo del mercurio que comprenden las interacciones entre la atmósfera, el mar y la tierra firme. En la actualidad, las emisiones provienen principalmente de centrales eléctricas alimentadas con carbón y de la extracción artesanal de oro. Arrojado al aire, cayendo con la lluvia sobre lagos, absorbido por la tierra o transportado por ríos, el mercurio tarde o temprano encuentra su camino hacia el mar. En

los ecosistemas acuáticos, los microbios lo convier ten en metilmercurio, compuesto o rg á n i c o q u e se acumula en peces, puede acabar en nuestra comida y se ha asociado con daños neurológicos y cardiovasculares. Un 60% del mercurio depositado en la atmósfera proviene de actividades humanas del pasado; sólo el 13% tiene un origen natural y el 27% restante proviene de las actividades humanas actuales.

http://noticiasdelaciencia.com/not/8118/el_tenebroso_legado_del_mercurio_en_el_medio_ambiente/

El auge del uso como pantalla táctil de cualquier superficie convencional

(Foto: NTU)

Convertir una ventana de cristal, una pizarra tradicional e incluso el tablero de madera de una mesa, en superficies relativamente sensibles al tacto y que funcionen como pantallas táctiles es cada vez más habitual, y el costo de los sistemas que permiten

hacer esas adaptaciones sigue disminuyendo, como por ejemplo en el caso del sistema STATINA, desarrollado por especialistas de la Universidad Tecnológica Nanyang, Singapur. STATINA, gracias al uso de unos pocos y baratos sensores de vibración y un algoritmo desarrollado especialmente, puede localizar en qué punto exacto de una superficie de cualquier clase hemos dado un golpecito con la yema del dedo, como los que damos en el teclado de un computador o en una pantalla táctil. Este innovador sistema es capaz de transformar superficies de materiales como madera, aluminio, acero, vidrio y plástico en pantallas táctiles de bajo costo. Una versión más compacta del sistema y la expansión de sus capacidades de seguimiento de movimiento mediante cámaras ópticas está en desarrollo.

http://noticiasdelaciencia.com/not/7982/el_auge_del_uso_como_pantalla_tactil_de_cualquier_superficie_convencional/

8

Ingenieros


¿Una internet más rápida si la diseñan los computadores?

El TCP, el protocolo de control de transmisión, es uno de los protocolos básicos que rigen internet. Una de sus principales funciones es evitar la congestión de la red mediante la regulación de la velocidad a la que se envían los datos. En los últimos 25 años, los ingenieros han hecho constantes mejoras en los algoritmos de control de congestión del TCP, lo que ha resultado en varias versiones rivales del protocolo: muchos equipos con Windows, por ejemplo, usan una versión llamada TCP compuesto; los con Linux ejecutan el TCP Cúbico. Investigadores del Centro para Redes Inalámbricas y Computación Móvil, y del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL), ambos dependientes del Instituto Tecnológico de Massachusetts (MIT), Estados Unidos, crearon Remy, un sistema informático que genera algoritmos de control de congestión de TCP en forma automática. En sus simulaciones, los algoritmos producidos por Remy han superado significativamente a los algoritmos ideados por los ingenieros.

Remy es un sistema de aprendizaje automático: genera algoritmos después de evaluar muchas posibilidades diferentes; luego se concentra en los mejores, buscando perfeccionarlos a través de nuevas versiones, en vez de explorar opciones al azar. Los usuarios especifican ciertas características de la red y diversas preferencias, y Remy hace el resto.

(Imagen: MIT)

Algoritmos diseñados por computador para lidiar con la congestión de internet han producido velocidades de transmisión de datos dos o tres veces más altas que las obtenidas mediante algoritmos diseñados por humanos.

Idear y aplicar mejoras de diseño a una red tan expandida como internet no es tarea fácil, pese a que al principio todo parecía bastante simple.

http://noticiasdelaciencia.com/not/7985/_una_internet_mas_rapida_si_la_disenan_los_ordenadores_/

Aumentan a casi el doble la eficiencia de un panel solar translúcido

El nuevo dispositivo, creado en la UCLA por el equipo del profesor Yang Yang, consta de dos células delgadas de polímero que captan la luz solar y la convierten en electricidad. Es más eficiente debido a que sus dos células absorben más luz que los dispositivos solares anteriores de una sola capa, ya que aprovecha la luz de una porción más amplia del espectro solar e incorpora una capa de materiales novedosos entre ambas células para reducir la pérdida de energía.

Las nuevas células del equipo de investigación podrían servir como capa de generación de energía en ventanas de edificios y pantallas de smartphones, sin comprometer la capacidad de los usuarios para ver a través de sus superficies. (Foto: UCLA/Yang)

Investigadores han perfeccionado una película solar translúcida de dos capas que podría ser colocada en ventanas, tragaluces, pantallas de smartphones y otras superficies usadas para captar energía solar, y que prácticamente duplica la eficiencia de una novedosa célula fotovoltaica que crearon el año pasado.

La nueva célula fotovoltaica tiene el doble de capacidad de captación de energía que una versión anterior; se puede fabricar virtualmente transparente o en tonos que van desde el verde al marrón claro.

http://noticiasdelaciencia.com/not/8014/aumentan_a_casi_el_doble_la_eficiencia_de_un_panel_solar_translucido/ octubre - diciembre 2013

9


HACIENDO INGENIERÍA Universidad Austral tras el ruido de Chile El Instituto de Acústica de la Facultad de Ciencias de la Ingeniería de la Universidad Austral de Chile se adjudicó nuevamente la licitación del Ministerio de Medio Ambiente para desarrollar el mapa de ruido de tres conurbaciones del país: Gran Coquimbo (La Serena y Coquimbo), Valdivia y Temuco-Padre Las Casas. Además, el equipo de investigadores analizará experiencias internacionales en mapas de ruido y otras medidas de la valorización económica de la contaminación acústica generada por el tránsito vehicular y recomendaciones sobre gestión en control de ruido ambiental. El Director de la Escuela de Ingeniería Civil Acústica y del proyecto, Dr. Enrique Suárez, indicó que el proyecto tendrá una duración de 22 meses. “El Ministerio de Medio Ambiente, MMA, está desarrollando una línea de trabajo asociada a la construcción de mapas de ruido de las ciudades de Chile, proyecto que tiene ya varias etapas realizadas: Antofagasta, Providencia, comuna de Santiago y Gran Santiago, del cual todas las licitaciones nos las hemos adjudicado nosotros”, informa. Durante 2012, el mismo equipo de investigadores del Instituto de Acústica desarrolló para el MMA el proyecto “Elaboración de Mapa de Ruido del Gran Santiago Mediante Software de Modelación”, cuyos objetivos fueron elaborar el mapa de ruido de Santiago mediante la aplicación de un modelo de predicción de ruido, analizar los resultados y realizar un cruce de información, estableciendo recomendaciones y lineamientos estratégicos para el control del ruido ambiental.

10

Ingenieros

Identificación necesaria Los mapas de ruido son reconocidos como la herramienta principal para saber el nivel de contaminación acústica presente y futura. Entregan información ambiental de gran valor y clave para quienes deben tomar decisiones sobre el diseño de las ciudades, las inversiones inmobiliarias y la armonía entre las distintas actividades que se desarrollan en una urbanización. Son la mejor manera de conseguir una visión amplia del ruido ambiental de una zona y permiten hacer gestión para reducir la exposición al ruido de sus habitantes. Para el Dr. Suárez, “la elaboración de diferentes mapas de ruido en distintas ciudades del país permite que sus resultados sean utilizados para diferentes fines, como planificar el crecimiento de una ciudad o incorporar la variable acústica en el diseño de nuevos planes reguladores”. Pero estas no son todas las implicancias que tiene la elaboración de los mapas de ruido, ya que la exposición reiterada o permanente a fuentes con elevados niveles de ruido puede provocar diferentes efectos nocivos a la salud de las personas. A partir de los resultados, las autoridades logran identificar los puntos más problemáticos para encontrar soluciones que permitan el óptimo uso de los medios de transporte, por ejemplo, y salvaguardar a la población de los peligros del ruido.


octubre - diciembre 2013

11


Ingeniero Destacado

Rodolfo Saragoni

CIENTÍFICO, PROFESOR E INGENIERO Por Tomás Guendelman

E

n trevistar a Rodolfo Saragoni ha sido para mí una experiencia novedosa, pues nunca lo había hecho, a pesar de conocerlo muy de cerca desde mediados de los sesenta. Rodolfo suma a sus notables cualidades como científico, profesor e ingeniero, un natural desenfado y franqueza cuando se trata de señalar que los temblores y los terremotos son como los “gatos” y los “leones”, que se ven parecidos, pero que mientras los primeros “maúllan”, los segundos “se lo comen”. En muchas oportunidades expresa estas diferencias, par ticularmente cuando asiste a conferencias y observa cómo algunos académicos extraen conclusiones de sus estudios en sismos de mediana intensidad, o temblores, que hacen extensivas a otros de alta severidad, o terremotos. A ellos los llama, graciosa y simpáticamente, “temblorólogos”, en lugar de “sismólogos”, mostrando cualidades histriónicas muy celebradas, que no dejan cicatrices, porque van acompañadas de su más puro “italian style”, en que humor, sarcasmo y profundidad son una sola cosa. Hoy Rodolfo ha sido galardonado una vez más. Ya suma muchas distinciones en su vida profesional, pero esta es una de las más importantes que se confiere a un ingeniero en el país: “Premio Nacional Colegio de Ingenieros 2013”. 12

Ingenieros


Ingeniero Destacado

Creo que es muy interesante para la cultura sísmica de este país, uno de los más sísmicos del mundo, conocer los motivos que te llevaron a seguir esta línea de investigación. ¿Fue producto de algo que te entusiasmó desde la partida, se fue desarrollando mientras estudiabas o fue una cosa del azar? He estudiado toda la historia de la ingeniería sísmica a nivel mundial y todos sus avances han sido a raíz de grandes terremotos, entonces no estoy exento a este efecto. Estábamos en 4º año de la Escuela de Ingeniería y ocurrió el terremoto del 28 de marzo de 1965 en La Ligua. Partió una primera oleada de voluntarios de la FECH a ayudar a los damnificados y cuando volvieron contaron cosas tremendas. Todos nos enrolamos y partimos a ver el terremoto, y me ocurrieron dos cosas que me marcaron bastante: una, que esta disciplina tiene una característica que tú has visto mucho; vemos a los damnificados y conocemos realmente cómo vive la gente. Y dos, que el terremoto es muy transversal, había muchas casas de adobe, casas rurales, destruidas. Muy impresionados, nos inscribimos de voluntarios de la FECH y como éramos de Ingeniería, nos mandaron a hacer mediaguas. Era la primera vez que escuchaba esa palabra. De regreso a Santiago, el profesor Luis Rosenberg, del Laboratorio de Estructuras, me ofreció como tema de memoria analizar el terremoto porque, por primera vez en Chile, había un registro desde el punto vista de la ingeniería. Partí

en 4º año con la tesis y por eso, cuando egresé me recibí de inmediato, justo cuando partía el convenio Universidad de Chile-Universidad de California. Debido a la alta sismicidad de Chile, en California pensaron que era un buen laboratorio natural estudiar aquí los terremotos, ofrecieron becas y partí a doctorarme, una de las cosas más importantes que me han sucedido. Estudié sismología, que en esa época los ingenieros no estudiaban. La Universidad de California en Los Ángeles, UCLA, tenía una característica: era multidiscipinaria, no le gustaba que tomáramos ramos de las mismas áreas, consideraban que sismología, estructura y geotecnia eran muy parecidas. Lo que más me agradó fue que nunca me molestaron, me dejaron pensar tranquilo y estudiábamos lo que queríamos. Hasta cierto punto, fuiste prematuro en cuanto a las decisiones profesionales de tu vida. Si ya en 4º año de Ingeniería sabías para dónde iba la línea, fue cosa de seguirla naturalmente. También ocurrió que justo en ese año llegó el computador IBM 360 a

la Universidad de Chile, lo que fue un salto copernicano porque cambió toda la ingeniería estructural. Recuerdo que cuando partí a una práctica de vacaciones me llevé un manual y no tenía cómo traducir porque la palabra “compilación” no aparecía ni en el diccionario. La llegada del computador correspondió a una época de oro de la Escuela, casi irrepetible históricamente: entró gente muy inteligente, una pléyade de lumbreras que después emigró del país y han sido líderes en sus áreas. Hasta el día de hoy en el extranjero se preguntan cómo un país tan chico logró juntar gente tan inteligente en un momento dado. Tú hiciste la tesis doctoral con Gary Hart, pero su línea no es la misma que seguiste después. Cuando llegué, me iba a dedicar a la parte experimental de edificios altos. En la UCLA acababan de contratar a Gary C. Hart, doctorado en Stanford, quien se integró con una línea de investigación totalmente nueva: los estudios probabilísticos estructurales. Fui a hablar con él para saber si tenía algún tema y se formó esta interacción entre las dos disciplinas.

El convenio Chile-California En 1965, año del terremoto de La Ligua, se había firmado un convenio de intercambio académico entre la Universidad de Chile y la Universidad de California para el desarrollo de áreas y disciplinas de ambas universidades. Los intercambios académicos que se tradujeron en viajes, visitas y estancias de investigación tenían como objetivo generar y consolidar instancias cooperativas de investigación entre ambas instituciones, por medio de la conformación de redes científicas, los intercambios de material bibliográfico y los estudios de posgrado. octubre - diciembre 2013

13


Ingeniero Destacado

Rodolfo Saragoni y Tomás Guendelman durante la entrevista, una experiencia novedosa para ambos, que se conocen muy bien.

Hart hizo cosas que hasta hoy día le agradezco. Yo hablaba muy poco inglés, pero partimos con la tesis, hicimos un pseudotemario y me dijo: “En dos meses más hay una conferencia de sismología en San Francisco y usted tiene que ir a presentar este trabajo”. Desde ahí en adelante pude ir a cualquier congreso. En el ámbito profesional te uniste muy temprano con Mauricio Sarrazin en una de las empresas chilenas hoy más prestigiadas en el ámbito de la ingeniería sísmica: SyS Ingenieros. ¿Ahí partió tu actividad profesional? Con Mauricio trabajábamos por horas en la oficina de Oreste Depetris. Pero el que sugirió la sociedad fue David Campusano. Mauricio estaba en Estados Unidos trabajando en su tesis en el MIT. Le propuse que nos asociáramos alrededor de 1973. Es un socio excepcional, difícil de conseguir; una persona muy correcta e inteligentísima. Llevamos 40 años trabajando juntos. Has logrado unir la academia con el trabajo profesional porque tus estudios de riesgo sísmico, en particular en obras de gran envergadura, te han permitido incorporar en labores profesionales los métodos que desarrollaste en Estados Unidos en tu tesis. ¿Es correcto? En la Facultad tenía muchas discusiones con don Joaquín Monge porque trabajábamos como ingenieros. Yo le 14

Ingenieros

decía que aunque no fuera por plata lo haríamos igual porque los grandes problemas hay que sacarlos del ejercicio de la profesión, es ahí donde se identifican. En la universidad podíamos hacer cosas muy interesantes desde el punto de vista intelectual, aunque no tuvieran ninguna prioridad nacional; pero la ingeniería sísmica es un área de problemas, no es una disciplina, y nosotros tenemos que resolver los problemas por las prioridades del país. Después, don Joaquín estuvo un tiempo en la oficina de don Elías Arze y reconoció: “Usted tiene razón, en realidad es muy bueno hacer las dos cosas, hay que ir a ver y ahí identificar los problemas”. Cuando regresé estaban haciendo una serie de experimentos con los edificios altos y todo lo que se investigó ahí es lo que se aplica hoy día. Muchos memoristas hicieron las fórmulas que se están aplicando todavía en el diseño. En tus cursos de ingeniería sísmica en la universidad, ya sean de pregrado o doctorado, ¿has tenido alumnos destacados? La misión del profesor es detectar talentos, sacar lo máximo que tienen los alumnos y así se los digo. De hecho, un investigador importante en la actualidad, la primera vez que vino a hablar conmigo me preguntó si lo tomaría de memorista a pesar de que no tenía buenas notas. Le

respondí que no los dirijo por las notas, sino por otras cualidades especiales para investigación, como la pasión. Hoy el acceso a la información es muy grande, no hay fronteras y la gente joven funciona. En la parte computacional es bueno trabajar con ellos, se les ocurre hacer las cosas de otra manera, van más adelantados y a uno lo llevan, por eso es bueno estar siempre en contacto con los alumnos. En Estados Unidos un profesor siempre preguntaba: “Who are the emerging stars?”. Hay alumnos que brillan, que se han ido a otras universidades o se han incorporado a la nuestra. Uno de ellos resolvió unas ecuaciones no lineales en forma cerrada, lo que es muy complicado; tenía una mentalidad matemática extraordinaria. Estás jubilado de la universidad; sin embargo, mantienes la docencia y sigues trabajando. El día que jubilé mi familia pensó que me iba a quedar en la casa; sin embargo, parto todos los días a la Universidad con cierto interés porque los jóvenes a uno lo mantienen joven e informado, son muy estimulantes. Lo otro es que descubrí que hacer clases es el mejor ejercicio; tres horas de clases equivalen a andar como 10 km en la semana frente a la pizarra. Es buena la interacción con los jóvenes, plantean


Ingeniero Destacado

Pasiones adicionales Además de la ingeniería sísmica, Rodolfo Saragoni se destaca por dos pasiones adicionales: la ópera y el fútbol. “Las clases y la ópera son sagradas”, confiesa. “En mi casa y oficina no se discute si son económicamente rentables”. En fútbol es hincha de la Chile: “El club deportivo representa la esencia de la universidad, nació de un equipo amateur de fútbol de estudiantes de Medicina”.

muchos desafíos y también entienden mucho más el código de la sociedad; nosotros leemos la sociedad con códigos que ya no corren. ¿Cómo te ves en los próximo cinco años? Con Mauricio Sarrazin hemos planteado retirarnos a los 75 años; en la oficina estamos en la época de la transferencia. Siempre es mejor retirarse a que lo retiren; en la Universidad gradualmente estoy dejando cursos y haciendo sólo los de posgrado. Cuando don Pancho J. Domínguez, una figura nacional de la Ingeniería, tenía 70 años, los profesores más jóvenes no querían que hiciera más clases de hidráulica, pero no se atrevían a decirle. Yo era Director del Departamento de Obras Civiles y me pidieron que hablara con él. Un día lo llamé, le dije que la Universidad le debía tanto por todo lo que había hecho y le propuse que a contar del día siguiente podía no hacer clases si quería, pero que le manteníamos su oficina, su sueldo, el auto y el chofer. Y aceptó porque quería retirarse, hacía clases sólo por el sueldo. En esa época no había jubilación. Ahí propuse jubilar a los 65 años. Creo que hay que irse retirando gradualmente. Uno es el motor de partida, lo empiezan a apreciar por ver las cosas que otros no ven. Por ejemplo, en la oficina uno da una opinión y la gente

parte porque se siente más segura en lo que está haciendo. Las actividades gremiales también han sido parte de tu vida profesional. ¿Por qué? Siempre he considerado valiosa la actividad gremial, he participado en todos los ámbitos y una temporada fui dirigente del Colegio de Ingenieros. Desde que se transformó en Asociación Gremial, es muy importante que el Colegio defienda su rol, que es cuidar la ética. Los ingenieros tenemos mucho prestigio, pero no sólo por la calidad, sino que por la ética, porque la gente no duda de un ingeniero.

Con el terremoto del 27 F colapsaron muy pocos edificios. Pero a raíz de los terremotos de Chile, Nueva Zelanda y Japón, hay un gran cambio: la gente ahora no acepta el nivel de daño que las normas americanas, japonesas y chilenas aceptaban. La sociedad entendió que no se puede evacuar gran cantidad de personas y entró el criterio de la resiliencia; es decir, las construcciones no pueden tener daños que impidan que la gente quede en sus casas. En Chile la norma no establece conceptos de habitabilidad, fija conceptos de no colapso, de seguridad de vida. Como profesor participé en un juicio de viviendas sociales de tres pisos donde murió gente, en Constitución. Me interesó el caso por los límites de la ética, eran personas muy modestas a quienes nadie iba a defender. No lo hice por algo personal, sino para que la sociedad supiera que los ingenieros no estábamos de acuerdo que se saltaran las normas. El Colegio de Ingenieros es el garante de la profesión; su timbre es muy importante y a su presidente lo escuchan a nivel nacional.

Entrega del Premio Al entregar el Premio Nacional 2013 en la categoría persona a Rodolfo Saragoni, el Vicepresidente d el C o le g i o, S e rg i o Contreras, destacó: “Él ha sido uno de los gestores y actor principal del extraordinario avance y transformación que ha sufrido el estudio del comportamiento sísmico de las estructuras desde mediados del siglo XX hasta ahora. Para la Ingeniería en Chile, la integración del fenómeno sísmico es de importancia fundamental”. “Creo que al premiar mi trayectoria académica y profesional de Ingeniería sísmica se ha premiado esta noble especialidad, que ha tenido grandes cultores”, dijo Rodolfo Saragoni al agradecer la distinción. En la foto, con su señora, Yolanda Biondi; María Isabel Infante, Tesorera, y Sergio Contreras, Vicepresidente del Colegio. octubre - diciembre 2013

15


Convenio

EL PROBLEMA DEL INCENDIO Por Marcelo Nordio

C

orría el año 1863. Ese 8 de diciembre la iglesia de la Compañía de Jesús estaba atestada de fieles, asistiendo a la misa en conmemoración de la Inmaculada Concepción, con la que se clausuraba el Mes de María. Ya casi al final del oficio, ven con estupor que los cortinajes, globos de colores, cintas y flores de papel que adornaban la iglesia empiezan a incendiarse. La causa nunca fue esclarecida, aunque sí la impactante consecuencia: más de 2.000 personas, principalmente mujeres y niños, fallecieron sin poder escapar de las llamas y del humo debido a que las puertas se abrían hacia adentro. La gran cantidad de víctimas sitúa este incendio como uno de los peores eventos de la historia moderna a nivel mundial, superado quizás sólo por el atentado a las Torres Gemelas de NY.

Siniestros similares a este ocurren frecuentemente, aunque con menos victimas. Son más frecuentes de lo que se esperaría considerando los avances en seguridad de diseño y conocimiento del comportamiento de los materiales en general, las lecciones aprendidas del análisis de estas experiencias, que han permitido desarrollar técnicas para reducir la probabilidad de ocurrencia o mitigar los efectos, y que se han plasmado en documentos normativos, bastante completos y de amplia aplicación, orientados a proteger la vida humana, los bienes y sus negocios asociados y el medioambiente. Entre estos se encuentran el conjunto de códigos y estándares de la National Fire Protection Association, conocidos como Normas NFPA, y las de Factory Mutual (FM).

¿Cómo reaccionó la comunidad en esa época? Sólo con estupor, pena y preocupación. Nada de demandas por responsabilidad civil ni acciones posteriores de ningún otro tipo. Pero sí hubo gestión: a los pocos días, el 20 de diciembre, se fundó el Cuerpo de Bomberos de Santiago, el segundo de Chile después del de Valparaíso.

Las Normas NFPA son adoptadas en Estados Unidos e internacionalmente porque se desarrollaron usando un proceso abierto, basado en el consenso. También se están empezando a aplicar en Chile debido a requerimientos de los aseguradores.

¿Qué pasa si un incendio de similares características ocurre en nuestros días? ¿Alguien tiene alguna duda de que, para empezar, se presentarían muchas demandas por la responsabilidad civil contra el dueño del edificio, de los arquitectos, ingenieros, constructores y otros profesionales que intervinieron en el diseño, construcción y ornamentación de “esa trampa mortal”? 16

Ingenieros

Las compañías aseguradoras han adoptado una posición muy definida respecto de la seguridad contra incendio, orientada a la protección de los activos, ya que ellos son los que deben financiar las pérdidas materiales y consecuenciales que representan los siniestros de incendio. El motivo es que el escenario del negocio de los seguros ha cambiado. Hace algunos años, los aseguradores

buscaban, en términos muy sencillos y generales, el equilibrio entre las primas que captaban y los siniestros que debían indemnizar. El negocio era recibir ingresos financieros al colocar las primas en el mercado. Si alguien era riesgoso, sólo se le aumentaba la prima a pagar o los deducibles que debía asumir en caso de siniestro, pero igual podía acceder al seguro. Sin embargo, dos cambios importantes hicieron modificar la orientación de los aseguradores: primero, el mercado financiero perdió rentabilidad. Segundo, y más importante, los activos y negocios a asegurar se fueron haciendo cada vez más complejos y con mayores cúmulos en riesgo, tanto por pérdidas materiales como por pérdidas de margen de negocios, lo que implica siniestros potencialmente de mucha mayor cuantía, difíciles de cuantificar a priori. Los aseguradores ya no pueden asegurar a cualquiera, sino que deben seleccionarlo y calificarlo, de tal modo de tener algún grado de certeza de que lograrán resultados operacionales (mayor monto en primas que indemnizaciones por siniestros).

Preguntas ineludibles ¿Qué están haciendo los aseguradores para eso? Pues solicitando que los activos que se van a asegurar tengan condiciones de protección en el estándar de, a lo menos, los requerimientos de las Normas NFPA. Sin embargo, como esto implica inversiones no programadas, las exigencias se han venido haciendo en forma progresiva, parcelada y con


Convenio

¿Quién es?

plazos razonables para implementarlas. Así, es de esperar que pronto lleguemos a buenas protecciones, con sistemas activos. Lamentablemente, los sistemas activos de protección contra incendio no son infalibles. Las preguntas que debemos hacernos como ingenieros son: ¿Qué pasa si nuestros edificios y obras no tienen sistemas activos de protección o si estos fallan? ¿Estamos diseñando y construyendo de tal forma de permitir que los ocupantes puedan salvar sus vidas en caso de incendio? ¿Resistirán nuestras obras el desarrollo del incendio sin sufrir colapsos generalizados? ¿Quién responde por los daños y consecuencia de un diseño o construcción que no consideró las solicitaciones de incendio en las estructuras ni los requerimientos de seguridad de las personas? Nuestra normativa muestra mucha preocupación por el riesgo sísmico. Los ingenieros que par ticipan en nuestras obras saben que deben ser especialmente diligentes en este aspecto, lo que quedó de manifiesto con el buen compor tamiento en general de las edificaciones en el gran terremoto de febrero de 2010. En contrapartida, a pesar de que el riesgo recurrente de incendio está tanto o más presente que el terremoto, causando comparativamente en el acumulado más muertes, da la impresión que no motiva gran preocupación. Rara vez se considera la situación excepcional de solicitaciones en la estructura por esfuerzos de incendio, donde además se producen reducciones importantes de las características mecánicas de los materiales. Lamentablemente, la ingeniería de incendios ha tenido un avance más lento que la antisísmica por múltiples motivos, siendo quizás el principal la complejidad del fenómeno desde el punto de vista de las reacciones que

Marcelo Nordio, Ingeniero Civil de la Universidad de Chile y miembro activo de la National Fire Protection Association (NFPA –www.nfpa.org), participando en las secciones: Latin American Section e Industrial Fire Protection Section. Desde noviembre de 2009 tiene certificación como Especialista en Protección contra Incendio, CEPI de la NFPA, calificación equivalente al CFPS (Certified Fire Protection Specialist) creado en 1971 en EE.UU. Actualmente es Gerente de Ingeniería de Riesgos de Orbital JLT Corredores de Seguros.

La responsabilidad civil por no considerar la seguridad de la estructura frente a un incendio es un riesgo latente que debe ser estimado por la comunidad de ingenieros. ocurren en su desarrollo y que requieren conocimientos profundos de transferencia de calor, mecánica de fluidos, turbulencia, combustión, resistencia de materiales, etc. Salvo para unos pocos especialistas, en la comunidad no hay conocimiento del fenómeno incendio y del comportamiento de los materiales frente al fuego, y por tanto, no se introduce en forma acabada y minuciosa este aspecto en el diseño y construcción. L a a p l i c a c i ó n o b l i g a to r i a d e l a reglamentación local, así como la opcional de aplicar normativa internacional, sólo implica que se están tomando las medidas mínimas razonables para diseñar y construir estructuras seguras. Si esa reglamentación o normativa tiene vacíos en algunos aspectos y se produce un siniestro, se podría reclamar falta de diligencia de los profesionales responsables. Entonces, la responsabilidad civil por no considerar

la seguridad de la estructura frente a solicitaciones por incendio en general, y por las potenciales muertes de las personas a consecuencia del incendio, es un riesgo latente, que debe ser considerado por la comunidad de ingenieros, y por lo tanto deberían incluir necesariamente en el diseño, el análisis del incendio. Pero además pueden protegerse traspasando el riesgo vía contratación de seguros de responsabilidad civil profesional.

El Colegio de Ingenieros, junto con Orbital JLT Corredores de Seguros y ACE Seguros, desarrolló u n Pro g ra m a e s p e c i a l pa ra respaldar patrimonialmente a los miembros colegiados mediante Seguros de Responsabilidad Civil Profesional para Ingenieros, que ofrece diferentes alternativas de límite patrimonial asegurado con condiciones preferenciales. Orbital JLT Corredores de Seguros cuenta con especialistas en la materia que lo asesorarán en las diferentes áreas de los seguros. www.orbitaljlt.cl octubre - diciembre 2013

17


Reportaje

EL MUNDO SIN ENERGÍA NUCLEAR ¿QUÉ PASARÍA?* Por José Maldifassi, Ph.D. Centro de Innovación en Energía y Medio Ambiente Facultad de Ingeniería y Ciencias Universidad Adolfo Ibáñez

Este artículo analiza cuáles serían los efectos a nivel global de una política tendiente a desmantelar las centrales nucleares existentes y a prohibir la construcción de futuros reactores para generar electricidad.

E

n los años 60, la energía nuclear (EN) se presentaba al mundo como la alternativa más económica para generar grandes cantidades de electricidad, incluso se decía que podría terminar con la escasez de energía a nivel global. Se produjo así en los años 70 un acelerado crecimiento global de la potencia instalada, construyéndose una gran cantidad de reactores de diversos tipos en países tanto desarrollados como en vías de serlo. La potencia eléctrica de los reactores creció desde 250 MW hasta enormes reactores de 1.000 MW a fines de los años 70, incentivado esto por la crisis del petróleo de esa década.

humanas, causó cuantiosas pérdidas a la empresa propietaria, advirtió al mundo que los reactores nucleares eran susceptibles de daños considerables, junto con el riesgo real de emisiones radiactivas a la atmósfera en casos críticos, y causó una brusca desaceleración en los programas nucleares, particularmente en los EE.UU. El accidente de Chernobyl, Ucrania, en 1986, comprobó, por segunda vez, las consecuencias de un evento de este tipo y llevó a detener importantes programas nucleares en Europa, que solo

En 1979, el accidente de Three Mile Island en los EE.UU., aunque sin pérdidas

Three Mile Island en los EE.UU.

Chernobyl, Ucrania.

se reactivaron, lentamente, a comienzos del siglo xXI. El accidente de Fukushima volvió a remecer al mundo, produciéndose un muy alto nivel de acuerdo explícito acerca de la real conveniencia de que esta tecnología se dejara de emplear a nivel global, para evitar así nuevos accidentes y la liberación incontrolada de material radiactivo en grandes cantidades. Comienza entonces una campaña internacional, principalmente avalada por organizaciones ambientalistas, tendiente a desmantelar las centrales nucleares existentes y prohibir la construcción de futuros reactores para generar electricidad. Este trabajo analiza cuáles serían los efectos a nivel global de una política como la mencionada.

Fukushima, Japón.

* Resumen de la ponencia presentada en el simposio: “El Desafío de Generar Energía para las Necesidades de un Mundo Globalizado: El Debate en Torno a los Usos de los Recursos Energéticos y el Dilema del Desarrollo Sustentable en el Siglo XXI”, del congreso “Ciencias, Tecnologías y Culturas. Diálogo entre las Disciplinas del Conocimiento. Mirando al futuro de América Latina y el Caribe”. Universidad de Santiago de Chile, Santiago, Chile, enero 2013.

18

Ingenieros


Reportaje

5 - 8,2

China

4,4 - 5,5

3 - 3,6

Europa OECD

11

8,5

Lignito (“Brown Coal”) con CC

Europa OECD

9,5 - 14,3

6,8 - 9,3

Turbina Gas en ciclo combinado con CC

Europa OECD

11,8

9,8

Central hidroeléctrica grande

Europa OECD

14 - 45,9

7,4 - 23,1

China: Tres Gargantas

5,2

2,9

China: Otra

2,3 - 3,3

1,2 - 1,7

Eólica en tierra

Europa OECD

12,2 - 23

9 - 14,6

China

7,2 - 12,6

5,1 - 8,9

Eólica en el mar

Europa OECD

18,7 - 26,1

13,8 - 18,8

Fotovoltaica

Europa OECD

38,8 - 61,6

28,7 - 41

China

18,7 - 28,3

12,3 - 18,6

Fuente: World Nuclear Association, “The Economics of Nuclear Power” http://www.world-nuclear.org/info/inf02.html Fuente IEA Energy Statistics: www.iea.org/stats/index.asp 10/11/12

Figura 1 Emisiones de gramos de CO2 equivalentes por kWh generado Greenhouse Gas Emissions from Electricity Production

1400

Indirectas por ciclo de vida

1200

289

Emisiones directas por quemado

1000 176

800

113

600 1017

400

77

790 575

200

362

0

Carbón

280 100

236

Gas

48

4

Hidro

Solar fotov.

21

10

Eólica

9

Nuclear

Fuente: World Nuclear Association, “Comparative Carbon Dioxide Emissions from Power Generation”; http://www.world-nuclear.org/education/comparativeco2.html

Figura 2 Fallecidos por Tera Watts hora para distintas tecnologías de generación Fallecimientos por TWh para diferentes tecnologías 1,6 1,4 1,2 1 0,8 0,6 0,4 0,2 0

60

50 36

30 20

Eólica

r cle a Nu

a

l. c on

Ba n

qia

oC

hin

pa uro

0,04

roe

tec en

Fuente: Brian Wang, “Deaths per TWh by energy sources”, 2011.

1,4

0,1

lica

s ho

ral atu

lar

sn

0,15 tric aE

0,44

So

so mi no itu

nb Ca rbó

Ga

sa ma

o

Nuclear

Hid

4

Bio

Hidroel. con Banqiao China

12

0 óle

Hidroeléctrica Europa

12

10

Solar en techos

léc

40

roe

60

Hid

70

n

Otra de las características importantes de la EN es que permite que la capacidad de generación de electricidad aumente en forma importante en poco tiempo, lo que motivó que tanto Japón en la

5%

8,3 - 13,7

Carbón con captura de carbono (CC)

Pe tr

Desde un punto de vista industrial y social, la generación de electricidad basada en reactores nucleares es la que menos accidentes y muertes ocasiona por cantidad de energía generada, pese a los posibles fallecimientos no comprobables causados por la liberación de material radiactivo de Chernobyl. La Figura 2 muestra la cantidad de fallecimientos por TWh generado para distintas tecnologías de generación.

10%

Europa OECD

rbó

Tercero, la EN es la que menos espacio requiere para generar una cierta cantidad de electricidad, motivo por el cual ha sido muy conveniente para países de pequeña superficie y alta demanda eléctrica como Japón, Corea del Sur y Europa en general.

Tasa de descuento

Región o país

Nuclear

Ca

Segundo, la producción de electricidad empleando EN es la que menos gases de efecto invernadero emite por GWh generado, considerando para este análisis el ciclo de vida completo del combustible y del reactor. La Figura 1 muestra las emisiones de CO2 equivalente de distintas tecnologías empleadas para producir electricidad.

Tecnología

Gramos de CO2 equivalente por KWh generado

Para comprender el impacto que acarrearía el cese del empleo de la tecnología nuclear es necesar io comprender por qué se ocupa hasta la fecha esta forma de generación eléctrica, pese a sus riesgos. En primer lugar, cabe reconocer que los costos de generación por MWh correspondiente a los reactores nucleares se encuentran entre los más bajos en comparación a las otras formas de generación eléctrica. La Tabla 1 muestra los costos comparativos de distintas formas de generación de electricidad.

Tabla 1 Costos Actuales de Generación de Electricidad, Centavos de US$/kWh

Fallecimientos por TWh generado

Análisis comparativo de la energía nuclear

octubre - diciembre 2013

19


Reportaje

Figura 3

25000000

Generación Global de Electricidad por tipo de Energía 20000000

Otro 15000000

Hidro Nuclear

GWh

Gas Petróleo Carbón 10000000

5000000

Impacto esperado de la sustitución Considerando que el cierre de todos los reactores nucleares para generar electricidad impactará más a aquellos países que hacen un mayor uso de esta tecnología, ¿a cuáles afectaría más que se imposibilite su uso? En orden decreciente, esta restricción causaría mayor impacto en Estados Unidos, Francia, Japón, Rusia, Corea del Sur y Alemania. Y como el cierre de los reactores nucleares no disminuiría el consumo, la generación actual de nucleoelectricidad será reemplazada 20

Ingenieros

0 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009

década de los 70 y Corea del Sur en los años 80 y 90, la prefirieran. Por último, a partir de datos de la Agencia Internacional de Energía, se comprueba que la EN ha contribuido efectivamente a sustituir la generación eléctrica basada en petróleo y gas natural, cooperando a una menor volatilidad en los precios de estos combustibles fósiles y a extender en el tiempo su disponibilidad. La Figura 3 muestra los aportes de las distintas tecnologías de generación al total de generación mundial de electricidad. A partir de esos datos es posible comprobar estadísticamente la sustitución de generación a partir de petróleo y gas natural que la EN ha logrado.

por las siguientes fuentes de energía primaria en orden de importancia: carbón, gas natural, petróleo y energía eólica. El análisis concluye que en la sustitución de la EN la generación hidráulica no tendrá rol alguno que jugar. Por lo tanto, el impacto de sustituir EN en los países mencionados por otras fuentes de energía primaria sería el siguiente: En términos de costos, a los EE.UU. le significaría un aumento anual en los costos de generación de electricidad de aproximadamente US$14 mil millones; a Francia, de US$7.200 millones; a Japón, US$4.800 millones, y a Rusia, Corea del Sur y Alemania, aproximadamente US$2.500 millones cada uno. Estas cifras anuales no parecen muy significativas en comparación a los costos totales de generación de cada uno de estos países, pero no son despreciables y estos mayores costos deberán ser pagados por los consumidores. Donde sí habría un impacto importante sería en los costos de capital para llevar a cabo esta política de sustitución, ya que será necesario construir nuevas centrales de generación a partir de energías primarias. En este

aspecto, a los EE.UU. le significaría un total de US$203 mil millones; a Francia, US$104 mil millones; a Japón, US$69 mil millones, y a Rusia, Corea del Sur y Alemania, un costo de capital de US$36,7 mil millones cada uno. Estas cifras sí son importantes en términos absolutos e impactarían adicionalmente a los consumidores y posiblemente a la tasa de interés para proyectos energéticos en estos países.

Efectos ambientales Tal vez el efecto global más importante del cierre de las centrales nucleares sea el ambiental. Recordando que las centrales basadas en EN no liberan gases de efecto invernadero, la electricidad que se genere para sustituir esta generación nucleoeléctrica provendrá principalmente de combustibles fósiles, en particular carbón, la fuente más contaminante de todas. La Tabla 2 muestra la cantidad de CO2 equivalente que se produciría por la sustitución de la EN por otras fuentes de generación. De acuerdo con las cifras presentadas en la Tabla 2, cabría esperar que a nivel


Reportaje

global las emisiones equivalentes de CO2 de gases de efecto invernadero aumentaran en un 25,5% en relación con las emisiones de GEI causadas por la generación eléctrica el año 2010. Otro efecto ambiental significativo será el espacio necesario para la construcción de las centrales que sustituirán la EN, en particular el terreno requerido por las centrales eólicas, además de los territorios que involucra el ciclo de combustible de los combustibles fósiles. Otra consecuencia importante sería el número de muertes asociadas a la generación a partir de carbón, ya sea al ciclo de combustible (mineros principalmente) o por la contaminación causada por la quema de carbón. La Tabla 3 muestra las fatalidades que sería posible esperar debidas a la sustitución de la EN por otras fuentes de generación eléctrica. Sería esperable que el cierre permanente de todos los reactores nucleares cause un aumento anual de fallecimientos cercano a las 90 mil personas. Es decir, contra toda lógica, se pretendería que suspender el uso de la EN para generar electricidad protegería a la población de las emisiones radiactivas de posibles accidentes, pero tal política traería aparejado un aumento importante en las muertes anuales asociadas a la generación de electricidad. Tres hechos concretos ocurridos en Japón como resultado del cierre de los reactores nucleares post Fukushima corroboran estos resultados: primero, aumentó un 27% el consumo de gas natural licuado para generar electricidad, lo que habría causado un alza de 60% en el precio de ese insumo en la zona económica aledaña a Japón. Segundo, los costos por la generación a partir de GNL aumentaron en US $ 38 mil millones; de mantenerse, su efecto en las exportaciones industriales podría significar una reducción de un 2,5%

Tabla 2 Emisiones de CO2 equivalente por sustitución de la energía nuclear con otras fuentes Tecnología Carbón

Generación grCO2 eq/KWh generado

Sustitución EN TWh/año

Emisiones adicionales sustitución EN, MILLONES de Toneladas CO2eq/año

1.150

1.427,5

1,64

Gas Natural

575

780,8

0,45

Petróleo

600

161,7

0,1

130

0,04

Eólica

30

Total MILLONES de Toneladas CO2eq/año

2,19

Elaboración propia

Tabla 3 Número de muertes debidas a la sustitución de la energía nuclear al 2020 Tecnología Carbón

Fatalidades por TWh

Fatalidades por año sustitución EN

60

1.427,5

4

780,8

3.123

35

161,7

5.960

Gas Natural Petróleo

Sustitución EN TWh/año

Eólica

0,15

130

85.650

20

Total fatalidades/año

94.450

Elaboración propia

del PIB de Japón al año. Y tercero, el Gobierno de Japón habría comunicado a las Naciones Unidas la imposibilidad de cumplir sus obligaciones de reducción de emisiones de GEI del Protocolo de Kioto. En el caso de Alemania, de producirse el apagado definitivo de todos sus reactores, el país pasaría de ser un exportador neto a un importador neto de electricidad, con el consiguiente impacto económico. El cierre anticipado en 12 años de todos sus reactores nucleares tendría un costo estimado total de US$20.600 millones.

Conclusiones Las conclusiones del estudio son que el principal efecto del cierre definitivo de los reactores nucleares sería el aumento en un 25,5% de las emisiones de GEI debido a la generación de electricidad respecto del año 2010. Los fallecimientos

asociados a la generación de electricidad aumentarían a unos 90 mil individuos al año, principalmente como causa de la quema de carbón y su ciclo de combustible. Además, se necesitarían grandes extensiones de territorio para instalar las centrales de sustitución, principalmente por el terreno para los generadores eólicos y la explotación para producir petróleo, gas y carbón; y el GNL se agotaría antes por un mayor consumo para sustituir la nucleoelectricidad. Debido a lo anterior y los efectos esperados es que se concluye, además, que los EE.UU., Corea del Sur, Francia y Rusia continuarían con sus programas nucleares, sería posible que Japón cerrara definitivamente sus reactores nucleares, y que Alemania, junto con otros países de Europa como Italia, Suiza y España, también clausuren sus centrales nucleares. octubre - diciembre 2013

21


Reportaje

GENERACIÓN ELÉCTRICA NUCLEAR EN CHILE

Por Rodrigo García Pizarro

Dada la situación energética del país, se ha planteado la conveniencia de instalar energía nuclear para generar electricidad, lo que demanda un estudio de mayor profundidad, sin prejuicios o preconcepciones, y con gran participación democrática de la sociedad civil. Este es un aporte a la discusión, para que la ciudadanía empiece a formarse una opinión acerca de un tema importante y complejo.

El costo de la energía nuclear La energía nuclear requiere una fuerte institucionalidad de control, agregando costos importantes al del combustible nuclear y la operación y mantenimiento de las centrales. Estos costos adicionales no son imputados al del MWh generado, por lo que terminan siendo asumidos, como costos externos, por la población y el país que cobija esas instalaciones. Estos costos son: 4 C a p a c i t a r u n o s 5 0 0 a 10 0 0 profesionales en universidades extranjeras para que reciban una completa formación en energía nuclear. 4 C r e a r y m a n te n e r to d a u n a institucionalidad para la planificación, ejecución y control de la disposición de los residuos radiactivos. 4 Afiliación del país a organismos internacionales de investigación y desarrollo y de seguridad nuclear. 4 Crear un fondo para financiar el caro desmantelamiento y clausura de una planta nuclear, una vez terminada su vida útil. 22

Ingenieros

4 Contratación de seguros que cubran todos los daños a terceros, incluyendo mortalidad y morbilidad asociada a la exposición humana a la radiación debida a accidentes nucleares o derrames en el proceso de disposición y almacenamiento de los residuos radiactivos. Los costos asociados a los riesgos de daños por accidentes nucleares los asume la ciudadanía, pues no están cubiertos por seguros. El seguro por daños a terceros parece que no existe en ninguna parte del mundo. Así, el riesgo de mortalidad y morbilidad por exposición a radiación lo asume gratuitamente la población. Si la probabilidad de accidentes de la tecnología moderna es tan baja como se dice, debería haber varias compañías de seguros dispuestas a asegurar esos riesgos. Por otra parte, es importante notar que una gran proporción de los costos institucionales son fijos e independientes de la potencia nuclear instalada. En España este costo es apenas soportable con una potencia nuclear instalada de 10% de la matriz eléctrica de ese país. En Chile podría conectarse también

una potencia nuclear de 10% de la capacidad del sistema; pero teniendo en cuenta que la potencia instalada de España es seis veces la de Chile, habría que distribuir los costos institucionales fijos en una generación de 1/6 de la de España, lo que arrojaría costos inaceptables por MWh generado, que por ser invisibles serían asumidos por el Estado, poniendo a la energía nuclear en condiciones privilegiadas frente a otras tecnologías de generación que no requieren instituciones adicionales específicas para su operación segura. Así, es muy posible que incorporando todos los costos ocultos mencionados y los seguros por daños a terceros, la generación nuclear sea económicamente inviable en Chile.

Energía nuclear y energías renovables de flujo no controlable Dado que una gran capacidad nuclear instalada distribuiría mejor el costo fijo institucional, alguien podría proponer la instalación en Chile de bastante más capacidad nuclear que 10% de la matriz.


Reportaje

En ese caso se produciría un conflicto técnico-económico con la capacidad hidráulica de pasada, la eólica y la solar, sobre la base de lo siguiente: 1. En los sistemas eléctricos, la carga de base (demanda mínima de potencia) es del orden de 35% a 40% de la potencia instalada. 2. Las centrales nucleares técnicamente tienen gran inercia, tanto para entrar y salir de producción como para ajustar su potencia de salida. Además, operan a potencia máxima pues, por su alto costo de inversión, deben generar al máximo para solventar la deuda de capital. Así, las centrales

nucleares siempre cubren una buena parte de la carga de base de los sistemas eléctricos donde operan. 3. Las centrales hidráulicas de pasada, las eólicas y las solares, también registran un alto costo de inversión y tienen primera preferencia para abastecer la carga de base, tanto por su bajo costo operacional (el recurso es gratis) como porque deben aprovechar los períodos de buen flujo de recurso. Al no tener control sobre esos flujos, no pueden regular su potencia de salida. Así, estas plantas siempre abastecen un buen porcentaje de la demanda de base

y la demanda de punta se satisface con las centrales que tienen control sobre su potencia de salida (centrales hidráulicas de embalse y generadoras térmicas), que pueden entrar y salir del sistema controladamente y con gran flexibilidad. 4. Las centrales hidráulicas de pasada, las eólicas y solares cubren gran parte de la carga de base. Si a ese sistema se agregara un buen porcentaje de potencia nuclear, el conflicto se produciría de inmediato. 5. En efecto, en España ya se han producido varios eventos en que la generación eólica ha debido cortarse

La energía nuclear podría ser una alternativa para países de gran capacidad instalada y que no posean importantes recursos energéticos naturales (hidráulicos, geotérmicos, eólicos, etc.). octubre - diciembre 2013

23


Reportaje

porque la nuclear ha copado la base. Un ejemplo: en la madrugada del 21 de noviembre de 2008, Red Eléctrica de España no pudo casar la escasa demanda eléctrica (era madrugada de domingo) con la elevada producción eólica. El operador del sistema procedió primero a mandar parar las centrales de embalse, luego ordenó dejar al ralentí a las centrales térmicas de ciclo combinado y finalmente tuvo que mandar parar algunos parques eólicos porque las centrales nucleares no son gestionables. Resumiendo, pareciera ser que la energía nuclear es la mejor alternativa para países de gran capacidad instalada, de modo que el costo institucional por MWh generado sea despreciable y que no posean importantes recursos energéticos naturales (hidráulicos, geotérmicos, eólicos, etc.), que son características que se aprecian en algunos países donde podría resultar lógico contar con una buena capacidad nuclear por carencia de alternativas.

La energía nuclear no es renovable Puesto que el uranio es un recurso finito, al igual que el petróleo, el gas y el carbón, también experimentará un alza de precios sustantiva hasta el agotamiento total como recurso energético.

Con energía nuclear, Chile sería mucho más dependiente • Solamente unos pocos países en el mundo tienen tecnología disponible para efectuar el proceso de enriquecimiento de Uranio-235 ¿Cuántos estarán dispuestos a vender este combustible a Chile cuando el uranio comience a escasear? • Muy pocos países en el mundo tienen la capacidad de reciclar las barras de combustible gastado. • ¿Qué país recibirá los residuos radiactivos para su almacenamiento final, o estos deberán permanecer en Chile?

El tema de los residuos permanece sin solución El almacenamiento seguro de los residuos radiactivos, que demoran cientos de miles de años para convertirse en inofensivos, es un tema que parece no tener solución. Si el tiempo transcurrido hasta hoy desde el apogeo del Imperio Romano es cien veces menor que el plazo en que deberemos cuidar de esos residuos,

Contenedores de basura radiactiva.

Ingenieros

El tema del riesgo de accidentes nucleares Es verdad que la tecnología y la seguridad de la generación nuclear han mejorado en las últimas décadas y se decía que otro “Chernobyl” era improbable, hasta que llegó “Fukushima”, que hasta hoy presenta derrames radiactivos crecientes como consecuencia de un sismo ocurrido hace más de dos años. Es i m p o r t a nte h a c e r n ot a r q u e ninguna población ha sido consultada democráticamente antes de ser sometida a los riesgos que se mencionan. Finalmente, y relacionado con este tema, se incluyen los siguientes resultados de una encuesta de opinión en el Reino Unido: 85% de los consultados apoya las energías renovables, 81% está a favor de la energía eólica y el 60% estaría feliz de vivir a 5 kilómetros de una granja eólica. Es posible que en Chile se obtuvieran cifras parecidas; pero, aunque técnicamente se dice que otro “Chernobyl” o “Fukushima” es improbable, ¿qué porcentaje de la población estaría feliz de vivir a 5 kilómetros de una central nuclear? Una decisión tan importante, como introducir o no la energía nuclear en Chile, debe efectuarse como resultado de una consulta democrática después de que la ciudadanía se informe totalmente y discuta sobre los beneficios y riesgos que la decisión implica.

Las limitadas reservas de uranio en el mundo alcanzan para sólo unas décadas; si aumentara la construcción de centrales nucleares, se agotarían mucho más rápidamente.

24

resulta absolutamente imprevisible e inconmensurable el riesgo a que la ciudadanía estaría sometida.


Ciencia

Centro de Innovación del Litio, CIL

EL DESAFÍO DE LA ENERGÍA EN CHILE REQUIERE CREATIVIDAD En 2010, la Universidad de Chile, las empresas Soquimich y Rockwood Lithium (los dos principales proveedores de litio en el mundo) y la japonesa Marubeni se unieron para fundar un centro de investigación y desarrollo en torno a las baterías de litio, como una forma de crear valor para la ciencia y la industria del país. Así nació el Centro de Innovación del Litio, CIL, que es gestionado a través del Centro de Energía de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile y tiene una misión convocante y agrupadora de las iniciativas aisladas que se están desarrollando en distintas academias y centros de Chile. El objetivo es analizar la escala de valor del litio, pero no en términos de la producción y desarrollo de la materia prima, sino más allá: en desarrollo e innovación en el ámbito de la acumulación de energía en las baterías de litio y vehículos eléctricos.

E

l litio es un elemento muy abundante, barato y de fácil extracción; sus reservas en Chile se estiman en siete millones de toneladas y las globales se estiman en 20 millones; fácilmente hay para unos 500 años. “Se usa en pequeñas cantidades”, explica Jaime Alée, Director del CIL. “La función del Centro es darle más valor porque aunque representa menos del 1% del costo de una batería, en Chile la gente lo asocia con tecnología sofisticada y es la oportunidad de que el país participe en ese mundo”. La batería de litio se conoce hace muchos años; se fue desarrollando gracias a la aparición del computador, celular, tablets, etc., y hoy las recargables que se usan en dispositivos pequeños están dejando fuera de mercado a las

tradicionales. Hace tres o cuatro años se vio que también era factible usarlas en autos eléctricos, que tienen una tecnología bastante conocida, pero resolviendo antes los problemas de costo, acumulación de energía y ciclo de vida. El calentamiento global y la conciencia de que las reservas de petróleo terminarán en los próximos 30-50 años, generando alzas históricas en los precios que afectarán la economía mundial, han obligado a enfrentar un desafío que cruza transversalmente la ciencia, la tecnología y la industria: cómo suplir petróleo en el transporte del futuro. “Es importante en este escenario considerar que el petróleo es hoy la principal fuente de energía de la humanidad con un 40% de participación. El transporte consume un 38% y depende en un 100% de esta

fuente. Es un problema de supervivencia. Si desaparece el transporte como lo conocemos, desaparece el mundo como lo conocemos”, afirma Jaime Alée. “En el futuro se visualiza un cambio radical de toda la industria del transporte”, dice. “En ese nuevo paradigma hay muchas oportunidades, no sólo fabricar baterías, y las posibilidades de una industria o país de entrar en un nuevo paradigma están al comienzo, cuando está todo por hacerse. Surgirán muchas empresas, profesiones e industrias nuevas y las oportunidades están ahora, cuando se abre la ventana. Después, cuando se consolide va a ser imposible”. “Creemos que en el futuro habrá una integración entre la energía y la tecnología de información. Debemos visualizar el mundo de las baterías y de los autos octubre - diciembre 2013

25


Ciencia

Quién es Ingeniero eléctrico, Jaime Alée siempre trabajó en empresas privadas del mundo de las tecnologías de información, por 30 años. Fue emprendedor de Internet en los 90 y CEO de una multinacional Japonesa en Chile hasta el año 2007. Cuando se retiró, decidió iniciar una segunda vida y hacer algo que lo apasionara. En 2007 le ofrecieron hacer clases y volvió a la Universidad de Chile, su alma máter, donde se integró al Centro de Energía con el profesor Rodrigo Palma. Después armó el CIL y como venía del mundo de la industria, le ha dado un perfil bastante orientado al emprendimiento empresarial.

eléctricos de una manera distinta”, sostiene.

Área inexplorada Jaime Alée cuenta que el CIL está por iniciar el proceso tendiente a patentar una batería con inteligencia interior: “El “ladrillo”, como la llamamos, es tecnología de información aplicada a

una batería que hicimos para bicicletas. Uno abre la aplicación en el celular que coloca en la bicicleta, aparece el panel de instrumentos y la batería entrega la información: velocidad, carga, luces, etc”. En el CIL, el proceso de fabricación del “ladrillo” partió concibiendo la batería como una aproximación desde fuera de la industria del transporte y liberándose

de las restricciones de esta industria concebida bajo las limitaciones de los motores de explosión. El prototipo fue una batería para el vehículo más simple: una bicicleta eléctrica. Después se dieron cuenta que los usuarios de bicicletas no usaban las eléctricas; estudiaron cómo integrarles la batería y así transformaron una bicicleta común y corriente en otra eléctrica que lleva el celular delante y la batería en una alforja desmontable que puede convertirla de manual a eléctrica o viceversa. Integraron en esta batería un complejo “cerebro electrónico” interior que se comunica inalámbricamente vía bluetooth con el smartphone, le comunica su posición, estado de carga, temperatura, etc., y el smartphone se convierte en un panel de instrumentos de la bicicleta, gráfico, simple y muy útil. El equipo del CIL vivió todo el proceso de diseño de la nueva batería, hizo las aplicaciones, la probó hasta que muriera y lleva casi un año trabajando en el proyecto. “Vamos a producir 10 unidades que ya tenemos vendidas; andan a 25 km por hora, con una autonomía de 36 km ampliable a 72 km”, informa Alée. “Esto es valor agregado. A cargo de este proyecto está un ingeniero, que

Alcance de nuestras actividades Área I

Área II

Área III

Área IV

¿Cómo producir material mejor y más fino?

¿Cómo incrementar la densidad de energía Wh/kg?

¿Cómo mejorar el rendimiento del pack?

¿Uso potencial de las baterías en la sociedad industrial?

Materia prima de Litio

Celdas de Litio

• Gestión de calor, medidas, instrumentos, fabricación, electrónica.

Dispositivos industriales

Pack de baterías $1 Materia activa (litio+....)

$100

$20

$140

Ciencia

Tecnología

Empresario $300

(Cadena de valor) Es agregar valor económico y conocimiento

26

Ingenieros

Nosotros escogimos un crecimiento no focalizado porque deseamos ser como una “plancha caliente” donde las ideas, iniciativas, innovación y emprendimiento estén siempre alertas y activas


Ciencia

El equipo del CIL vivió todo el proceso de diseño de “el ladrillo”. La nueva batería permite transformar una bicicleta común y corriente en otra eléctrica, es portable, se puede llevar en una mochila y usar en lugares donde hoy no se pueden cargar equipos.

trabaja con un equipo de estudiantes de ingeniería que se apasionan con el tema y le dedican sus horas libres. Además incorporamos varios estudiantes y profesionales diseñadores industriales para que diseñaran el producto, cuestión clave: el case de la batería, el diseño de la aplicación Smartphone, la alforja, la usabilidad, etc.”. “Tuvimos que colocarle precio al prototipo final. La bicicleta es más cara que una común y corriente, pero hay que compararla con un vehículo motorizado: auto, micro, moto. Se carga con $50 y tiene 36 km de autonomía. Es decir, si el usuario vive a 9 km, puede ir a su casa dos días con una carga completa: $25 diarios, mucho menos que una micro. La inversión se recupera en menos de un año”. Por otra parte, al ser una bicicleta normal, puede usarla como tal los fines de semana, para ejercicio o en forma recreativa; lo mejor de ambos mundos”. “La energía portable en gran volumen es un área inexplorada hoy. Los sistemas portátiles, o baterías de campaña, podrán ser usados por cualquier persona para desarrollar distintas aplicaciones”, dice

el Director del CIL. “El “ladrillo” puede cargar hasta ocho veces un computador, se puede llevar en una mochila y usar en lugares donde hoy no se pueden cargar equipos”.

Buscando un nicho El Centro tiene cuatro proyectos científicos asociados a la mejora de la batería; en total hay unas 40 personas trabajando. También está diseñando para una empresa el chaleco de la minería del futuro, con una batería incorporada que lleva celdas pequeñas. El minero, en lugar de andar con dos baterías colgadas de un cinturón para alimentar su celular, su casco y su equipo de radio, se colocará su chaleco, que tendrá un puerto USB y cargará todas sus cosas distribuidas en una chaqueta. Casi como de ciencia ficción. “Hay que situarse en el futuro”, sostiene Jaime Alée. “Probablemente andar en un vehículo a combustión interna va a ser algo prohibitivo. Creemos que en 20 años más, el 50% de los vehículos serán eléctricos porque muchos de los problemas actuales van a estar resueltos.

Las baterías serán más baratas, con más autonomía y más ciclos de carga. Los autos se cargarán en la casa, como un computador, que se programará con celular en la noche con tarifa rebajada; y tendrán más prestaciones, satélites, pantalla”. “Chile no necesariamente fabricará autos eléctricos, pero tenemos la oportunidad de encontrar un nicho en toda esa cadena de producción que va a sustituir al actual universo de fabricación de partes y piezas. Habrá múltiples oportunidades, desde los puntos de carga hasta sistemas portátiles de baterías, que podrán ser usados por cualquier persona para desarrollar aplicaciones distintas: desarrollo tecnológico, software, electrónica, comunicaciones, etc. “Hoy el verdadero problema es el del petróleo. Chile importa el 100% del petróleo que consume, que representa casi el 40% de sus fuentes de energía; el precio sigue subiendo, cada día será peor, no es sostenible. Para enfrentar ese desafío se requiere creatividad, que es posible en la medida que existan centros como el nuestro”, termina Alée. octubre - diciembre 2013

27


Premio

Academia Politécnica Aeronáutica,

cuna de la Ingeniería Aeronáutica en Chile

Por Fernando Mujica Fernández Ingeniero Aeronáutico (APA) MSc. Ingeniería Nuclear (MIT)

Desde su concepción como Escuela de Ingenieros de Aviación hasta hoy, la Academia Politécnica Aeronáutica (APA) ha adquirido gran prestigio en la región, manteniendo un estatus como referente aeroespacial en Chile y Latinoamérica. La calidad de sus egresados y las labores de investigación y desarrollo en el campo aeroespacial avalan su excelencia académica. Este año 2013 obtuvo el Premio Nacional Colegio Ingenieros de Chile.

Los albores de la aviación Los inicios de la Ingeniería Aeronáutica en Chile se remontan a 1913, sólo diez años después del primer vuelo de los Hermanos Wright, cuando al formarse la Escuela Militar de Aeronáutica (actual Escuela de Aviación), el Ejército envió a un grupo de oficiales y suboficiales a cursos de pilotaje en Francia. El Teniente Víctor Contreras, al finalizar el curso de vuelo, fue enviado a la Escuela Superior de Aeronáutica y Construcciones Mecánicas (SUPAERO), al Curso Superior, de dos años. En 1914, con su título de Ingeniero en Construcciones Aeronáuticas y Mecánicas, se transformó en el primer ingeniero aeronáutico chileno. En 1930 se crea la Fuerza Aérea de Chile ( FACH ), como fusión de los servicios aéreos del Ejército y la Armada. Ingenieros de la Armada absorben mayoritariamente la función de Ingeniería, y son comisionados a realizar cursos de Ingeniería Aeronáutica en España y Estados Unidos. La Línea Aérea Nacional (LAN), fundada en 1929, envía ingenieros a perfeccionarse a Estados Unidos. En 1942, la FACH inicia la formación de sus propios oficiales en la Escuela de Aviación, en lugar de que estudien 28

Ingenieros

en las Escuelas Militar y Naval. Cuatro años después ingresan los primeros cadetes para formarse como Ingenieros Aeronáuticos y se crea además la Escuela de Ingenieros de Aviación donde, luego de cinco años de estudios, sus alumnos egresan como Ingenieros Aeronáuticos. Sus profesores eran los ingenieros que habían llegado de los cursos de perfeccionamiento en España y Estados Unidos, además de ingenieros civiles de las Universidades de Chile y Católica.

De la hélice al jet Gracias a que contaba con una base de Ingenieros Aeronáuticos, Chile pudo acceder a los avances tecnológicos de la aviación y dar el apoyo para que los aviones operaran con la seguridad requerida. A partir de 1946, la FACH recibe aviones de caza, bombardeo, exploración aeromarítima e instrucción que eran de primera línea en el mundo. LAN, por su parte, inicia alrededor de 1950 su modernización con aviones de transporte del tipo DC-3 que hacen posible ampliar las rutas comerciales en el territorio nacional; en 1954 incorpora los DC-6B que permiten viajes intercontinentales.

En 1954, la FACH adquiere al Reino Unido los primeros aviones jet, los Vampiros, que abren la siguiente etapa tecnológica. En 1956 llegan los F-80 desde los Estados Unidos, el avión de combate de la época. En 1964, LAN compra en Francia los Caravelle, sus primeros aviones de transporte a reacción, y en 1967 la FACH recibe los primeros Hawker Hunter adquiridos en el Reino Unido, que podían quebrar la barrera del sonido. Estas incorporaciones obligan a los ingenieros aeronáuticos a desarrollar sendos talleres de mantención de motores jet, tanto en el Centro de Mantenimiento de LAN como en el Ala de Mantenimiento de la FACH. En 1958, la Ley que crea el Colegio de Ingenieros de Chile reconoce los títulos de ingenieros otorgados, entre otras instituciones educativas, por la Escuela de Ingenieros de Aviación. La FACH estima necesario reunir en un solo establecimiento los cursos para Oficiales Ingenieros y de otras especialidades, y por Decreto Supremo de enero de 1963 se crea la Academia Politécnica Aeronáutica (APA), continuadora de la Escuela de Ingenieros de Aviación. Su primer Director, el Coronel de Aviación


Premio

Ingeniero Hugo Fuentes Fuentes, se había desempeñado como jefe y profesor de los primeros cursos de Ingeniería Aeronáutica. La tecnología aeronáutica avanza muy rápidamente tanto en el campo militar como civil. En 1967, luego de una acabada preparación, LAN recibe el primer Boeing 707, cuadrirreactor que permite viajes transatlánticos, con tecnología de primera línea en motores, sistemas y electrónica. Por su parte, la FACH recibe en 1976 los primeros aviones supersónicos F-5E, capaces de volar sobre la velocidad del sonido, que además incorporan nuevas tecnologías en los motores, estructuras, materiales aeronáuticos y principalmente, nueva electrónica avanzada, como radares de control de tiro. La APA se ve obligada a integrar todas estas nuevas tecnologías en sus planes de estudio a través de los conocimientos que entregan los profesores, Ingenieros Aeronáuticos tanto de la FACH como de LAN, entrenados en los países de origen de los nuevos aviones.

Los egresados de la APA A partir de la primera promoción de 1946 se han formado 320 Ingenieros Aeronáuticos, 230 Ingenieros en Administración, y otros 1.100 profesionales en distintas áreas de la aeronáutica, quienes se han desempeñado en las instituciones de la Defensa, ENAER, líneas aéreas, aviación general y en múltiples

áreas de la ingeniería nacional ajenas a la aeronáutica. Gracias a su formación profesional, numerosos ingenieros egresados de la APA han realizado estudios de posgrado en diferentes universidades extranjeras como el Massachusetts Institute of Technology (MIT), el Air Force Institute of Technology (AFIT) y el Naval Postgraduate School, en Estados Unidos; la École Nationale Supérieure d’Ingénieurs de Constructions Aéronautiques (ENSICA), la École Nationale Supérieure de l’Aéronautique et de l’Espace (SUPAERO), el Institut Supérieur de l’Aéronautique et de l’Espace (ISAE), y la Toulouse Business School (TBS), en Francia; y la Universidad Tecnológica de Dinamarca. Asimismo, los Ingenieros Aeronáuticos egresados de la APA han participado de todos los logros del desarrollo aeroespacial chileno, tanto militar como civil, entre los que se cuentan: • Creación de la Empresa Nacional de Aeronáutica (ENAER). • Desarrollo de la Base de Mantenimiento de LAN. • Diseño y producción de más de 140 aviones T-35 Pillán, en la década de 1980, avión seleccionado para la instrucción de pilotos militares de Chile, España, Panamá, Paraguay, El Salvador, Guatemala, República Dominicana y Ecuador. • Desarrollo del Proyecto Modificación Experimental del Tiempo Atmosférico

De izquierda a derecha: Coronel Hugo Fuentes, Primer Director; Alumnos en el Laboratorio de Aerodinámica, en la Biblioteca y en el Laboratorio de Metalurgia.

(META), cuyo propósito fue provocar artificialmente precipitaciones en zonas de sequía (fines de los años 60). • Desarrollo y lanzamiento del primer satélite chileno FASat-Alfa (1995) y de su gemelo FASat-Bravo (1998), incluyendo la explotación de este último. Desarrollo, lanzamiento y explotación del tercer satélite chileno FASat-Charlie (2011), actualmente en operación. Procurando generar instancias propicias de comunicación con el medio, de forma de contribuir a solucionar los problemas y necesidades que demanda el desarrollo aeroespacial nacional, la APA ha realizado diferentes seminarios y congresos en las áreas de defensa, satélites, diseño de aeronaves y aviónica, además de la ejecución exitosa de programas de magíster y doctorado junto con universidades chilenas y extranjeras.

octubre - diciembre 2013

29


Columna Columna

Ratkar L

a palabra que da el título a esta columna parece sacada de un diccionario turco. Parece, pero no lo es. A esta altura de mi vida profesional, cuando ya he sido investido como “Saurio”, en relación obvia al símil con los primeros animales que poblaron la tierra, me puedo dar el lujo –entre muchos otros– de inventar palabras a mi reverendo antojo. Por supuesto que la trascendencia que cada una de ellas alcance en el uso cotidiano no está asegurada, ni tampoco pretendo que la esté. Simplemente, la uso con fines íntimos porque resume, cual ícono, lo que he hecho durante 50 años de vida profesional: resolver problemas de análisis estructural utilizando modelos tan simples como sea posible, pero midiendo el grado de precisión que proporcionan. En un principio me pareció que el nombre de esta columna debía ser “cuando basta con saber sólo un poco más”, pero la relatividad de “un poco más” no identifica respecto de qué se mide. Esto podría ser ofensivo para quienes saben mucho, e intrascendente para quienes saben poco, aunque ellos mismos no sepan que no saben. El ícono “Ratkar”, como lo explicaré luego, me pareció mucho más asertivo para los propósitos que persigo en esta ocasión. El análisis estructural, así como cualquier formulación teórica de un problema lógico-científico, se apoya en principios fundamentales. Sin embargo, la aplicación rigurosa de dichos fundamentos conduce, generalmente, a modelos complejos, de alta no linealidad, que sólo pueden resolverse mediante técnicas numéricas.

30

Ingenieros

Los análisis numéricos dependen necesariamente de la magnitud de los intervalos de integración, lo que no garantiza por si solo haber alcanzado la precisión necesaria. Deberá verificarse, en cada caso, los efectos de variaciones de los intervalos y observar si se ha alcanzado un adecuado nivel de convergencia. C o m o e s f á c i l c o m p r e n d e r, l a convergencia no se puede apreciar con un par de soluciones, siendo necesario realizar no menos de cuatro o cinco iteraciones; pero por si ello fuera poco, en la medida en que vayamos reduciendo la magnitud del intervalo, empezaremos a caer en un problema de inestabilidad numérica o, incluso, en resultados erráticos, inexplicables para nuestro sentido común, que se inscriben en el terreno de la “Criticalidad Auto Organizada (CAO)”, como muy bien lo describe la literatura sobre esa materia. El otro camino consiste en introducir simplificaciones basadas en hipótesis razonables, con las que el endemoniado problema no lineal se lineariza; las expresiones se pueden organizar en forma de sistemas de ecuaciones y las soluciones son únicas. Sólo resta comprobar que los resultados sean consistentes con las hipótesis iniciales. Por ejemplo, en el caso del análisis estructural, una de ellas señala que los desplazamientos son pequeños, lo que se traduce en que las ecuaciones de equilibrio se pueden plantear suponiendo que la posición deformada de la estructura coincide razonablemente con su posición

original, no deformada. Una vez resuelto el problema lineal y determinados los desplazamientos, debe estudiarse el equilibrio entre fuerzas externas y esfuerzos internos en la posición deformada, determinando la cuantía de las fuerzas necesarias para restituir el equilibrio. El juicio sobre la magnitud de estas fuerzas nos indicará si hemos tenido éxito con las simplificaciones introducidas, o si es necesario realizar un segundo análisis correctivo, con la estructura en la posición deformada y solicitada solamente con las fuerzas de desbalance. Este proceso se repite en forma sucesiva a partir de las posiciones deformadas acumuladas hasta el ciclo anterior, lo que requiere, por lo general, de no más de cuatro o cinco etapas.

La palabra resume lo que he hecho durante 50 años de vida profesional: resolver problemas de análisis estructural utilizando modelos tan simples como sea posible, pero midiendo el grado de precisión que proporcionan. Ta m b i é n e s p o s i b l e re s o l ve r e l problema mediante una sucesión de estados lineales, mediante la división de las solicitaciones por un número elevado –digamos 100, por ejemplo–. Un centésimo de la carga aplicada producirá pequeños desplazamientos de la estructura, por lo que se puede admitir, para esa mínima solicitación, que el modelo sea linealmente elástico, situado en su posición original (no deformada). A esta primera etapa sigue una segunda, en la que se rectifica la


Armando Cisternas Silva Tomás Guendelman

geometría de la estructura, agregando a las coordenadas de nudos los respectivos desplazamientos obtenidos en esta etapa. Se aplica a continuación el segundo centésimo de carga, se rectifica la geometría de nudos y se acepta que, en estas nuevas condiciones, el modelo vuelva a ser linealmente elástico, aunque distinto al de la etapa anterior. Se continúa con los restantes centésimos de carga, con las mismas hipótesis, hasta alcanzar los 100 ciclos. Todo parece muy exagerado, pero hemos resuelto un problema no lineal complejo, mediante soluciones parciales de modelos lineales mucho más simples. Como el indicado, existe una amplísima gama de otros problemas de interés e importancia que siguen un patrón de solución similar, pero mi interés, en esta columna, no consiste en escribir un paper sobre el tema, sino en ilustrar cómo las herramientas de la simpleza son extensivas a problemas complejos. Ahora creo que llegó el momento de explicar la palabra “Ratkar”. Todo ocurrió en forma casual. Mis primeros aprendizajes de análisis estructural, y luego mis primeras clases como profesor, me hicieron ver que los problemas eran complicados y que debíamos introducir simplificaciones para intentar resolverlos. Estas simplificaciones se introducen en las ecuaciones fundamentales del problema: constitutividad, compatibilidad geométrica y equilibrio. 1. Materiales homogéneos, isótropos y linealmente elásticos: σ = kε 2.Compatibilidad entre desplazamientos y deformaciones: ε = ar 3. Equilibrio en posición no deformada (pequeñas deformaciones): R = a t σ

Me puedo dar el lujo de inventar palabras a mi reverendo antojo. La trascendencia que cada una de ellas alcance en el uso cotidiano no está asegurada, ni tampoco pretendo que la esté.

Ahora que ya soy viejo, no me da vergüenza. Por el contrario, creo que el paso del tiempo va dejando de lado el pudor absurdo que tenemos en la juventud y podemos descubrir nuestra cara oculta, mostrando que, incluso en la imperfección, se encuentran elementos pedagógicos tanto o más meritorios que los inmaculados. Espero que este sea el caso.

en que σ representa al conjunto de esfuerzos internos en la estructura; ε a las respectivas deformaciones; k a las leyes constitutivas del material; r a los desplazamientos nodales y R a las solicitaciones externas nodales. Las únicas incógnitas son las componentes de r, de modo que al combinar las tres ecuaciones anteriores, se llega a la formulación de un modelo lineal representado por:

Deseo terminar este artículo narrando una experiencia real que me fue transmitida por un amigo, contador auditor de una importante compañía industrial. Me señalaba que, a poco de ingresar a la empresa, se rendía un homenaje de despedida a un funcionario que luego de treinta años de servicio, iniciados con un cargo de ayudante de contabilidad, había escalado hasta la posición de gerente general. Se leyeron discursos muy halagadores, hasta que de pronto, uno de sus subalternos más cercanos le preguntó:

R = atkar lo que confor ma un sistema de ecuaciones que se puede resolver fácilmente y que tiene una solución única. Cuando en 1967 preparé mis primeros apuntes para distribuir entre mis alumnos, usando una de las primeras versiones de procesadores de textos, desaparecieron los espacios, el signo igual y el superíndice “t” en la ecuación, quedando esta como “Ratkar”. Debo confesar que en ese momento consideré que sería una vergüenza presentar apuntes poco cuidadosos y me esmeré por buscar una solución al problema tipográfico.

­– Don José, ahora que se retira de la empresa, ¿podría decirnos qué secreto guardaba en el primer cajón, a la derecha, en su escritorio, y que consultaba por varios minutos antes de darnos respuesta a la pregunta que le formulábamos? – Por supuesto, Hernán. En el cajón que usted indica tenía un “torpedo” que decía: “El Debe va a la izquierda”.

octubre - diciembre 2013

31


Innovación

GESTIÓN DE INNOVACIÓN Y LA TECNOLOGÍA COMO FUENTE DE VENTAJAS COMPETITIVAS Por Nicolás Di Biase

La empresa que no innova constantemente está destinada a desaparecer Algunos años atrás, mientras visitaba por primera vez el Museo de Arte Moderno de Nueva York (MOMA), me preguntaba cuál era el valor de los cuadros expuestos en él y qué le daba coherencia a una colección tan diversa. Pero tras una breve introducción de la guía, todo fue claro. Todos los artistas que allí exponen habían hecho algo por primera vez ¡todo ellos representaban una innovación!

dispuestas a asumir. Pero si la estrategia es ser seguidores, también debemos innovar constantemente para seguir siendo competitivos.

Probablemente, hoy todas las empresas e instituciones son conscientes de la relevancia de innovar en sus productos, servicios y procesos. Pero aún son pocas las que entienden la verdadera importancia de gestionar los procesos que conducen a la innovación y permiten transformar estas innovaciones en verdaderas ventajas competitivas.

Origen de la innovación

En un mundo altamente competitivo, globalizado y con clientes muy exigentes e informados, las ventajas competitivas se erosionan muy rápido. Por lo mismo, las instituciones deben adelantarse a los cambios y transformarse antes de que otros lo hagan y las desplacen. Nuestra innovación nos permite diferenciarnos, la de nuestros competidores nos obliga a cambiar. Saber cuál es el momento correcto para hacerlo y cuál es la estrategia a seguir es el gran desafío. Ser líder implica un costo que no todas las compañías están 32

Ingenieros

Predecir el futuro no es complejo, pero el éxito radica en encontrar la estrategia adecuada para aprovechar las oportunidades que se producen a raíz de cambios tecnológicos y sociales.

En este marco, las fuentes de la innovación pueden ser muchas y las empresas deben desarrollar una cultura que fomente estas conductas entre sus empleados, pero también en sus proveedores y clientes. En el caso de los proveedores de productos de capital, ellos muchas veces ofrecen adelantos en tecnologías que permiten a las empresas igualar lo que hacen sus competidores o adquirir las mejores prácticas en procesos y sistemas. A su vez, los clientes solicitan nuevos productos y servicios que llevan a las compañías a realizar innovaciones que les permiten satisfacer estas necesidades. Una innovación puede producirse por distintos motivos, que se pueden agrupar en las siguientes dimensiones: • Necesidad • Obstáculo

• Casualidad • Imitación • Adaptación • Experimentación

Discontinuidades tecnológicas y diseños dominantes Una vez que se produce una innovación, nos encontramos con un ciclo de desarrollo que toma la forma de una curva S cuando graficamos su potencial de rendimiento frente al esfuerzo/ tiempo requerido para obtenerlo. De esta forma, en un comienzo se requiere mucho esfuerzo para obtener pequeñas mejoras en el rendimiento de las nuevas tecnologías o procesos, pero llega un momento donde con esfuerzos mucho menores las mejoras son significativas. Finalmente la pendiente se vuelve a reducir y de nuevo es necesario mucho esfuerzo o tiempo para obtener mejoras menores. Cuando se produce una discontinuidad tecnológica nos encontramos con dos tecnologías que conviven en el mercado. Por lo mismo, en cada una de las tres fases antes mencionadas se producen oportunidades de negocio. Un ejemplo reciente de cómo estas discontinuidades tecnológicas afectan la estructura de una industria lo podemos


Innovación

¿Quién gana y quién pierde con la innovación?

Nicolás Di Biase, Ingeniero Civil Industrial Universidad de Chile, MBA de la Universidad Adolfo Ibáñez de Santiago de Chile.

Esta no es una decisión simple, ya que el costo de cada una de ellas es muy distinto y las habilidades requeridas son distintas. Ser líder de mercado es significativamente más caro que ser un seguidor, por ejemplo. encontrar en telefonía celular, donde desde su aparición los líderes de la industria no han podido manejar ese proceso. De esta forma Motorola primero y luego Nokia, Blackberry y por qué no decirlo, Apple, lideraron el mercado y fueron desplazados y prácticamente sacados del mercado por una nueva tecnología. Como vemos es una zona de alto riesgo para las empresas existentes, ya que no siempre visualizan el tamaño de la amenaza ni reaccionan con la velocidad necesaria para enfrentar estos cambios. Otro concepto interesante que hay que considerar cuando una nueva tecnología está surgiendo es el de diseño dominante. Muchas veces surgen una serie de innovaciones simultáneas o sucesivas y no es claro cuál de ellas se establecerá en el mercado como un estándar. Si revisamos el mercado de las ampolletas, eso es claro. Después de contar con un diseño único por casi 100 años, hoy existen muchos tipos de tecnología en los conectores y en la forma de funcionamiento.

Estrategias empresariales Una vez que las empresas tienen claro que la innovación es un imperativo estratégico, deben definir cuál de las distintas estrategias existentes adoptarán.

Si bien se pueden distinguir una gran cantidad de estrategias, como se puede apreciar en el cuadro anexo, destacaremos las principales características de algunas de ellas: • Ofensiva: líder o primero en el mercado. • Defensiva: seguir al líder. • Imitativa: yo también o “me too”. • Intersitial: búsqueda de aplicaciones, adaptación. • Dependiente: planta, subsidiaria, departamento o proveedor tardío.

Muchos empresarios prefieren no ser líderes, sino seguidores en sus industrias ya que no siempre las empresas innovadoras han obtenido los beneficios de estas innovaciones. Quien obtenga los beneficios dependerá de una serie de factores entre los que se encuentran: - El régimen de apropiabilidad de la tecnología: indica cuánto es posible protegerse frente a imitaciones. - La posesión de activos complementarios: son los que complementan a un producto de la innovación. - La posición competitiva de la compañía respecto de sus competidores, clientes y proveedores también es determinante. Estos aspectos, junto al monto de la inversión requerida y el tiempo necesario para posicionarse, determinarán si la compañía innovadora debe desarrollar internamente, contratar estos activos o asociarse sacrificando parte de los beneficios propios de la innovación.

Ofensiva

Defensiva

Iniciativa

Intersitial

Planta Sucursal

Investigación Básica

M

M

N

N

N

Investigación aplicada

H

M

N

N

N

Desarrollo experimental

H

H

N

L/M

N

Desarrollo avanzado

H

H

H

H

L

Piloto / prototipo a producción

M

M

H

M

M

Control de calidad / diseño de producto

M

M

H

M

M

Patentes y licencias

H

M

L

M

N

Servicios de posventa

H

M

H

H

M

Educación y consultoría

H

M

L

H

M

Diseño de largo plazo

H

M

L

H

N

Tecnología

H: alto - M: medio - L: bajo - N: nulo

octubre - diciembre 2013

33


Columna

EL FUTURO DE CHINA Y OCCIDENTE U

no de los grandes fenómenos que está afectando nuestro mundo es el acelerado crecimiento de China, desde hace poco más de unos 30 años. “Cuando China despierte, el mundo temblará”, fue una frase de Napoleón que demuestra su gran intuición que le permitía sentir el futuro. Esta expresión ha sido usada en numerosas ocasiones, pero hay que reconocer que no siempre se entiende bien lo que ella significa.

En efecto, en varias ocasiones de su historia, China pasó de ser un país encerrado en sí mismo, a transformarse en otro abierto al mundo. Por ejemplo, en el siglo XV, el emperador chino Zhu Di quiso abrirlo a nivel mundial; con este fin construyó una enorme flota capaz de viajar en todos los océanos. Los detalles se encuentran en el libro del navegante inglés Gavin Menzies publicado en 2004 (“1421, el año en que China descubre América”), donde muestra que la flota china llegó a la costa occidental de América antes de Colón. En los textos chinos que hablan de este período se describe la presencia del Milodón en la Patagonia chilena, cuando ahora solo se encuentran los esqueletos de este animal en la llamada Cueva del Milodón. Pero el emperador siguiente consideró que ese gasto era enorme, puesto que la población estaba en contra de los impuestos que permitían la construcción de la flota. De este modo China cerró nuevamente sus fronteras. 34

Ingenieros

Los intercambios comerciales con Occidente se intensificaron especialmente durante los siglos XIX y XX, forzados por la intervención militar de Inglaterra y otros países, quienes se establecieron incluso a la fuerza en muchos sectores costeros de China. En general, tal situación no era bien vista y la evolución política resultante condujo finalmente a la división entre el Partido Comunista Chino (PCC) dirigido por Mao Tsedong, y los sectores más conser vadores representados por Tchang Kai-chek. Luego de la victoria de Estados Unidos sobre Japón en la Segunda Guerra Mundial, las divergencias internas en China se transformaron en lucha armada. Finalmente Mao tomó el poder en 1949, mientras el líder prooccidental Tchang Kai-chek huyó a Formosa (actual Taiwán). La relación de Mao con la Unión Soviética fue muy importante para su victoria y hubo mucha cooperación en los primeros tiempos del gobierno. Pero su visión personal sobre el marxismo condujo a una serie de decisiones políticas que provocaron el rompimiento con la URSS. Una de ellas fue la política del “Gran Salto Adelante” (1958), que tenía como objetivo desarrollar China para ponerla al nivel de los países occidentales. Para ello se organizaron comunidades autosuficientes con el fin de desarrollar la industria; pero en la práctica resultaron ser una catástrofe, con la muerte de unos 30 millones de personas por falta de

alimentación. Por otro lado, la “Revolución Cultural” inició en 1966 la campaña para tener el control de los intelectuales y la unificación ideológica. La versión maoísta del marxismo fue editada en el famoso “Libro Rojo”, que entregaba a toda la población china una serie de principios que debían asimilar en forma completa. Mao fallece en 1976, a los 83 años, y es reemplazado por Deng Xiaoping, con quien había tenido conflictos en los últimos años. Deng Xiaoping inicia el intercambio comercial con occidente (1978-1989). Esta política se desarrolla de manera impresionante bajo la dirección de sus sucesores: Jiang Zemin (1989-2002), Hu Jintao (2002-2012) y Xi Jinping (2012 ñ). El crecimiento anual de la economía durante la época de Jiang Zemin fue del orden de 9,6%, y continuó creciendo con Hu Jintao (10,7%).

Gigante económico Una de las evidencias de este cambio ha sido la variación en el tiempo del número de inmigrantes chinos en otros países. Hace 30 años era muy raro encontrar una persona de origen chino, pero ahora se los ve en todas partes. El crecimiento de los intercambios con China ha sido espectacular. Dos actividades que se pueden analizar más directamente son el comercio y la educación. El número de pequeñas y medianas empresas, y restaurantes de origen chino que


Armando Cisternas Silva

se han instalado en los últimos años es impresionante. Más importante aún, en las universidades se ve un enorme número de estudiantes que trabajan para obtener un doctorado en las disciplinas más variadas, lo que significa que China tiene una política de formación de especialistas al mejor nivel mundial, pues envía jóvenes a Estados Unidos, a Europa, a Rusia, a Japón y a otros lugares del mundo con el fin de aprender. Todo este conocimiento se concentra luego en China, y ya se pueden ver resultados extraordinarios en investigación y en tecnología.

La política de Estado tiene como objetivo convertir a China en la primera potencia mundial dentro de una economía neoliberal.

Mao Tsedong, el ideólogo y líder del PCC.

Deng Xiaoping, iniciador de la política de Estado para convertir a China en la primera potencia capitalista.

A partir de 2010 China ha llegado a ser la segunda potencia económica mundial, después de Estados Unidos y por encima de Japón, y se estima que llegará a ser la primera en unos 20 años más. Se ha convertido en un gigante económico en poco tiempo, y hay que pensar que tiene 1.400 millones de habitantes; o sea, de cada cinco habitantes del planeta, uno es chino. El tamaño del territorio alcanza 9,6 millones de kilómetros cuadrados, o sea 12,8 veces la superficie de Chile. Luego, sus capacidades potenciales siguen siendo enormes. Es impresionante ver cómo China se está abriendo a nivel mundial. La educación está alcanzando el mejor nivel, gracias al intercambio de sus estudiantes. Se abrió el comercio internacional con empresas chinas en todos los países, y figura como octubre - diciembre 2013

35


Columna

el mayor país exportador y el segundo en importación de mercaderías. Además, al mismo tiempo se ha convertido en una potencia militar y marítima, con inversiones enormes desde el punto de vista militar. En 2013 sus gastos de Defensa subieron un 10,7% respecto del año anterior. Esto significa un total de 119 billones de dólares, lo que hace que China sólo esté atrás de Estados Unidos en gastos militares. Sabe que no puede permitirse ser débil ante todos sus posibles enemigos; en particular, es evidente su interés por lograr que el Mar de China esté bajo su control. Pero también están los conflictos limítrofes con Taiwán, con Corea del Sur, con Tíbet, etc., y la competencia con Japón.

Un lujo imposible ¿Es China un país comunista? Cuando se observa la política económica actual de China, esta pregunta es fundamental. ¿Por qué el partido dirigente sigue llamándose Partido Comunista? ¿Cómo puede ser comunista si la economía interna y externa son neoliberales? El cambio se produjo después del fracaso de la política de Mao. El Gran Salto hacia Adelante condujo al caos económico, y sobre todo al descontento de la gente. La política de Mao más que marxista era personalista. Muchos de sus colaboradores que se oponían a tales esquemas fueron reprimidos. Pero a su muerte, con la llegada al poder de Deng Xiaoping, tanto la economía externa como interna se convirtieron en neoliberales. Esto fue posible gracias a la instalación en China de una gran cantidad de empresas (incluidas las estadounidenses) debido al menor costo de su mano de obra. 36

Ingenieros

China se abrió al comercio internacional con empresas chinas en todos los países, y figura como el mayor país exportador y el segundo en importación de mercaderías. Muchos indican que nada prueba que el crecimiento de China en todos los niveles sea algo permanente y estable; prefieren pensar que en algún momento un cambio catastrófico destruirá toda la dinámica que muestra.

Las diferencias de clase actualmente son enormes. Una nueva clase social ha crecido aceleradamente: los trabajadores inmigrantes, o sea los campesinos que se han trasladado a las ciudades y que trabajan en las industrias, llegaron a ser unos 260 millones en 2010. La política de Apertura y Reforma, a partir de 1979, permitió el desarrollo de las empresas capitalistas, el empleo de los trabajadores inmigrantes y el crecimiento económico. La interacción del llamado Partido Comunista Chino con las empresas chinas y extranjeras ha sido total. El número de cuadros de las empresas pasó de 18 millones en 1979 a 37 millones en 1993. Y muchos son miembros del PCC: un 30% en el año 2003. Es obvio que la política iniciada por Deng Xiaoping, y continuada por sus sucesores, es una política de Estado que tiene como objetivo convertir a China en la primera potencia mundial dentro de una economía neoliberal.

¿Estados Unidos aceptaría dejar de ser la primera economía mundial? Es una pregunta que no todos quieren hacer. Muchos indican que nada prueba que el crecimiento de China en todos los niveles sea algo permanente y estable, y prefieren pensar en que en algún momento un cambio catastrófico destruirá toda la dinámica que muestra en este momento. Otros incluso creen que China sigue siendo comunista y que seguirá el camino de la Unión Soviética. Sin embargo, lo más razonable es pensar que la situación actual seguirá progresando y que en algún momento pueda llegarse a un conflicto mundial. Jack London, el escritor norteamericano que puede ser considerado como uno de los precursores de la ciencia ficción, publicó en 1910 una historia llamada “Una Invasión sin Precedentes”, donde describe un enfrentamiento entre China y las potencias occidentales. Comienza con algo increíble en la época: la apertura de China hacia el mundo. Esta situación conduce de manera inexorable al conflicto con Occidente, lo que finalmente produce la invasión de China en 1976. La ventaja de los países occidentales consistía en la utilización de la guerra bacteriológica y la emplean a fondo. El final es absolutamente trágico. Por supuesto, aquello era sólo una novela y estaba condicionada por los conocimientos científicos existentes en la época. En la actualidad se piensa en la temida guerra atómica, en armas que conduzcan a cambios en el ADN, etc. La humanidad no puede darse el lujo de aceptar una Tercera Guerra Mundial. El arma más eficaz para derrotar tales situaciones es el uso de la razón.


LIBROS Los Tecnólogos Mathew Pearl/ Alfaguara / 2013 Boston, 1868. El Instituto de Tecnología de Massachusetts se ha adjudicado la misión de utilizar la ciencia en beneficio de todos. Sin embargo, cuando los instrumentos de navegación de los buques se descontrolan inexplicablemente y, poco después, otra misteriosa catástrofe devasta el corazón de la ciudad, una implacable sombra se cierne sobre el MIT. ¿Se trata de un sabotaje llevado a cabo con medios científicos o es la Naturaleza que se rebela contra el intento humano de controlarla? Armados de ingenio y de su extraordinaria formación científica, los mejores estudiantes de la primera promoción del Instituto formarán una sociedad secreta para salvar vidas inocentes e investigar la verdad.

The Economic Impacts of Natural Disasters Editado por Debarati Guha-Sapir e Indhira Santos, Oxford Univesity Press, 2013 La evaluación de los efectos socioeconómicos de los desastres naturales se ve obstaculizada por la dificultad de medirlos con precisión y coherencia. El informe de daños varía según el tipo de evento y región, lo que complica aún más el análisis de su impacto en el desarrollo. A través de los casos de Bangladesh, Vietnam, India, Nicaragua, Japón y los Países Bajos, esta obra trata de mostrar cómo analizar y cuantificar el impacto económico de los desastres naturales, y es una oportunidad para hacer un balance del estado de nuestros conocimientos en este campo.

La Vida Secreta de los Números George G. Szpiro, Almuzara, 2009 Ideal para adentrarse en el mundo de las Matemáticas, un área donde las carencias suelen aceptarse, esta obra consigue que los lectores comprendan no sólo su importancia, sino también su belleza y elegancia. El libro plasma varias particularidades de las matemáticas de la vida diaria al alcance de los que no son expertos: Teoría de Nudos aplicado a los siempre rebeldes de las corbatas, aplicaciones de los fractales a la medición de bordes o costas, las diversas implicaciones matemáticas del Tetris o la curiosa explicación del vuelo de una mosca, son varios de los temas que se tratan de forma clara y sencilla, pero no por eso perdiendo fidelidad en las explicaciones.

Problemas de Ajedrez para Niños Murray Chandler, La Casa del Ajedrez, 2013 El ajedrez es reconocido en muchos países como una herramienta útil para desarrollar el pensamiento creativo en los niños. Esta obra contiene 100 divertidas posiciones para resolver, que van desde las muy fáciles hasta las abrumadoramente difíciles. Cada problema está precedido por un ejemplo instructivo, que ilustra un importante tema combinatorio (hay 17 en el libro). Todos los problemas han sido seleccionados para cubrir una amplia gama de habilidades ajedrecísticas: desde ejercicios básicos de calentamiento o problemas clásicos para jugadores más experimentados. Los últimos capítulos –Misión Imposible– buscan atormentar a los más talentosos de los futuros campeones. octubre - diciembre 2013

37


Postgrado

Tomás Zegard:

Chile tiene todo lo necesario para utilizar técnicas de optimización estructural en su infraestructura T

omás Zegard estudiaba Ingeniería en la PUC cuando decidió hacer su último semestre fuera del país. Fue así como llegó a la Universidad de Illinois at UrbanaChampaign (UIUC), donde aprendió mucho, conoció gente interesante y descubrió un pujante programa de posgrado. “El nivel de enseñanza y exigencia de las universidades chilenas no tiene nada que envidiarle a Estados Unidos, por lo que mi desempeño fue muy bueno”, declara. En 2007, luego de titularse, trabajó en DICTUC S.A, pero a los pocos meses la curiosidad del posgrado era muy grande. Obtuvo la Beca Fulbright y comenzó la elección de universidades. Su estadía en UIUC le había permitido conocer a Glaucio Paulino, profesor de Análisis Estructural, con quien siempre mantuvo contacto. “Llegadas las cartas de aceptación, opté por la misma universidad a la que asistí estando en pregrado; por el prestigio, el ambiente universitario y los beneficios que me ofrecieron”. Tomás sabía que quería hacer análisis estructural computacional, pero no tenía claro más allá de eso. Su profesor guía, Glaucio Paulino, se especializa en dos áreas muy distintas entre sí: mecánica de fracturas y optimización 38

Ingenieros

estructural. Aún dudando respecto del área, a través de él se contactó con la empresa Skidmore, Owings & Merrill (SOM), específicamente con el ingeniero estructural William Baker. La empresa se especializa en edificios de altura y con eficiencia energética, ha construido varios proyectos impresionantes, la gran mayoría con algún grado de optimización estructural. Motivado por la posibilidad de investigar un tema moderno, dentro del área que estaba buscando y en conjunto con una empresa como SOM, decidió centrar su investigación en «Estructuras óptimas». ¿De qué forma es factible encontrar técnicas para la optimización estructural, a partir de la rigidez y peso de la estructura? Las técnicas de optimización pueden ser clasificadas en dos grupos: las que usan la información de los gradientes y las que no. Usando la analogía de buscar un objeto en un cuarto oscuro, los métodos que usan la información del gradiente tienen una “brújula” que apunta aproximadamente en la dirección del objeto, mientras que los que no usan dicha información, sólo saben si se han acercado o alejado del objeto.

Mi investigación se enfoca a los métodos que usan gradientes, de este modo puedo intentar resolver problemas muy grandes o difíciles, como suele ser la optimización estructural. El primer paso de una optimización consiste en definir la función objetivo. Dependiendo de si queremos la estructura más liviana, más rígida, con mayor luz solar, el mecanismo más eficiente u otra, la función objetivo deberá cambiar. En la optimización estructural, los dos objetivos más comunes son: minimizar el volumen (peso) de la estructura y maximizar la rigidez de la estructura (minimizar la energía). El primero debe estar sujeto a condiciones de tensiones máximas, de lo contrario la solución es trivial: remover la estructura por completo (sin estructura, no hay peso). El segundo objetivo debe tener un volumen máximo, de lo contrario, la solución óptima será un bloque sólido de material. A modo de ejemplo, si nos enfocamos en una estructura de reticulados, las formulaciones son:

donde es el volumen del reticulado, y son vectores con las áreas, largos y fuerzas axiales de los miembros respectivamente,


Postgrado

La investigación de Tomás Zegard, centrada en “Estructuras óptimas”, cuenta con el apoyo de la empresa Skidmore, Owings & Merrill (SOM), especialista en edificios de altura y con eficiencia energética.

es la matriz de rigidez de la estructura, y son los desplazamientos y fuerzas de los nodos; y son límites de estrés en compresión y tracción de los miembros, es la energía de la estructura y es un volumen límite. La gran mayoría de las herramientas computaciones de diseño estructural realiza algún tipo de optimización similar a la minimización del volumen a la hora de diseñar secciones de la estructura. La situación se vuelve interesante cuando también intentamos optimizar la geometría de la estructura, o mejor aún, su topología. Además, dichas formulaciones pueden ser extendidas a los casos de cuerpos continuos como muros o losas (aunque no trivialmente), fuerzas que dependen del diseño, desplazamientos máximos, etc. Los gradientes pueden ser obtenidos en ambos casos, inclusive para el caso en que la geometría es también una incógnita. El siguiente paso es entregar

toda esa información, incluyendo los gradientes, a un algoritmo de optimización, e idealmente obtendríamos una estructura mejor a la inicial.

Alternativas eficientes A pocos meses de obtener su doctorado, Tomás analiza las posibilidades de su investigación en Chile y señala que la optimización estructural puede ser aplicada en casi cualquier situación: “Se puede optimizar la estructura completa, o bien un componente específico de ella. Razones por las cuales se podría querer optimizar estructuralmente una estructura son: uso eficiente de recursos (material y humano), estructuras extremas y/o estructuras funcionales”. Para Zegard, la funcionalidad es de especial importancia. Sostiene que con los avances de la ingeniería y materiales, se ha consentido, en especial a los arquitectos, la creación de estructuras

que siendo muy bellas son poco funcionales y eficientes desde el punto de vista estructural. Sólo es necesario comparar las antiguas construcciones de arcos con los edificios extraplomados que son muy populares hoy en día. Chile, un país en desarrollo, necesita infraestructura de calidad sin malgastar recursos. La optimización estructural provee alternativas eficientes y entrega una idea global del funcionamiento de la estructura (distribución de esfuerzos) que idealmente permitiría combinar estructuras con belleza estética y funcionalidad. Empresas como SOM lo han estado haciendo por años en países como China, Arabia Saudita y Emiratos Árabes Unidos. “Países a los que en ámbitos de desarrollo y tecnología, Chile no tiene nada que envidiar. Creo que nuestro país debería implementar la optimización en todas las áreas de desarrollo, no sólo edificación, y debería empezar ayer.” octubre - diciembre 2013

39


AGREGAR A FAVORITOS... http://en.structurae.de/

www.brainpickings.org

Fundada por Nicolas Janberg en 1998, es una base de datos con más de 63.000 fichas de estructuras de todo el mundo, información técnica detallada, fotografías y enlaces en cada una; los ingenieros y empresas que participaron o los productos utilizados en su diseño o construcción. Disponible en inglés, francés y alemán.

Con la ayuda ocasional de un puñado de colaboradores invitados, Maria Popova, escritora búlgara, creó este sitio que combina una biblioteca de intereses interdisciplinarios y creatividad; permite descubrir cosas que no sabíamos que nos interesaban, combinar y recombinar ideas, conocimientos e inspiración, como Legos.

www.turismomaule.com

http://facingyconst.blogspot. com/

Este operador turístico local, a través de programas desde dos o tres días a semanas, busca que el Destino Maule sea reconocido dentro y fuera de Chile, ya sea para turismo de naturaleza y aventura, viajar en el tiempo en tren, conocer los sabores de la costa, practicar pesca deportiva o disfrutar las termas de la zona.

Libros de Ingeniería y Construcción en línea, Biblioteca técnica, Videoteca de sistemas constructivos, Tesis de ingeniería y construcción, muestra desde Chile este trabajo de Fernando Arancibia, en la blogosfera desde 2006.

Estamos conectados

revista@ingenieros.cl

Envíe sus comentarios, cartas y preguntas a nuestro correo. Para nosotros es importante su participación. 40

Ingenieros




Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.