
21 minute read
congresos y Seminarios
Ensayos.
Se establece un exhaustivo programa de ensayos en prototipos y de control de calidad de la producción de los disipadores, así como de la inspección y mantenimiento del sistema disipador durante la vida de la edificación.
PRONÓSTICOS
En Japón, el buen comportamiento de los edificios aislados durante el terremoto de Kobe significó un aumento explosivo del uso de esta tecnología. En Chile ha ocurrido algo similar luego del gran terremoto del 2010 y, tal vez, en breve ya estarán disponibles productos tecnológicos cuyas características podrían ser, entre otras, las siguientes: • Desarrollo de nuevos sistemas de aislamiento más efectivos y económicos. Su uso será una necesidad en edificios de alta sensibilidad o estratégicos como hospitales, centros de datos, equipos industriales peligrosos, puentes. El mayor costo de estos sistemas puede justificarse plenamente por el menor nivel de daño esperado luego de un terremoto. • Nuevos materiales, como las aleaciones superelásticas, que ya se usan en forma incipiente, probablemente tendrán mayor aplicación. Los sistemas de control semi-activos y activos se usarán en la práctica en forma más extendida. Para la aceptación general de estos sistemas de protección sísmica por parte de profesionales proyectistas y usuarios, será necesario llevar a cabo programas de seguimiento de dichos edificios, para observar su comportamiento en el tiempo ante condiciones sísmicas y ambientales reales. Será importante, también, revisar periódicamente las normas de diseño actualizándolas de acuerdo a los avances del conocimiento. • Disponibilidad de procesadores con velocidades varios órdenes de magnitud superiores a las actuales, apoyados en las leyes de la mecánica cuántica. • Espacios de almacenamiento de datos “prácticamente infinitos”, en sitios virtuales, de acceso seguro. • Abandono del análisis lineal al incluir grandes desplazamientos, materiales heterogéneos con leyes constitutivas medidas en tiempo real. • Monitoreo de las edificaciones en forma permanente, detectando estados tensionales críticos y, eventualmente, dotados de mecanismos de autocorrección, consistentes en columnas y vigas estructurales huecas, conectadas entre sí y rellenas con líquidos viscosos que podrán desplazar por ellas, cual vasos comunicantes, restaurando desequilibrios producidos por las solicitaciones. • Obsolescencia de criterios de diseño y de construcción de normas que se derivan de las lecciones de los sismos pasados. • Aprovechamiento de la energía que suministra el sismo a la estructura, en su autodefensa y en la mantención de los servicios que se nutren de fuentes energéticas externas. • Perfeccionamiento de los dispositivos de disipación activa, mediante señales desde la base de las estructuras a los niveles superiores, con el fin de generar fuerzas cuyos efectos sean de naturaleza opuesta a las de la acción sísmica, en forma casi instantánea, gracias a las velocidades de proceso ya mencionadas. • Confección de protocolos de servicios de mantención periódicos, similares a los que requieren las máquinas de precisión. Esta lista es breve y parece muy ambiciosa, pero dentro de pocos años podría ser superada ampliamente. No se debe esperar a que los hechos ocurran; es necesario anticiparse, promoviendo la actividad científica y tecnológica en universidades y centros de investigación del país, que no puede quedar ausente en esta nueva etapa.
Patricio Bonelli C.
Introducción
Un grupo de trabajo de ACHISINA, 2015, ha propuesto un apéndice para la norma de Diseño Sísmico de Edificios NCh433 con un “Procedimiento Alternativo para el Análisis y Diseño Sísmico de Edificios Altos”. El Documento se basó en una publicación de “Los Angeles Tall Buildings Structural Design Council”, que se está usando actualmente en EE.UU. como procedimiento alternativo para el diseño de edificios altos en la ciudad de Los Ángeles. El objetivo del nuevo apéndice propuesto para la NCh433 es permitir que se aplique el estado del arte del conocimiento al diseño de edificios altos. Los métodos basados en fuerzas usados en el análisis de edificios en las oficinas de proyecto actualmente datan de los años sesenta. Priestley (2003) ha hecho ver que los métodos basados en fuerzas de la práctica actual no explican los daños que ocurren durante un terremoto fuerte en edificios modernos, y que hay mitos que se han conservado a lo largo de los años, siendo necesario modernizar los métodos de análisis sísmico para acortar la brecha entre el estado del arte y el estado de la práctica. Los métodos basados en fuerzas provienen de proposiciones hechas a comienzos del siglo XX. Una historia resumida del desarrollo de la sismología está en el capítulo 1 del libro de Lee, Kanamori, Jennings y Kisslinger. El capítulo está escrito por Duncan Carr de la Universidad de San Diego, California. Lo relacionado con la historia de la ingeniería sísmica se puede encontrar en el libro de Yousef Bozorgnia y Vitelmo V. Bertero (2004) y en una presentación de Gulkan, P. and Teitherman, entregada en Lisboa en la 15WCEE (2012). Las conferencias mundiales de ingeniería sísmica han ido registrando los avances de la disciplina y permiten seguir el desarrollo del estado de la práctica de la ingeniería sismo resistente. Como introducción al nuevo documento de diseño por desempeño, puede ser interesante dar una mirada retrospectiva a lo que han sido las conferencias mundiales y a los cambios en la manera de pensar derivada de nuevos enfoques y acceso a modernos computadores personales de gran capacidad.
Primeros avances en sismología.
La primera explicación propuesta para un terremoto, y para otros desastres naturales, fue pensar en un origen divino. Esta creencia permaneció en Europa hasta el siglo XVIII. Solo dos culturas antiguas, la china y la griega, propusieron explicaciones naturales. Aristóteles, año 330 A.C., atribuyó el sismo al viento que soplaba en cavernas subterráneas. Las ideas de Aristóteles permanecieron en Europa hasta la Edad Media. Los chinos asociaban los terremotos con la decadencia de una dinastía y eso llevó a que llevaran un extenso registro de ellos. Zhang Heng inventó el primer sismoscopio el año 200 A.C., que indicaba la dirección del sismo. Las nuevas tecnologías de explosivos químicos en la Europa moderna asociaron los terremotos con explosiones en la tierra o en el aire. Algunos pensaron que eran reacciones del acero con el sulfuro o combustión de piritas. Estas teorías fueron respaldadas por las erupciones de los volcanes. En el siglo XVIII se desarrollaron teorías para la electricidad, y al explicar los rayos, relacionaron entonces los sismos con descargas eléctricas. Estas teorías fueron reforzadas con la ocurrencia de terremotos destructivos en Inglaterra en 1750. El terremoto de Lisboa del 1 de noviembre de 1755, fue un gran estímulo para el desarrollo de la sismología, en parte por el daño que produjo, y porque dio evidencia de un movimiento que se propagó en una gran distancia. Se caracterizó por su gran duración, dividida en varias fases, y por su violencia, causando la muerte de entre 60 000 y 100 000 personas. Los geólogos estiman hoy que el terremoto de Lisboa habría tenido una magnitud Richter igual a 9, con un epicentro en un lugar desconocido en algún punto del océano Atlántico a menos de 300 km de Lisboa. Michell, 1761, y Drijhout, 1765, dijeron que el movimiento se había producido en un lugar determinado y que se había propagado en ondas, como el movimiento que se transmite en una alfombra. Michell sugirió que las vibraciones cercanas a la fuente se propagaban en la roca de manera similar al sonido propagándose en el aire. Estas ideas no se tradujeron en investigaciones posteriores. En el siglo XIX se comenzaron a registrar datos sistemáticamente, apareciendo los primeros catálogos de temblores. Los datos se usaron para buscar correlaciones con ciclos astronómicos o con eventos meteorológicos. Se hicieron muchos estudios, desarrollándose un vocabulario usado hasta ahora para describir los efectos de grandes terremotos, como la
revista a CH isi N a escala de intensidad, propuesta primero por P. Egen, 1828, luego por Rossi y Forel y finalmente por Mercalli. Noggerath, 1847, propuso un mapa de intensidades usando isosistas, insinuando que el movimiento se propagaba en ondas desde una fuente.
En este periodo aparecieron los primeros esfuerzos por relacionar los terremotos con otros procesos geológicos. Lyell propuso que los sismos podían causar movimientos verticales en grandes extensiones de terreno. Los sismos de 1819 en la India y de 1855 en Nueva Zelanda produjeron los primeros ejemplos de rotura de la superficie, aun cuando la primera observación científica de una ruptura en una falla no fue hasta 1888 en North Canterbury por McKay y luego en Nobi por Koto en 1981. Entre 1829 y 1831 Poisson dio las bases para el desarrollo de la sismología moderna al estudiar materiales elásticos. Encontró que en esos materiales se podían propagar ondas a dos velocidades: la más lenta, perpendicular a la dirección de propagación y la más rápida incluía la dilatación del material. El movimiento con ondas transversales llamó la atención porque ofrecía un modelo para la recientemente descubierta polarización de la luz, dado que se intentaba explicar la luz como ondas transversales en un medio luminoso. Dentro de los estudios más notables están los de Green, 1838, de transmisión de ondas en un borde, y de Stokes, 1850, de radiación desde una fuente. Los resultados de estas investigaciones a terremotos fueron aplicados por Hopkins, 1847, que hizo ver que los tiempos de llegada servían para localizar la fuente, y Mallet, 1848, que publicó un catálogo mostrando las regiones sísmicas del mundo. Mallet en 1862 estudió el terremoto de Basilicata, Nápoles, 1857, intentando cuantificar el movimiento del suelo y su dirección. En 1851 había intentado medir la velocidad de propagación de ondas debido a explosiones comparándolas con constantes elásticas conocidas, pero obtuvo valores mucho menores a lo esperado, atribuyéndolo a la no homogeneidad del medio y a la baja precisión de los instrumentos. Tanto Michell como Mallet pensaban que los terremotos eran producidos por explosiones repentinas de vapor de agua atrapado en la roca y que las ondas deberían ser solo compresionales. A Mallet le faltó un método adecuado para registrar el movimiento del suelo. El primer instrumento de registro automático fue el sismoscopio de Palmieri, 1856, usado en Italia y Japón. Palmieri lo orientó principalmente a tratar de predecir erupciones del Vesubio. Añadió a un péndulo unos tubos llenos de mercurio que durante un temblor hacían contacto con unos cables de platino colocados justo por encima del nivel haciendo girar unas poleas que, complementadas con un muelle vertical, podían registrar las ondas. La primera red de instrumentos se instaló en Italia en 1873, pero no estaba destinada a medir sismos. Bertelli y Rossi diseñaron instrumentos para medir pequeños movimientos buscando detectar variaciones en el periodo y amplitud del movimiento. En 1855 un terremoto en Tokio produjo daños considerables, tanto por el movimiento como por los incendios posteriores, lo que llevó a proponer medidas para prevenir los incendios, y a agregar diagonales en las casas de madera para mejorar su resistencia al corte.
Se puede decir que la Ingeniería Sísmica comenzó a fines del siglo XIX, cuando ingenieros ingleses (entre ellos Robert Mallet, ingeniero civil, John Milne, ingeniero de minas y Thomas Gray y James Ewing, ambos ingenieros mecánicos) sugirieron considerar un porcentaje pequeño del peso de un edificio como fuerzas horizontales para resistir un sismo. Mallet propuso la palabra sismología, del griego seismós “sismo” y logía, “estudio de”, y también la palabra epicentro. A comienzos del siglo XX los japoneses adoptaron la idea de los ingleses y propusieron el uso de un coeficiente sísmico. En 1868 el gobierno japonés invitó expertos extranjeros, incluyendo profesores que estuvieran al tanto de modernos métodos usados en física e ingeniería. Milne llegó a Japón en 1876, como profesor en el Imperial College of Engineering in Tokyo, cuando tenía 26 años. Después del terremoto de febrero 1880 se interesó en la sismología fundando la Sociedad Sismológica de Japón el 22 de febrero de 1880. Sekika fue el primer profesor de sismología del mundo en 1886. Junto a su sucesor Omori desarrollaron las primeras leyes de atenuación de réplicas con datos del terremoto de 1891. Antes de 1880 se habían hecho algunos intentos por registrar el movimiento del tiempo en función del tiempo. Ewing, de la Universidad de Tokio, usó un péndulo horizontal obteniendo buenos registros en 1880 y 1881, descubriendo que el movimiento del suelo era menor y mucho más complicado de lo que se pensaba. No eran solo unos pocos y simples pulsos, y el movimiento no era solo longitudinal, como lo había supuesto Mallet. Como Mallet, Milne quiso estudiar todos los aspectos del terremoto con ondas elásticas, pero agregó a los estudios cuantitativos de Mallet medidas instrumentales, diseñando instrumentos. El uso de instrumentos dio paso a la llamada ¨nueva sismología¨. Milne volvió a Inglaterra en 1895 proponiendo desarrollar una sismología global, diseñar sismómetros baratos e instalar la primera red global de instrumentos sismológicos. Los instrumentos no eran muy precisos: detectaban movimientos fuertes, pero no permitían captar en detalle las ondas de movimiento. Wiechert introdujo en 1904 un sensor de péndulo invertido, que fue el primer sismómetro amortiguado. Golicyn en 1906 introdujo el uso de sensores electrodinámicos y registros fotográficos creando instrumentos de gran precisión y sensibilidad. www.achisina.cl | +56961408910 | comite.editorial@achisina.cl
Con estos nuevos instrumentos, los sismólogos enfrentaron un nuevo problema: relacionar las distintas fases del movimiento con la propagación de ondas en el interior de la tierra. Se concluyó que el interior de la tierra era denso y caliente, pero que hubiera partes sólidas, líquidas e incluso gaseosas fue tema de debate. Cerca de 1890, a partir de los estudios de Kelvin y Darwin, se llegó a un consenso, que gran parte de la tierra tenía que ser sólida y capaz de transmitir los dos conocidos tipos de ondas elásticas junto a las ondas de superficie propuestas por Rayleigh en 1885, aun cuando no se sabía cuál de esas ondas podía realmente ocurrir y cómo se podían identificar. Como la tierra no es un cuerpo homogéneo y las rocas son anisotrópicas, los sismólogos tenían un amplio espectro de opciones posibles para explicar lo observado. Una distinción obvia fue identificar una fase previa, una principal de movimiento fuerte y otra de decaimiento, sugiriendo que había ondas de superficie y ondas de cuerpo. En 1900, Oldham estudió el terremoto de Assam, 1897, clasificando el movimiento preliminar en dos fases, identificando ondas de cuerpo longitudinales y transversales, siendo la fase principal de ondas de superficie. Las mediciones del movimiento de una partícula en la fase de movimiento fuerte dieron resultados distintos a los de la teoría de Rayleigh. Las denominaciones con las letras P, S, y L propuestas por Wiechert y Van den Borne en 1904 se referían solo a los tiempos de llegada o formas de las ondas y no a su tipo. Wiechert trabajó con sus alumnos entre 1900 y 1920 siendo un líder en su tema. Con Herglotz desarrolló la primera solución al problema de geofísica de deducir velocidades de ondas a partir del tiempo de llegada. Gutenberg usó el método para determinar el tamaño del núcleo de la tierra. En cuanto a diseño sísmico, en San Francisco, EE.UU., los primeros edificios provenían de diseños hechos en Chicago, estando controlados esencialmente por el viento. Como el viento es una acción lateral sobre el edificio, los esfuerzos internos que esa fuerza lateral produce sobre los elementos resistentes son distintos a los provenientes de cargas gravitacionales, requiriéndose dimensiones mayores en columnas y vigas en edificios estructurados con marcos. El corte basal de diseño era del orden de un tres por ciento del peso del edificio. El terremoto de San Francisco del 8 de abril de 1906, M w 7.9, produjo mucho daño, quedando edificios altos en pie. Los incendios provocados por el terremoto destruyeron gran parte de la ciudad y se concluyó que era recomendable no construir en madera y se propició el uso del hormigón armado. Aun cuando el terremoto dejó importantes lecciones, no condujeron a mejorar el diseño sísmico de las estructuras. Charles Derleth, profesor de la Universidad de California, enfatizó la importancia de usar buenos materiales, mejorar la mano de obra y dio ejemplos de buenos diseños; sin embargo, no propuso un procedimiento que permitiera estimar los esfuerzos provenientes de un sismo en una estructura. En una publicación en ASCE en 1907, Derleth decía que cualquier intento de calcular esfuerzos sísmicos era inútil porque los resultados conducían a diseños poco prácticos. A raíz del terremoto de 1906 en San Francisco, se fundó la Sociedad Sismológica de América, SSA, y la Asociación Estructural de San Francisco.
En la Figura 1 se muestra una reja, en Punta de Reyes, al norte de San Francisco, que en el terremoto de 1906 quedó desplazada seis metros respecto a su posición original, dando paso a la teoría del rebote viscoelástico.
Desplazamiento del suelo Punta de Reyes, California Figura 1.- Terremoto de San Francisco 1906.

Vista de una zona de San Francisco después del terremoto de 1906.
El 16 de agosto de 1906, ocurrió el terremoto de Valparaíso, M w 8.2 a las 19:55. Las crónicas de la época relatan una duración de cuatro minutos. Al primer terremoto lo sucedió diez minutos después una violenta réplica que completó la destrucción de la ciudad. Se reportaron alrededor de 3 000 muertos. Ese año se creó el Servicio Sismológico de Chile. Valparaíso había sufrido terremotos en 1647, 1730 y 1822. El 28 de diciembre de 1908, un terremoto magnitud 7.5 destruyó la ciudad de Messina, Italia, con alrededor de cien mil muertos. A raíz de este terremoto aparecieron las primeras recomendaciones para el diseño sísmico con un método de fuerzas laterales estáticas equivalentes. El profesor Panetti recomendaba diseñar el primer piso para resistir 1/12 del peso sobre él, y el segundo y tercer piso 1/8 del peso sobre ellos. Decía que en realidad el problema era dinámico, pero su solución era tan complicada que era preferible recurrir a métodos estáticos. El profesor Danusso de Milán, explicó el método de Panetti y contribuyó a que fuera gradualmente adoptado por los países sísmicos. Hasta 1940 fue el método clásico en los códigos de diseño. En Japón, el profesor Tachu Naito aplicó con éxito el método al diseño de edificios de hormigón armado antes del terremoto de Kanto ocurrido el 1 de septiembre de 1923, que causó daños severos en Tokio y Yokohama. Este terremoto impulsó el desarrollo de la ingeniería sísmica en Japón, se fundó el Instituto de Investigación Sísmica, Earthquake Research Institute. Suyehiro estimuló el desarrollo de acelerógrafos para medir movimientos fuertes porque consideraba de gran importancia la medición del movimiento del suelo en zonas epicentrales, especialmente la aceleración. Después de este terremoto, se introdujo en Japón el método estático en sus ordenanzas con un coeficiente sísmico de un diez por ciento. El número de estaciones sismológicas fue creciendo en esos años, pero sin estandarizarse aún, algunas organizaciones individuales tenían una o más estaciones. La más globalizada fue la de los jesuitas, quienes tenían en sus colegios observatorios sismológicos. En EE.UU. los jesuitas formaron la Asociación Sismológica Jesuita, dando rápidamente la determinación de los epicentros de sismos de todo el mundo. La Asociación Sismológica Internacional, creada en 1904, dejó de existir al comenzar la Primera Guerra Mundial, pero revivió en 1922 creándose la más importante institución de investigación mundial, la ISS, International Seismological Summary, siendo en muchos aspectos la continuación de los esfuerzos de Milne para determinar la localización de los terremotos.
Tectónica de Placas
En 1915, Alfred Wegener, quien en 1912 había escrito El origen de los continentes y océanos, propuso la teoría de la tectónica de placas, pero fue rechazada de inmediato por la comunidad científica. Los físicos convencieron a los geólogos que las capas externas de la tierra eran muy rígidas para permitir el desplazamiento de los continentes. Después de la Segunda Guerra Mundial se usaron submarinos para estudiar el fondo del océano encontrando montañas, fisuras, brechas profundas y volcanes activos. Se descubrió que el fondo del Atlántico estaba formado por basalto. Una cordillera de más de 30 000 kms de largo dividía el Atlántico en dos, sus cimas, las Mesodorsales, trazaban las mismas curvas que los continentes. Una enorme depresión en su cima, de 30 kms de ancho, indicaba que la corteza terrestre estaba rota en esa zona. En 1963 Frederick Vine y Drummond Matthews de la Universidad de Cambridge propusieron que la dorsal submarina era una grieta de la corteza terrestre por donde salía de manera continua magma fundido, que, al enfriarse, creaba suelo nuevo renovando continuamente el fondo del océano. La inversión de la polaridad de los polos que ocurre cada medio millón de años quedaba registrada en la orientación del basalto. El océano se ensanchaba separando los continentes. Invirtiendo el movimiento se podía deducir que el océano desaparecería en el interior de la brecha, quedando África y América del Sur encajadas. Si el suelo crece en una parte, necesariamente se funde en otra, es lo que ocurre en las zonas de subducción, donde ocurren terremotos profundos. En esas áreas, los magmas ligeros se funden y salen a la superficie, formándose volcanes y arcos de islas como las Islas Marianas del Pacífico, Filipinas o Japón. En las zonas donde el suelo se separa casi no tiembla y no hay actividad volcánica. Al parecer, los continentes deben haberse formado hace unos 3000 a 3500 millones de año. Al comienzo la corteza se condensó en un gran continente conocido como Ur, más pequeño que Australia. Luego se separó y volvió a unirse formando primero Kenorland (2 600 millones de años) y después Nuna (1 800 millones de años). Nuna fue el primer super continente con una longitud de 12 800 kms de norte a sur. Hace 1100 millones de años se habría formado Rodinia a partir de Columbia y otras tierras nuevas que emergieron del mar. Cerca de la línea del Ecuador había un cinturón de fuego de más de tres mil kilómetros de largo donde se produjeron erupciones que hace 717 millones de años causaron la segunda glaciación conocida como Sturnania. La combinación de www.achisina.cl | +56961408910 | comite.editorial@achisina.cl
múltiples erupciones volcánicas liberando gases, sumado al desplazamiento de los continentes y la existencia de hielo en la superficie congelaron la tierra. Hace 750 millones de años se volvió a separar para volver a unirse hace 600 millones de años después en un continente inmenso, Pannotia, que duró 60 millones de años. Finalmente, hace 250 millones de años, la tierra firme se concentró en un gran continente denominado Pangea que estaba rodeado por el gran océano Panthalassa. En la historia del planeta ha habido seis grandes episodios de ensamble y rotura continental, que al parecer siguen una pauta fija y cíclica. Hubo intervalos cortos, de 100 a 200 millones de años, en que se produjeron colisiones continentales alternadas, con largos intervalos de 300 millones de años sin actividad. Se supone que cada 500 millones de años todos los continentes se juntan en una gran masa, siendo Pannotia la excepción. Hace 225 millones de años, Pangea se componía de dos grandes masas unidas por el centro en la zona del Ecuador, Laurasia en el hemisferio norte, que reunía la actual América del Norte, Groenlandia, Europa y Asia, y Gondwana, en el hemisferio sur, que corresponde a la actual América del Sur, África, India, Australia y la Antártida, Figura 2.
Figura 2.- Deriva de los continentes desde Pangea hasta hoy. (Elena Sanz). Pangea apareció después de la extinción masiva del Pérmico-Triásico, que había arrasado con la mayoría de los anfibios y reptiles evolucionados a partir de los tetrápodos. Veinticinco millones de años después comenzó a escindirse de nuevo, algunos pedazos chocaron formando el Himalaya y los Alpes, una brecha escindió África y América llenándose de agua salada formando el Océano Atlántico. La India emergió donde había estado adherida a Madagascar, Australia se separó de la Antártida y avanzó hacia Asia con quien chocará en el futuro. África se desplazó hacia el norte chocando con Europa en un proceso continuo que algún día cerrará el Mediterráneo. Europa y Groenlandia fueron las últimas en romper sus vínculos, hace 60 millones de años. América del Norte estaba separada de América del Sur hasta que hace 5 millones de años una subducción en el Pacífico formara el istmo de Panamá, aislando el Atlántico del Pacífico.

Según geólogos de la Universidad de Yale, 2012, dentro de millones de años más, los continentes se volverán a juntar en uno solo, que quedará cercano al actual Polo Norte, se llamará Amasia. Desaparecerán el océano Ártico y el mar Caribe y América del Norte se fusionará con América del Sur y se unirán a Asia y Europa por el lado norte. Hay otro modelo propuesto por el geólogo de Texas, Christopher Scotese, que dice que en 50 millones de años más habrá un único continente, Pangea Última, que tendrá un pequeño océano rodeado de tierra por los cuatro costados. Se formará al chocar Europa con África, desapareciendo el Mediterráneo, y Australia quedará sobre Indonesia. La Antártida ascenderá al norte y Groenlandia se derretirá. África chocará con América del Norte y envolverá a América del Sur haciendo que el Pacífico cubra la mitad del planeta.
Desarrollo de los métodos de diseño
Volviendo al desarrollo de la Ingeniería Sísmica, el terremoto de Santa Bárbara, del 29 de junio de 1925, dio inicio a estudios de ingeniería sísmica en EE.UU. En Stanford, el profesor Bailey Willis propuso crear un laboratorio para investigación en ingeniería sísmica, consiguiendo los fondos para una mesa de vibrar, que se construyó en 1927. En 1930 se ensayó un www.achisina.cl | +56961408910 | comite.editorial@achisina.cl