11 minute read

Artículos

Next Article
normas

normas

revista a CH isi N a Con respecto a la distribución de solicitaciones entre los diferentes elementos resistentes, los primeros procedimientos supusieron que debería ser proporcional a las rigideces basales, o a las de entrepiso, con la consiguiente violación de las condiciones de compatibilidad cinemática simultánea en todos los niveles. Tales discrepancias fueron motivo de numerosas investigaciones, destacando las correcciones de Muto y las derivadas de los estudios de la interacción entre marcos y muros, desarrolladas preferentemente con modelos continuos.

MODELO CONTINUO DE INTERACCIÓN

En el país se reconoce una gran influencia a las lecciones que derivaron de los terremotos de Valparaíso, en 1906 y de Chillán, en 1939 (Ref.: INGENIERÍA SÍSMICA EN CHILE. Rodrigo Flores Álvarez; www2.ing.puc.cl/~iing/ed428/rodrigoflores. html). Debido a los efectos catastróficos del terremoto de Valparaíso, el gobierno impulsa el estudio de los fenómenos sísmicos y crea el Instituto Sismológico de Chile, en 1908, cuyo director fue el sismólogo francés Fernand Montessus de Ballore. El terremoto de Chillán, por su parte, da inicio a la estructuración de los edificios mediante muros de corte, en lugar del tradicional edificio de marcos rígidos, lo que originó el extraordinario desempeño de numerosos edificios de hormigón armado de alrededor de 15 pisos, construidos entre los años 1940 y 1960, que resistieron en excelente forma el sismo destructivo de marzo de 1985. Entre los primeros edificios construidos en la década de los 40 aparecen el Hotel Carrera y la ex Caja de Seguro Obrero. En todos esos años surgieron grandes aportes registrados en la literatura técnica internacional, hasta que, a mediados de los años 60, junto con la entronización definitiva de la computación digital, se logró consolidar los métodos de análisis matricial, que incorporaron, simultáneamente, las ecuaciones de equilibrio con las de compatibilidad de desplazamientos.

Es en este segundo periodo, cuando se producen dos grandes “explosiones”: la “explosión sísmorresistente”, a consecuencias del “Gran Terremoto Chileno” de 1960, erróneamente conocido como “El Terremoto de Valdivia”, y la “explosión informática”, con el surgimiento de los primeros computadores digitales, los lenguajes simbólicos de programación y la transformación de los desarrollos teóricos del periodo anterior, en programas de aplicación. El análisis matricial y los computadores denominados “de tercera generación”, permitieron incorporar formalmente el método de análisis modal espectral en la moderna norma sísmica NCh433 provisoria de 1968, oficializada en 1972.

En esta versión de la norma sísmica, se estableció que los resultados modales se combinaban promediando el máximo posible (suma de valores absolutos) con el máximo probable (raíz cuadrada de la suma de cuadrados modales). Rápidamente después del sismo, y con capacidades de programación extendidas en la comunidad científica, se constituyeron potentes grupos de investigación en diversas universidades del país que, en 1962, condujeron a la creación de ACHISINA, a la adjudicación a Chile como sede del IV Congreso Mundial de Sismología e Ingeniería Antisísmica. Numerosos destacados egresados optaron exitosamente a becas de postgrado en prestigiadas universidades del extranjero y, cuando retornaron a Chile, asumieron labores de docencia, investigación y ejercicio profesional. Pasaron de discípulos a maestros. En relación a las herramientas de tipo tecnológico que caracterizan esta época, cabe mencionar la aparición de una nueva generación de computadores, ya no de un par de miles de bytes de memoria directa, sino de algunos cientos de Kbytes que, sumado a discos de razonable capacidad de almacenamiento, permitieron un perfeccionamiento de los modelos y métodos de análisis, con énfasis en modelos de marcos equivalentes. Nuevamente destaca la figura de Muto, creador del concepto de “nudos finitos”, mediante los cuales se pudo modelar, conjuntamente, elementos esbeltos (columnas y vigas) con otros de mediana o baja esbeltez (machones y muros).

En este periodo se observa el importante salto debido al desarrollo del modelo pseudo tridimensional, para ejes resistentes planos, donde el efecto de monolitismo estructural se introduce mediante áreas colaborantes. Este modelo supone que los ejes resistentes sólo tienen rigidez en su propio plano y que los diafragmas de piso (losas horizontales), son infinitamente rígidos en su plano e infinitamente flexibles fuera de él. Se explicita la compatibilidad de desplazamientos horizontales entre los ejes resistentes, en cada diafragma, a través de la definición de tres grados de libertad (dos traslaciones mutuamente ortogonales y una rotación en torno a un eje vertical al plano), y que tal compatibilidad es simultánea en todos los pisos del edificio.

La excelencia de la ingeniería antisísmica chilena es reconocida internacionalmente en 1972, y se atribuye al exitoso modelo estructural conformado por muros de corte, el cual se denomina “edificio chileno”. El país entró así en las “ligas mayores”, en las que se mantiene inamovible. Cuando ya aparecen computadores más veloces y con capacidades aún más grandes, se perfecciona el modelo pseudo tridimensional monolítico, que rectifica el modelo pseudo tridimensional, agregando la condición cinemática de compatibilidad explícita en las aristas de ejes resistentes concurrentes.

Los cambios tecnológicos tienen su más contundente expresión en términos de capacidades de almacenamiento de información, velocidades de proceso y costos asociados. Edward Wilson, profesor emérito de la Universidad de California, Berkeley, creador de los más prestigiados programas comerciales de análisis y diseño estructural, incluyó en la versión de 1999 de su libro “Dynamic Analysis: With Emphasis On Wind and Earthquake Loads”, ejemplos que muestran dramáticas variaciones de velocidades y costos del análisis computacional entre 1957 y 1999. Si tomamos en cuenta que, además, entre 1999 y 2012 los cambios tuvieron un crecimiento exponencial, estas cifras, que ya parecían excepcionales, quedaron nuevamente minimizadas. En la tercera etapa, que nace con el siglo XXI, se han desarrollado numerosos programas orientados al análisis y al diseño que cuentan con herramientas gráficas y de pesquisa de datos, que agilizan considerablemente las respectivas tareas. Del mismo modo, se ha logrado conectar análisis con diseño, lo que hasta hace algunos años eran etapas independientes. Los casos más importantes en esta dirección son: inclusión del método constructivo; el método “Puntal-Tensor”; la expresión del equilibrio en la posición deformada (Efecto P-Δ); el diseño por capacidad; el uso masivo de sistemas de protección sísmica (aisladores basales y disipadores de energía; el diseño por desempeño; el análisis no lineal; la inclusión de modelos con elementos finitos en sustitución de marcos equivalentes, entre otros.

MÉTODO DE ELEMENTOS FINITOS

El método de elementos finitos nació en la década de los años ’50, para la solución de problemas de mecánica de sólidos elásticos no representables mediante elementos uniaxiales. Se basa en la discretización física del sólido en pequeños elementos que comparten bordes, cuya posición deformada depende exclusivamente de los desplazamientos de sus nodos, definidos como las incógnitas independientes (grados de libertad) del problema. Las limitaciones computacionales de la época originaron desarrollos para representar los desplazamientos en el elemento mediante funciones polinómicas conformes, es decir, que producían compatibilidad completa en los bordes. No siempre esta discretización se pudo satisfacer plenamente y se aceptaron algunas soluciones con funciones no conformes que producían resultados razonables, pero que requerían mallas de elementos muy refinadas. Un cambio significativo se alcanzó con el desarrollo de elementos isoparamétricos que extendieron el método a niveles notables. Se pudo emplear en sólidos de configuraciones geométricas muy complejas que, en el caso de los edificios, incluyeron losas, muros, fundaciones, interacción entre la estructura y el suelo, láminas delgadas, sólidos macizos, entre

revista a CH isi N a muchas otras. En estos días los edificios se modelizan en forma completa con este tipo de elementos, para solicitaciones de diversos orígenes, como las acciones sísmicas. La teoría completa del método escapa al alcance de este artículo. Sin embargo, para ilustrar sus aplicaciones, se muestra a continuación la imagen de un edificio de archivo, proporcionada por la oficina de cálculo RLE Engineers:

MÉTODO DEMANDA - CAPACIDAD

El Método Demanda - Capacidad (Chopra-Goel, Berkeley), ampliamente difundido en la práctica habitual de ingeniería de proyectos de gran envergadura, proporciona resultados muy adecuados del comportamiento estructural más allá de los límites elásticos, para un amplio rango de estructuras. Consiste, esencialmente, en la búsqueda de un compromiso entre la DEMANDA (acción sísmica) y la CAPACIDAD (oferta resistente de la estructura), que se logra mediante la determinación del PUNTO DE DESEMPEÑO, en el que dicho compromiso se satisface. La capacidad estructural se describe por el Espectro de Capacidad, que se obtiene mediante un procedimiento estático no lineal denominado Pushover, consistente en la aplicación de una ley estática de fuerzas sobre la estructura, que se incrementa monotónicamente, para generar sucesivas rótulas plásticas. El procedimiento se aplica por etapas y se prolonga de la misma forma, hasta que la estructura se transforma en un mecanismo. Cada etapa concluye al detectarse una nueva rótula plástica que modifica la estructura para la etapa siguiente. Se miden Sa y Sd, en que Sa es el cuociente entre el esfuerzo de corte basal acumulado y la masa total de la estructura y Sd es el desplazamiento lateral acumulado en cota superior de la estructura. Los pares de valores Sa y Sd dan origen a la curva denominada “Espectro de Capacidad”.

La demanda sísmica se describe a través del “Espectro de Demanda”, que relaciona la pseudo aceleración inelástica con el desplazamiento de la cota superior de la estructura. Las pseudo aceleraciones de una misma acción sísmica, son cada vez menos severas en la medida en que la estructura ofrece menor resistencia, por lo que los diferentes espectros dan lugar a un Diagrama de Demanda, que resume todos los espectros en una sola figura. www.achisina.cl | +56961408910 | comite.editorial@achisina.cl

Se entenderá que el diseño de la estructura es satisfactorio si en el Punto de Desempeño, donde se encuentran la capacidad y la demanda, para un mismo nivel de ductilidad, se satisfacen los denominados Estados Límite de la Estructura. Todos los elementos constituyentes de este procedimiento, se expresan gráficamente en la figura siguiente:

En general, estos estados límite se asocian a un Desplazamiento Objetivo, representado por la fracción δ /H, en que δ es el desplazamiento lateral máximo del nivel superior con respecto a la base y H es la altura de la estructura. Aunque el inicio de esta metodología es de la década de 1980, o tal vez un poco antes, el comienzo formal de su empleo nace con el documento VISION 2000 (SEAOC, 1995), en el que se establecen los denominados Criterios de Desempeño, que se sintetizan en la tabla siguiente:

Simultáneamente con el control del cuociente δ/H, debe atenderse a que la ductilidad global μ necesariamente debe quedar acotada a máximos aceptables, de acuerdo a los niveles de desempeño. Con tal objetivo, y a partir de la proposición de VISION 2000, la práctica nacional ha establecido lo siguiente:

En que Sae es la pseudo aceleración elástica y R*, el Factor de Reducción de la Aceleración Espectral.

DISEÑO POR CAPACIDAD

La analogía de Paulay y Priestley, que se muestra en la figura siguiente, fija el concepto fundacional del diseño por capacidad, que se extiende a las estructuras:

Se puede observar que si todos los eslabones fueran frágiles, e iguales, la falla no podría estar controlada. En cambio, la ductilidad y menor resistencia de un solo eslabón, origina un cambio significativo en la respuesta del sistema.

MÉTODO PUNTAL-TENSOR

Este método, como se muestra en la figura precedente, se apoya en una correcta interpretación del flujo de las fuerzas, desde sus puntos de aplicación hacia los soportes de la estructura, lo que permite realizar un análisis físico del problema mediante un modelo simple, tipo enrejado. Su principal aplicación se encuentra en los casos en que se requiere diseñar zonas singulares de difícil inclusión en modelos de análisis tradicionales.

EFECTO P-

En el caso de edificios que experimentan importantes desplazamientos laterales debido a la acción de fuerzas sísmicas o de viento, puede ser necesario plantear las ecuaciones de equilibrio en la posición deformada del edificio, lo que origina un incremento del momento flector que producen las cargas laterales, debido a la acción de las cargas verticales actuando sobre sus correspondientes desplazamientos. Esta consideración, generalmente de segundo orden, puede ser de gran importancia por la peligrosa disminución de la rigidez lateral que se pudiere presentar. Existen diversas disposiciones para cuantificar el fenómeno y acotar su importancia, observándose consenso en torno a incrementos del momento basal en torno a 10% del debido exclusivamente a las cargas laterales. Sin embargo, la complejidad aparente del problema no es tal, pudiendo considerarse siempre este efecto mediante la inclusión de la rigidez geométrica del edificio, con su aporte negativo en la rigidez total. Las figuras siguientes ilustran esta sencilla formulación:

This article is from: