Apuntes de Confiabilidad Estructural CONFIABILIDAD ESTRUCTURAL 1. INTRODUCCIÓN Los cálculos y diseños realizados en ingeniería contienen, sin lugar a duda, incertidumbres asociadas a los diversos factores que participan en su ejecución. Por ejemplo, la incertidumbre asociada a las cargas que realmente soportará la estructura, la resistencia real de los materiales, las dimensiones exactas con las que se construirá, etc. Si aceptamos el hecho de que las distintas variables que están involucradas en un diseño estructural no son determinísticas, es decir, no son constantes; entonces debemos entender que, a pesar de haber diseñado una estructura siguiendo a cabalidad una normativa o reglamento de diseño, no podremos evitar la existencia de una probabilidad de falla, por mínima que esta sea. La confiabilidad estructural tiene por objetivo determinar la probabilidad de falla de una estructura, tomando en consideración las incertidumbres asociadas al análisis y diseño estructural. 2. ELEMENTOS DE ESTADÍSTICA 2.1. Media Es una medida de tendencia central que se define como la suma de los valores observados dividido entre la cantidad de valores observados. π 1 ππ₯ = ∑ π₯π π π=1 De manera análoga, puede definirse la media como la suma de los valores observados multiplicados por su correspondiente frecuencia dividido entre la suma de frecuencias ∑ππ=1(ππ β π₯π ) ππ₯ = ∑ππ=1 ππ Esta definición da lugar al concepto de esperanza matemática de una variable aleatoria que será tratado en el tema de probabilidad. 2.2. Varianza Mide la dispersión de los datos con relación a la medida de tendencia central (media). Se define como la suma de los Ing. Albert Miranda Apuntes de Confiabilidad Estructural cuadrados de la diferencia de los valores observados y la media, dividido entre el número de valores observados. π ππ₯ 2 1 = ∑(π₯π − ππ₯ )2 π π=1 2.3. Desviación Estándar Es una medida de la variabilidad de los datos observados y se define como la raíz cuadrada de la varianza. A diferencia de la varianza, la desviación estándar es un valor mucho más claro en su comprensión pues contiene la misma escala dimensional que la media. π 1 ππ₯ = √ ∑(π₯π − ππ₯ )2 π π=1 2.4. Covarianza Es un valor que indica el grado de variación conjunta de dos muestras de datos respecto de sus medias. π 1 πππ£(π₯, π¦) = ∑(π₯π − ππ₯ ) β (π¦π − ππ¦ ) π π=1 2.5. Coeficiente de correlación Expresa el grado de correlación entre dos muestras de datos, y se define como la covarianza dividida entre el producto de las desviaciones estándar de las muestras de datos. ππ₯π¦ = 2.6. πππ£(π₯, π¦) ππ₯ β ππ¦ Regresión Es un modelo matemático usado para aproximar la relación de dependencia entre una variable independiente X y una variable dependiente Y. Para una aproximación simple, se puede considerar una relación lineal entre las variables de acuerdo con la siguiente ecuación: π¦ = ππ₯ + π Donde, π = ππ₯ − π β ππ¦ π= ππ¦ πππ£(π₯, π¦) = ππ₯π¦ 2 ππ₯ ππ₯ Ing. Albert Miranda Apuntes de Confiabilidad Estructural 3. TEORÍA DE CONJUNTOS Los conjuntos son entidades matemáticas que se refieren a una pluralidad o colectividad de objetos que se consideran agrupados formando un todo. La teoría de conjuntos es la parte de las matemáticas que estudia a los conjuntos, subconjuntos, sus notaciones, operaciones y aplicaciones. 3.1. Notación Convencionalmente los conjuntos se representan mediante letras mayúsculas y los elementos pertenecientes al conjunto se escribirán entre llaves. Ejemplo: π = {1, 2, 3, 4, … } π = {… , −2, −1, 0, 1, 2, … } 3.2. Conjuntos especiales 3.2.1. Conjunto vacío El conjunto nulo o vacío es aquel conjunto que carece de elementos y se denota por el símbolo Φ. En probabilidad se conoce como el evento imposible. Φ= {} 3.2.2. Conjunto universo El conjunto universo o referencial es aquel conjunto que contiene la totalidad de los elementos que pueden existir o quedar caracterizados por una agrupación en particular y se denota por π. En probabilidad se conoce como el evento seguro. 3.3. Operaciones entre conjuntos 3.3.1. Unión de conjuntos La unión de dos conjuntos A y B, es un nuevo conjunto formado por todos los elementos de A o de B, y se denota de la siguiente manera: π΄ ∪ π΅ = {π₯/ π₯ ∈ π΄ ∨ π₯ ∈ π΅} 3.3.2. Intersección de conjuntos La intersección de dos conjuntos A y B, es un nuevo conjunto formado por los elementos comunes de A y de B, y se denota de la siguiente manera: π΄ ∩ π΅ = π΄π΅ = {π₯/ π₯ ∈ π΄ ∧ π₯ ∈ π΅} Ing. Albert Miranda Apuntes de Confiabilidad Estructural 3.3.3. Complemento de un conjunto El complemento de un conjunto A, es el conjunto formado por los elementos del universo U, que no pertenecen a A, y se denota de la siguiente manera: π΄Μ = {π₯/ π₯ ∈ π ∧ π₯ ∉ π΄} 3.3.4. Leyes de conjuntos Los conjuntos obedecen a relaciones especiales entre ellos conocidas como leyes de conjuntos. Entre las más importantes se tiene: - Leyes de idempotencia: π΄∪π΄= π΄ - Leyes conmutativas: π΄∪π΅ =π΅∪π΄ - - - π΄∩π΅ =π΅∩π΄ Leyes asociativas: π΄ ∪ (π΅ ∪ πΆ ) = (π΄ ∪ π΅ ) ∪ πΆ π΄ ∩ (π΅ ∩ πΆ ) = (π΄ ∩ π΅ ) ∩ πΆ Leyes distributivas: π΄ ∩ ( π΅ ∪ πΆ ) = ( π΄ ∩ π΅ ) ∪ (π΄ ∩ πΆ ) π΄ ∪ ( π΅ ∩ πΆ ) = ( π΄ ∪ π΅ ) ∩ (π΄ ∪ πΆ ) Leyes de absorción: π΄∪π = π - π΄∩π΄= π΄ π΄∩Φ=Φ Leyes de D’Morgan: Μ Μ Μ Μ Μ Μ Μ π΄ ∪ π΅ = π΄Μ ∩ π΅Μ Μ Μ Μ Μ Μ Μ Μ π΄ ∩ π΅ = π΄Μ ∪ π΅Μ - Leyes de complemento: π΄ ∪ π΄Μ = π - π΄ ∩ π΄Μ = Φ π΄ΜΏ = π΄ Leyes de identidad: π΄∪Φ=A π΄∩π =π΄ 4. ELEMENTOS DE PROBABILIDAD 4.1. Experimento Aleatorio Un experimento puede dividirse en dos clases principales, experimentos determinísticos y experimentos aleatorios. Los determinísticos son aquellos en los que el resultado está completamente determinado y pueden describirse por una ecuación matemática, por ejemplo: ε1 : medir la aceleración que experimenta un cuerpo de masa π¦, sometido a una fuerza π Ing. Albert Miranda Apuntes de Confiabilidad Estructural Por otro lado, en un experimento aleatorio los resultados no pueden predecirse con exactitud antes de realizar el experimento, por ejemplo: ε2 : lanzar una moneda y observar la cara superior 4.2. Espacio de probabilidad Es un objeto matemático que consta de tres elementos: un espacio muestral, una colección de eventos definidos sobre ese espacio muestral, y una función de probabilidad que asigna probabilidades a cualquier evento. 4.2.1. Espacio muestral Es el conjunto de todos los resultados posibles de un experimento. Se conoce también como conjunto universo, y convencionalmente se denota por Ω. Ejemplo: - Un experimento consiste en lanzar una moneda al aire, con lo cual el espacio muestral lo conforman los dos únicos resultados posibles que son: Ω = {ππππ, ππ ππ’ππ} - Otro experimento consiste en lanzar un dado, y se tendrán seis posibles resultados, con lo que el espacio muestral quedaría definido de la siguiente manera: Ω = {π’ππ, πππ , π‘πππ , ππ’ππ‘ππ, πππππ, π πππ } 4.2.2. Evento Un evento es un subconjunto del espacio muestral, que puede contener uno o más elementos o resultados posibles del espacio muestral. Ejemplo: - En el experimento de lanzar un dado, se podrían generar los siguientes eventos: A = ”Que el número del dado sea menor a tres” B = ”Que el número del dado sea par” C = ”Que el número del dado sea un número primo” π΄ = {1, 2} π΅ = { 2, 4, 6} πΆ = { 2, 3, 5} Algunos eventos particulares se definen a continuación: Ing. Albert Miranda Apuntes de Confiabilidad Estructural - 4.3. Evento seguro: Se define como evento seguro al evento que representa al espacio muestral y se denota por Ω. Evento imposible: Se define como evento imposible al evento que representa al conjunto vacío y se denota por Φ. Eventos mutuamente exhaustivos: excluyentes y colectivamente Dos o más eventos se consideran mutuamente excluyentes si la ocurrencia de uno de ellos anula la ocurrencia de los otros, es decir: π β π΄π = Φ π=1 Por ejemplo, en el siguientes eventos excluyentes: experimento de lazar un dado, los se pueden considerar mutuamente A = ”Que el número del dado sea impar” B = ”Que el número del dado sea par” Los eventos A y B son claramente eventos mutuamente excluyentes porque si ocurre A, entonces no ocurre B. Dos o más eventos se consideran colectivamente exhaustivos si la unión de ellos es igual al espacio muestral, es decir: π β π΄π = Ω π=1 Por ejemplo, cualquier evento π΄ y su complemento π΄Μ se pueden considerar eventos colectivamente exhaustivos, porque se cumple: π΄ ∪ π΄Μ = π En confiabilidad estructural, el ejemplo más claro de eventos que cumplen con ser mutuamente excluyentes y además colectivamente exhaustivos son los resultados del experimento π que consiste en someter una estructura a un determinado patrón de cargas y verificar si falla o no. En este experimento, los eventos π΄ = {ππ ππ π‘ππ’ππ‘π’ππ πππππ} y π΅ = {ππ ππ π‘ππ’ππ‘π’ππ ππ πππππ} son mutuamente excluyentes, porque si ocurre que la estructura falla, no puede ocurrir simultáneamente que la estructura no falla. Además, son colectivamente exhaustivos porque la unión de los dos eventos Ing. Albert Miranda Apuntes de Confiabilidad Estructural da como resultado el espacio muestral, ya que no hay otra posibilidad. Ω = {πππππ, ππ πππππ} π΄∪π΅ =Ω 4.4. Definición de probabilidad La probabilidad es una medida de la certidumbre asociada a la ocurrencia de un evento, es decir, es la mayor o menor posibilidad de que ocurra un determinado evento. La probabilidad asignada a cualquier evento está entre un rango de 0 a 1, donde 0 representa la imposibilidad de ocurrencia del evento y 1 representa la certeza total de que ocurra el evento. 4.5. Axiomas de probabilidad La teoría de la probabilidad se rige bajo los siguientes 3 axiomas fundamentales: 1. La probabilidad de ocurrencia de cualquier evento debe estar mayor o igual a 0. π (π΄ ) ≥ 0 2. La probabilidad de ocurrencia espacio muestral es 1. del evento seguro o π (Ω ) = 1 3. Si dos eventos π΄1 y π΄2 son mutuamente excluyentes, se cumple que: π (π΄1 ∪ π΄2 ) = π (π΄1 ) + π(π΄2 ) En confiablidad estructural a la probabilidad de que una estructura no falle se conoce como confiabilidad y se define de la siguiente manera: π (ππ πππππ) + π(πππππ) = 1 π + ππ = 1 π = 1 − ππ 4.6. La regla de la adición De manera general, si dos eventos π΄1 y π΄2 no son mutuamente excluyentes, la regla de la adición o unión se define como: π(π΄1 ∪ π΄2 ) = π(π΄1 ) + π (π΄2 ) − π (π΄1 ∩ π΄2 ) 4.7. Probabilidad condicional Ing. Albert Miranda Apuntes de Confiabilidad Estructural En algunas ocasiones sucede que la probabilidad de un evento depende de la ocurrencia de otro evento, es decir que, si otro evento ocurre, entonces la probabilidad de que el primero ocurra se modifica. Si esta dependencia existe, se conoce como probabilidad condicional y se define de la siguiente manera: π (π΄ |π΅ ) = 4.8. π (π΄ ∩ π΅ ) π (π΅ ) Independencia estadística Si la ocurrencia o no ocurrencia de un evento, no afecta la probabilidad de ocurrencia de otro evento, los dos eventos son estadísticamente independientes. Entonces, si dos eventos π΄ y π΅ son estadísticamente independientes, se cumple que: π(π΄|π΅) = π (π΄) π ( π΅ |π΄ ) = π ( π΅ ) Se debe tener muy en cuenta que existe una gran diferencia entre ser eventos mutuamente excluyentes y estadísticamente independientes. Son conceptos totalmente diferentes, la independencia estadística entre dos eventos se refiere a la probabilidad de su ocurrencia conjunta, mientras que dos eventos mutuamente excluyentes no tienen posibilidad de ocurrir conjuntamente. π ( π΄ |π΅ ) = 0 4.9. La regla de la multiplicación La probabilidad conjunta de dos eventos π΄ y π΅ puede expresarse en función de la probabilidad condicional de la siguiente manera: π(π΄ ∩ π΅) = π (π΄|π΅) β π (π΅) π ( π΄ ∩ π΅ ) = π ( π΅ | π΄) β π ( π΄ ) A las expresiones anteriores se conoce como la regla de la multiplicación y si π΄ y π΅ son eventos estáticamente independientes, la regla se expresa como: π (π΄ ∩ π΅ ) = π (π΄ ) β π (π΅ ) 4.10. Teorema de la probabilidad total En ocasiones, la probabilidad de un evento π΄ cualquiera, no se puede determinar de manera directa, dado que su ocurrencia depende de la ocurrencia o no ocurrencia de otros eventos, Ing. Albert Miranda Apuntes de Confiabilidad Estructural como π΅1 , π΅2 , … , π΅π . Si se cumple que los eventos π΅π son mutuamente excluyentes y colectivamente exhaustivos, entonces, la probabilidad de un evento π΄ cualquiera puede escribirse de la siguiente manera: π(π΄) = π(π΄ ∩ π΅1 ) + π(π΄ ∩ π΅2 ) + β― + π(π΄ ∩ π΅π ) Si le aplicamos la regla de la multiplicación, se tiene que: π(π΄) = π(π΄|π΅1 ) β π(π΅1 ) + π(π΄|π΅2 ) β π (π΅2 ) + β― + π (π΄|π΅π ) β π(π΅π ) π π(π΄) = ∑ π(π΄|π΅π ) β π(π΅π ) π=1 4.11. Teorema de Bayes En la derivación del teorema de probabilidad total, la probabilidad de cualquier evento π΄ depende de cuál de los eventos condicionantes π΅1 , π΅2 , … , π΅π , ha ocurrido. Por otro lado, si interesa conocer la probabilidad de cualquier evento particular π΅π dada la ocurrencia de π΄, sería el caso inverso al problema planteado en el teorema de la probabilidad total, y se conoce como teorema de Bayes: π(π΅π |π΄) = π(π΅π |π΄) = π (π΄|π΅π ) β π (π΅π ) π (π΄ ) π (π΄|π΅π ) β π (π΅π ) π ∑π=1 π (π΄|π΅π ) β π(π΅π ) 5. VARIABLE ALEATORIA Una variable aleatoria es una función de mapeo que asocia a los eventos posibles dentro de un espacio muestral con un sistema de números reales, en otras palabras, es un objeto matemático para representar un evento en una forma numérica analítica. A diferencia de una variable determinística que asume un valor definitivo, el valor de una variable aleatoria puede solamente definirse sobre un rango de valores posibles. En ingeniería, muchos fenómenos aleatorios de interés quedan asociados a resultados numéricos de ciertas cantidades físicas (“El caudal que pasa por una determinada sección de un río”), sin embargo, existen otros que no están definidos de manera numérica (“la falla o supervivencia de un eslabón de una cadena que soporta carga”), en cualquier caso, gracias al concepto de variable aleatoria se puede asignar de manera Ing. Albert Miranda Apuntes de Confiabilidad Estructural artificial valores numéricos a los eventos en cuestión (“0 para la falla y 1 para la supervivencia”). En conclusión, los posibles resultados de un fenómeno aleatorio pueden ser representados por valores numéricos, ya sea de manera natural o artificial. En cualquier caso, un resultado o evento puede ser identificado por un valor o un rango de valores de una función, que es llamada variable aleatoria. Por convención, las variables aleatorias se representan mediante letras mayúsculas, mientras que sus posibles valores con letras minúsculas. Un valor o un rango de valores de una variable aleatoria representa un evento en particular. 5.1. Clasificación de variables aleatorias 5.1.1. Variable aleatoria discreta Una variable aleatoria es discreta cuando puede tomar un número finito de valores, o un número infinito de valores contables o numerables. 5.1.2. Variable aleatoria continua Una variable aleatoria es continua cuando puede tomar cualquier valor en un intervalo de la rectar numérica. 5.2. Distribución de probabilidad de una variable aleatoria Un variable aleatoria es una variable cuyo valor no se con certeza, sin embargo, no estamos completamente penumbra porque, aunque no conocemos el valor que va a si conocemos los valores que puede tomar, y conocemos las probabilidades de que asuma estos valores. conoce en la tomar, además La medida de probabilidad que se asocia a una variable aleatoria se denomina distribución de probabilidad o leyes de probabilidad. Para una variable aleatoria discreta π, la función de distribución de probabilidad describe la probabilidad de que la variable tome un valor π₯ en particular: ππ (π₯ ) = π(π = π₯ ) Además de esto, existe la función de distribución acumulada que describe la probabilidad de que π tome valores menores o iguales a un valor π₯ en particular: πΉπ (π₯ ) = π(π ≤ π₯ ) = ∑ π (π = π₯π ) π₯π ≤π₯ Ing. Albert Miranda Apuntes de Confiabilidad Estructural Para una variable aleatoria continua π, la función de distribución de probabilidad se conoce como función de densidad de probabilidad, y describe la probabilidad de que π tome valores menores en un intervalo (π, π]: π π (π < π ≤ π) = ∫ ππ (π₯ )ππ₯ π Y su correspondiente función de distribución de probabilidad acumulada se define como: π₯ πΉπ (π₯ ) = π (π ≤ π₯ ) = ∫ ππ (π)ππ −∞ De acuerdo con esto, si πΉπ (π₯ ) tiene una primera derivada, entonces se demuestra que: ππ (π₯ ) = ππΉπ (π₯ ) ππ₯ Se debe enfatizar que cualquier función utilizada para representar la distribución de probabilidad de una variable aleatoria, debe necesariamente satisfacer los axiomas de la teoría de la probabilidad. De acuerdo con los axiomas, una función de distribución acumulada debe satisfacer las siguientes condiciones: 5.3. πΉπ (−∞) = 0; y πΉπ (∞) = 1 πΉπ (π₯ ) ≥ 0, para todos los valores de π₯ y es no decreciente πΉπ (π₯ ) es continua a la derecha con π₯ Principales parámetros de una variable aleatoria Una variable aleatoria puede quedar completamente descrita si se conoce su función de distribución de probabilidad (función de densidad de probabilidad caso continuo) o su función de distribución acumulada, y si sus parámetros asociados son especificados. En la práctica, las funciones de distribución de probabilidad pueden no ser conocidas, en tal caso una descripción aproximada de sus principales descriptores puede ser útil. Los principales parámetros de describen a continuación. 5.3.1. Valor esperado o esperanza matemática Es un promedio pesado asociado a las diferentes probabilidades de los posibles valores que puede tomar la variable aleatoria. Para el caso discreto se define como: Ing. Albert Miranda Apuntes de Confiabilidad Estructural π πΈ (π) = ∑ π₯π ππ (π₯π ) π=1 Para el caso continuo: ∞ πΈ (π) = ∫ π₯ππ (π₯ )ππ₯ −∞ 5.3.2. Varianza Es una medida de dispersión que indica cuan dispersos están los valores de la medida de tendencia central. Para el caso discreto se define como: π π£ππ(π) = ∑(π₯π − ππ )2 ππ (π₯π ) π=1 Para el caso continuo: ∞ π£ππ(π) = ∫ (π₯ − ππ )2 ππ (π₯ )ππ₯ −∞ π£ππ(π) = πΈ (π 2 ) − ππ 2 5.3.3. Desviación estándar ππ = √π£ππ(π) 5.3.4. Coeficiente de variación πΏπ = 5.4. ππ ππ Distribuciones de probabilidad útiles Ing. Albert Miranda Apuntes de Confiabilidad Estructural Método de confiabilidad FORM ππ = π(π ≤ π) ππ = π (π − π ≤ 0) π =π −π 0 ππ = π(π ≤ 0) = ∫ ππ (π) ππ −∞ ππ = β¬ ππ π (π, π ) ππππ π>π ∞ π ππ = ∫ ∫ ππ π (π, π ) ππππ 0 0 ππ π (π, π ) = ππ (π)ππ (π ) ∞ π ππ = ∫ ππ (π ) [∫ ππ (π) ππ] ππ 0 0 Pero: π πΉπ (π ) = ∫ ππ (π) ππ 0 Ing. Albert Miranda Apuntes de Confiabilidad Estructural ∞ ππ = ∫ πΉπ (π ) ππ (π ) ππ 0 Los métodos de nivel II tratan de encontrar una medida de la seguridad, directamente relacionada con la probabilidad de fallo, y que, sin embargo, no implique necesariamente la determinación de la misma mediante la integración de la función de densidad conjunta de las variables aleatorias involucradas. En terminología usual, esta medida se llama índice π½. Si se tienen las siguientes condiciones: - La función de estado límite (margen de seguridad) es lineal Las variables aleatorias son independientes Las variables aleatorias se distribuyen normalmente El índice π½ de Cornel se define como: π½= ππ ππ Gráficamente el índice de confiabilidad π½, representa el número de desviaciones estándar que separan el valor medio del origen, esto significa que cuanto más lejos esté el valor medio del origen, menor será la probabilidad de fallo del sistema. π½= ππ ππ − ππ = ππ √ππ 2 + ππ 2 Ing. Albert Miranda Apuntes de Confiabilidad Estructural La relación entre la probabilidad de falla de un sistema y el índice de confiabilidad π½ está dado por: π = Φ(π½) ππ = 1 − π = 1 − Φ(π½) π½ = −Φ(ππ ) Ing. Albert Miranda