Apuntes de Confiabilidad

advertisement
Apuntes de Confiabilidad Estructural
CONFIABILIDAD ESTRUCTURAL
1. INTRODUCCIÓN
Los cálculos y diseños realizados en ingeniería contienen,
sin lugar a duda, incertidumbres asociadas a los diversos
factores que participan en su ejecución. Por ejemplo, la
incertidumbre asociada a las cargas que realmente soportará
la estructura, la resistencia real de los materiales, las
dimensiones exactas con las que se construirá, etc.
Si aceptamos el hecho de que las distintas variables que
están involucradas en un diseño estructural no son
determinísticas, es decir, no son constantes; entonces
debemos entender que, a pesar de haber diseñado una
estructura siguiendo a cabalidad una normativa o reglamento
de diseño, no podremos evitar la existencia de una
probabilidad de falla, por mínima que esta sea.
La confiabilidad estructural tiene por objetivo determinar
la probabilidad de falla de una estructura, tomando en
consideración las incertidumbres asociadas al análisis y
diseño estructural.
2. ELEMENTOS DE ESTADÍSTICA
2.1.
Media
Es una medida de tendencia central que se define como la
suma de los valores observados dividido entre la cantidad de
valores observados.
𝑛
1
πœ‡π‘₯ = ∑ π‘₯𝑖
𝑛
𝑖=1
De manera análoga, puede definirse la media como la suma de
los valores observados multiplicados por su correspondiente
frecuencia dividido entre la suma de frecuencias
∑𝑛𝑖=1(𝑓𝑖 βˆ™ π‘₯𝑖 )
πœ‡π‘₯ =
∑𝑛𝑖=1 𝑓𝑖
Esta definición da lugar al concepto de esperanza matemática
de una variable aleatoria que será tratado en el tema de
probabilidad.
2.2.
Varianza
Mide la dispersión de los datos con relación a la medida de
tendencia central (media). Se define como la suma de los
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
cuadrados de la diferencia de los valores observados y la
media, dividido entre el número de valores observados.
𝑛
𝜎π‘₯
2
1
= ∑(π‘₯𝑖 − πœ‡π‘₯ )2
𝑛
𝑖=1
2.3.
Desviación Estándar
Es una medida de la variabilidad de los datos observados y
se define como la raíz cuadrada de la varianza. A diferencia
de la varianza, la desviación estándar es un valor mucho más
claro en su comprensión pues contiene la misma escala
dimensional que la media.
𝑛
1
𝜎π‘₯ = √ ∑(π‘₯𝑖 − πœ‡π‘₯ )2
𝑛
𝑖=1
2.4.
Covarianza
Es un valor que indica el grado de variación conjunta de dos
muestras de datos respecto de sus medias.
𝑛
1
π‘π‘œπ‘£(π‘₯, 𝑦) = ∑(π‘₯𝑖 − πœ‡π‘₯ ) βˆ™ (𝑦𝑖 − πœ‡π‘¦ )
𝑛
𝑖=1
2.5.
Coeficiente de correlación
Expresa el grado de correlación entre dos muestras de datos,
y se define como la covarianza dividida entre el producto de
las desviaciones estándar de las muestras de datos.
𝜌π‘₯𝑦 =
2.6.
π‘π‘œπ‘£(π‘₯, 𝑦)
𝜎π‘₯ βˆ™ πœŽπ‘¦
Regresión
Es un modelo matemático usado para aproximar la relación de
dependencia entre una variable independiente X y una variable
dependiente Y. Para una aproximación simple, se puede
considerar una relación lineal entre las variables de acuerdo
con la siguiente ecuación:
𝑦 = π‘Žπ‘₯ + 𝑏
Donde,
π‘Ž = πœ‡π‘₯ − 𝑏 βˆ™ πœ‡π‘¦
𝑏=
πœŽπ‘¦
π‘π‘œπ‘£(π‘₯, 𝑦)
= 𝜌π‘₯𝑦
2
𝜎π‘₯
𝜎π‘₯
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
3. TEORÍA DE CONJUNTOS
Los conjuntos son entidades matemáticas que se refieren a
una pluralidad o colectividad de objetos que se consideran
agrupados formando un todo. La teoría de conjuntos es la
parte de las matemáticas que estudia a los conjuntos,
subconjuntos, sus notaciones, operaciones y aplicaciones.
3.1.
Notación
Convencionalmente los conjuntos se representan mediante
letras mayúsculas y los elementos pertenecientes al conjunto
se escribirán entre llaves.
Ejemplo:
𝑁 = {1, 2, 3, 4, … }
𝑍 = {… , −2, −1, 0, 1, 2, … }
3.2.
Conjuntos especiales
3.2.1.
Conjunto vacío
El conjunto nulo o vacío es aquel conjunto que carece de
elementos y se denota por el símbolo Φ. En probabilidad se
conoce como el evento imposible.
Φ= {}
3.2.2.
Conjunto universo
El conjunto universo o referencial es aquel conjunto que
contiene la totalidad de los elementos que pueden existir o
quedar caracterizados por una agrupación en particular y se
denota por π‘ˆ. En probabilidad se conoce como el evento
seguro.
3.3.
Operaciones entre conjuntos
3.3.1.
Unión de conjuntos
La unión de dos conjuntos A y B, es un nuevo conjunto formado
por todos los elementos de A o de B, y se denota de la
siguiente manera:
𝐴 ∪ 𝐡 = {π‘₯/ π‘₯ ∈ 𝐴 ∨ π‘₯ ∈ 𝐡}
3.3.2.
Intersección de conjuntos
La intersección de dos conjuntos A y B, es un nuevo conjunto
formado por los elementos comunes de A y de B, y se denota
de la siguiente manera:
𝐴 ∩ 𝐡 = 𝐴𝐡 = {π‘₯/ π‘₯ ∈ 𝐴 ∧ π‘₯ ∈ 𝐡}
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
3.3.3.
Complemento de un conjunto
El complemento de un conjunto A, es el conjunto formado por
los elementos del universo U, que no pertenecen a A, y se
denota de la siguiente manera:
𝐴̅ = {π‘₯/ π‘₯ ∈ π‘ˆ ∧ π‘₯ ∉ 𝐴}
3.3.4.
Leyes de conjuntos
Los conjuntos obedecen a relaciones especiales entre ellos
conocidas como leyes de conjuntos. Entre las más importantes
se tiene:
-
Leyes de idempotencia:
𝐴∪𝐴= 𝐴
-
Leyes conmutativas:
𝐴∪𝐡 =𝐡∪𝐴
-
-
-
𝐴∩𝐡 =𝐡∩𝐴
Leyes asociativas:
𝐴 ∪ (𝐡 ∪ 𝐢 ) = (𝐴 ∪ 𝐡 ) ∪ 𝐢
𝐴 ∩ (𝐡 ∩ 𝐢 ) = (𝐴 ∩ 𝐡 ) ∩ 𝐢
Leyes distributivas:
𝐴 ∩ ( 𝐡 ∪ 𝐢 ) = ( 𝐴 ∩ 𝐡 ) ∪ (𝐴 ∩ 𝐢 )
𝐴 ∪ ( 𝐡 ∩ 𝐢 ) = ( 𝐴 ∪ 𝐡 ) ∩ (𝐴 ∪ 𝐢 )
Leyes de absorción:
𝐴∪π‘ˆ = π‘ˆ
-
𝐴∩𝐴= 𝐴
𝐴∩Φ=Φ
Leyes de D’Morgan:
Μ…Μ…Μ…Μ…Μ…Μ…Μ…
𝐴 ∪ 𝐡 = 𝐴̅ ∩ 𝐡̅
Μ…Μ…Μ…Μ…Μ…Μ…Μ…
𝐴 ∩ 𝐡 = 𝐴̅ ∪ 𝐡̅
-
Leyes de complemento:
𝐴 ∪ 𝐴̅ = π‘ˆ
-
𝐴 ∩ 𝐴̅ = Φ
𝐴̿ = 𝐴
Leyes de identidad:
𝐴∪Φ=A
𝐴∩π‘ˆ =𝐴
4. ELEMENTOS DE PROBABILIDAD
4.1.
Experimento Aleatorio
Un experimento puede dividirse en dos clases principales,
experimentos determinísticos y experimentos aleatorios. Los
determinísticos son aquellos en los que el resultado está
completamente determinado y pueden describirse por una
ecuación matemática, por ejemplo:
ε1 : medir la aceleración que experimenta un cuerpo de masa 𝐦, sometido a una fuerza 𝐅
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
Por otro lado, en un experimento aleatorio los resultados no
pueden predecirse con exactitud antes de realizar el
experimento, por ejemplo:
ε2 : lanzar una moneda y observar la cara superior
4.2.
Espacio de probabilidad
Es un objeto matemático que consta de tres elementos: un
espacio muestral, una colección de eventos definidos sobre
ese espacio muestral, y una función de probabilidad que
asigna probabilidades a cualquier evento.
4.2.1.
Espacio muestral
Es el conjunto de todos los resultados posibles de un
experimento. Se conoce también como conjunto universo, y
convencionalmente se denota por Ω.
Ejemplo:
-
Un experimento consiste en lanzar una moneda al aire,
con lo cual el espacio muestral lo conforman los dos
únicos resultados posibles que son:
Ω = {π‘π‘Žπ‘Ÿπ‘Ž, π‘’π‘ π‘π‘’π‘‘π‘œ}
-
Otro experimento consiste en lanzar un dado, y se
tendrán seis posibles resultados, con lo que el espacio
muestral quedaría definido de la siguiente manera:
Ω = {π‘’π‘›π‘œ, π‘‘π‘œπ‘ , π‘‘π‘Ÿπ‘’π‘ , π‘π‘’π‘Žπ‘‘π‘Ÿπ‘œ, π‘π‘–π‘›π‘π‘œ, 𝑠𝑒𝑖𝑠}
4.2.2.
Evento
Un evento es un subconjunto del espacio muestral, que puede
contener uno o más elementos o resultados posibles del
espacio muestral.
Ejemplo:
-
En el experimento de lanzar un dado, se podrían generar
los siguientes eventos:
A = ”Que el número del dado sea menor a tres”
B = ”Que el número del dado sea par”
C = ”Que el número del dado sea un número primo”
𝐴 = {1, 2}
𝐡 = { 2, 4, 6}
𝐢 = { 2, 3, 5}
Algunos eventos particulares se definen a continuación:
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
-
4.3.
Evento seguro: Se define como evento seguro al evento
que representa al espacio muestral y se denota por Ω.
Evento imposible: Se define como evento imposible al
evento que representa al conjunto vacío y se denota por
Φ.
Eventos
mutuamente
exhaustivos:
excluyentes
y
colectivamente
Dos o más eventos se consideran mutuamente excluyentes si la
ocurrencia de uno de ellos anula la ocurrencia de los otros,
es decir:
𝑛
β‹‚ 𝐴𝑖 = Φ
𝑖=1
Por ejemplo, en el
siguientes
eventos
excluyentes:
experimento de lazar un dado, los
se
pueden
considerar
mutuamente
A = ”Que el número del dado sea impar”
B = ”Que el número del dado sea par”
Los eventos A y B son claramente eventos mutuamente
excluyentes porque si ocurre A, entonces no ocurre B.
Dos o más eventos se consideran colectivamente exhaustivos
si la unión de ellos es igual al espacio muestral, es decir:
𝑛
⋃ 𝐴𝑖 = Ω
𝑖=1
Por ejemplo, cualquier evento 𝐴 y su complemento 𝐴̅ se pueden
considerar eventos colectivamente exhaustivos, porque se
cumple:
𝐴 ∪ 𝐴̅ = π‘ˆ
En confiabilidad estructural, el ejemplo más claro de eventos
que cumplen con ser mutuamente excluyentes y además
colectivamente
exhaustivos
son
los
resultados
del
experimento πœ€ que consiste en someter una estructura a un
determinado patrón de cargas y verificar si falla o no. En
este experimento, los eventos 𝐴 = {π‘™π‘Ž π‘’π‘ π‘‘π‘Ÿπ‘’π‘π‘‘π‘’π‘Ÿπ‘Ž π‘“π‘Žπ‘™π‘™π‘Ž} y 𝐡 =
{π‘™π‘Ž π‘’π‘ π‘‘π‘Ÿπ‘’π‘π‘‘π‘’π‘Ÿπ‘Ž π‘›π‘œ π‘“π‘Žπ‘™π‘™π‘Ž} son mutuamente excluyentes, porque si
ocurre
que
la
estructura
falla,
no
puede
ocurrir
simultáneamente que la estructura no falla. Además, son
colectivamente exhaustivos porque la unión de los dos eventos
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
da como resultado el espacio muestral, ya que no hay otra
posibilidad.
Ω = {π‘“π‘Žπ‘™π‘™π‘Ž, π‘›π‘œ π‘“π‘Žπ‘™π‘™π‘Ž}
𝐴∪𝐡 =Ω
4.4.
Definición de probabilidad
La probabilidad es una medida de la certidumbre asociada a
la ocurrencia de un evento, es decir, es la mayor o menor
posibilidad de que ocurra un determinado evento. La
probabilidad asignada a cualquier evento está entre un rango
de 0 a 1, donde 0 representa la imposibilidad de ocurrencia
del evento y 1 representa la certeza total de que ocurra el
evento.
4.5.
Axiomas de probabilidad
La teoría de la probabilidad se rige bajo los siguientes 3
axiomas fundamentales:
1. La probabilidad de ocurrencia de cualquier evento debe
estar mayor o igual a 0.
𝑃 (𝐴 ) ≥ 0
2. La probabilidad de ocurrencia
espacio muestral es 1.
del
evento
seguro
o
𝑃 (Ω ) = 1
3. Si dos eventos 𝐴1 y 𝐴2 son mutuamente excluyentes, se
cumple que:
𝑃 (𝐴1 ∪ 𝐴2 ) = 𝑃 (𝐴1 ) + 𝑃(𝐴2 )
En confiablidad estructural a la probabilidad de que una
estructura no falle se conoce como confiabilidad y se define
de la siguiente manera:
𝑃 (π‘›π‘œ π‘“π‘Žπ‘™π‘™π‘Ž) + 𝑃(π‘“π‘Žπ‘™π‘™π‘Ž) = 1
𝑅 + 𝑃𝑓 = 1
𝑅 = 1 − 𝑃𝑓
4.6.
La regla de la adición
De manera general, si dos eventos 𝐴1 y 𝐴2 no son mutuamente
excluyentes, la regla de la adición o unión se define como:
𝑃(𝐴1 ∪ 𝐴2 ) = 𝑃(𝐴1 ) + 𝑃 (𝐴2 ) − 𝑃 (𝐴1 ∩ 𝐴2 )
4.7.
Probabilidad condicional
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
En algunas ocasiones sucede que la probabilidad de un evento
depende de la ocurrencia de otro evento, es decir que, si
otro evento ocurre, entonces la probabilidad de que el
primero ocurra se modifica. Si esta dependencia existe, se
conoce como probabilidad condicional y se define de la
siguiente manera:
𝑃 (𝐴 |𝐡 ) =
4.8.
𝑃 (𝐴 ∩ 𝐡 )
𝑃 (𝐡 )
Independencia estadística
Si la ocurrencia o no ocurrencia de un evento, no afecta la
probabilidad de ocurrencia de otro evento, los dos eventos
son estadísticamente independientes. Entonces, si dos
eventos 𝐴 y 𝐡 son estadísticamente independientes, se cumple
que:
𝑃(𝐴|𝐡) = 𝑃 (𝐴)
𝑃 ( 𝐡 |𝐴 ) = 𝑃 ( 𝐡 )
Se debe tener muy en cuenta que existe una gran diferencia
entre ser eventos mutuamente excluyentes y estadísticamente
independientes. Son conceptos totalmente diferentes, la
independencia estadística entre dos eventos se refiere a la
probabilidad de su ocurrencia conjunta, mientras que dos
eventos mutuamente excluyentes no tienen posibilidad de
ocurrir conjuntamente.
𝑃 ( 𝐴 |𝐡 ) = 0
4.9.
La regla de la multiplicación
La probabilidad conjunta de dos eventos 𝐴 y 𝐡 puede
expresarse en función de la probabilidad condicional de la
siguiente manera:
𝑃(𝐴 ∩ 𝐡) = 𝑃 (𝐴|𝐡) βˆ™ 𝑃 (𝐡)
𝑃 ( 𝐴 ∩ 𝐡 ) = 𝑃 ( 𝐡 | 𝐴) βˆ™ 𝑃 ( 𝐴 )
A las expresiones anteriores se conoce como la regla de la
multiplicación y si 𝐴 y 𝐡 son eventos estáticamente
independientes, la regla se expresa como:
𝑃 (𝐴 ∩ 𝐡 ) = 𝑃 (𝐴 ) βˆ™ 𝑃 (𝐡 )
4.10. Teorema de la probabilidad total
En ocasiones, la probabilidad de un evento 𝐴 cualquiera, no
se puede determinar de manera directa, dado que su ocurrencia
depende de la ocurrencia o no ocurrencia de otros eventos,
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
como 𝐡1 , 𝐡2 , … , 𝐡𝑛 . Si se cumple que los eventos 𝐡𝑖 son mutuamente
excluyentes y colectivamente exhaustivos, entonces, la
probabilidad de un evento 𝐴 cualquiera puede escribirse de
la siguiente manera:
𝑃(𝐴) = 𝑃(𝐴 ∩ 𝐡1 ) + 𝑃(𝐴 ∩ 𝐡2 ) + β‹― + 𝑃(𝐴 ∩ 𝐡𝑛 )
Si le aplicamos la regla de la multiplicación, se tiene que:
𝑃(𝐴) = 𝑃(𝐴|𝐡1 ) βˆ™ 𝑃(𝐡1 ) + 𝑃(𝐴|𝐡2 ) βˆ™ 𝑃 (𝐡2 ) + β‹― + 𝑃 (𝐴|𝐡𝑛 ) βˆ™ 𝑃(𝐡𝑛 )
𝑛
𝑃(𝐴) = ∑ 𝑃(𝐴|𝐡𝑖 ) βˆ™ 𝑃(𝐡𝑖 )
𝑖=1
4.11. Teorema de Bayes
En la derivación del teorema de probabilidad total, la
probabilidad de cualquier evento 𝐴 depende de cuál de los
eventos condicionantes 𝐡1 , 𝐡2 , … , 𝐡𝑛 , ha ocurrido. Por otro lado,
si interesa conocer la probabilidad de cualquier evento
particular 𝐡𝑖 dada la ocurrencia de 𝐴, sería el caso inverso
al problema planteado en el teorema de la probabilidad total,
y se conoce como teorema de Bayes:
𝑃(𝐡𝑖 |𝐴) =
𝑃(𝐡𝑖 |𝐴) =
𝑃 (𝐴|𝐡𝑖 ) βˆ™ 𝑃 (𝐡𝑖 )
𝑃 (𝐴 )
𝑃 (𝐴|𝐡𝑖 ) βˆ™ 𝑃 (𝐡𝑖 )
𝑛
∑𝑖=1 𝑃 (𝐴|𝐡𝑖 ) βˆ™ 𝑃(𝐡𝑖 )
5. VARIABLE ALEATORIA
Una variable aleatoria es una función de mapeo que asocia a
los eventos posibles dentro de un espacio muestral con un
sistema de números reales, en otras palabras, es un objeto
matemático para representar un evento en una forma numérica
analítica.
A diferencia de una variable determinística que asume un
valor definitivo, el valor de una variable aleatoria puede
solamente definirse sobre un rango de valores posibles.
En ingeniería, muchos fenómenos aleatorios de interés quedan
asociados a resultados numéricos de ciertas cantidades
físicas (“El caudal que pasa por una determinada sección de
un río”), sin embargo, existen otros que no están definidos
de manera numérica (“la falla o supervivencia de un eslabón
de una cadena que soporta carga”), en cualquier caso, gracias
al concepto de variable aleatoria se puede asignar de manera
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
artificial valores numéricos a los eventos en cuestión (“0
para la falla y 1 para la supervivencia”).
En conclusión, los posibles resultados de un fenómeno
aleatorio pueden ser representados por valores numéricos, ya
sea de manera natural o artificial. En cualquier caso, un
resultado o evento puede ser identificado por un valor o un
rango de valores de una función, que es llamada variable
aleatoria.
Por convención, las variables aleatorias se representan
mediante letras mayúsculas, mientras que sus posibles
valores con letras minúsculas. Un valor o un rango de valores
de una variable aleatoria representa un evento en particular.
5.1.
Clasificación de variables aleatorias
5.1.1.
Variable aleatoria discreta
Una variable aleatoria es discreta cuando puede tomar un
número finito de valores, o un número infinito de valores
contables o numerables.
5.1.2.
Variable aleatoria continua
Una variable aleatoria es continua cuando puede tomar
cualquier valor en un intervalo de la rectar numérica.
5.2.
Distribución de probabilidad de una variable aleatoria
Un variable aleatoria es una variable cuyo valor no se
con certeza, sin embargo, no estamos completamente
penumbra porque, aunque no conocemos el valor que va a
si conocemos los valores que puede tomar, y conocemos
las probabilidades de que asuma estos valores.
conoce
en la
tomar,
además
La medida de probabilidad que se asocia a una variable
aleatoria se denomina distribución de probabilidad o leyes
de probabilidad.
Para una variable aleatoria discreta 𝑋, la función de
distribución de probabilidad describe la probabilidad de que
la variable tome un valor π‘₯ en particular:
𝑃𝑋 (π‘₯ ) = 𝑃(𝑋 = π‘₯ )
Además de esto, existe la función de distribución acumulada
que describe la probabilidad de que 𝑋 tome valores menores
o iguales a un valor π‘₯ en particular:
𝐹𝑋 (π‘₯ ) = 𝑃(𝑋 ≤ π‘₯ ) = ∑ 𝑃 (𝑋 = π‘₯𝑖 )
π‘₯𝑖 ≤π‘₯
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
Para una variable aleatoria continua 𝑋, la función de
distribución de probabilidad se conoce como función de
densidad de probabilidad, y describe la probabilidad de que
𝑋 tome valores menores en un intervalo (π‘Ž, 𝑏]:
𝑏
𝑃 (π‘Ž < 𝑋 ≤ 𝑏) = ∫ 𝑓𝑋 (π‘₯ )𝑑π‘₯
π‘Ž
Y su correspondiente función de distribución de probabilidad
acumulada se define como:
π‘₯
𝐹𝑋 (π‘₯ ) = 𝑃 (𝑋 ≤ π‘₯ ) = ∫ 𝑓𝑋 (𝜏)π‘‘πœ
−∞
De acuerdo con esto, si 𝐹𝑋 (π‘₯ ) tiene una primera derivada,
entonces se demuestra que:
𝑓𝑋 (π‘₯ ) =
𝑑𝐹𝑋 (π‘₯ )
𝑑π‘₯
Se debe enfatizar que cualquier función utilizada para
representar la distribución de probabilidad de una variable
aleatoria, debe necesariamente satisfacer los axiomas de la
teoría de la probabilidad.
De acuerdo con los axiomas, una función de distribución
acumulada debe satisfacer las siguientes condiciones:
5.3.
𝐹𝑋 (−∞) = 0; y 𝐹𝑋 (∞) = 1
𝐹𝑋 (π‘₯ ) ≥ 0, para todos los valores de π‘₯ y es no decreciente
𝐹𝑋 (π‘₯ ) es continua a la derecha con π‘₯
Principales parámetros de una variable aleatoria
Una variable aleatoria puede quedar completamente descrita
si se conoce su función de distribución de probabilidad
(función de densidad de probabilidad caso continuo) o su
función de distribución acumulada, y si sus parámetros
asociados son especificados. En la práctica, las funciones
de distribución de probabilidad pueden no ser conocidas, en
tal caso una descripción aproximada de sus principales
descriptores puede ser útil. Los principales parámetros de
describen a continuación.
5.3.1.
Valor esperado o esperanza matemática
Es
un
promedio
pesado
asociado
a
las
diferentes
probabilidades de los posibles valores que puede tomar la
variable aleatoria.
Para el caso discreto se define como:
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
𝑛
𝐸 (𝑋) = ∑ π‘₯𝑖 𝑃𝑋 (π‘₯𝑖 )
𝑖=1
Para el caso continuo:
∞
𝐸 (𝑋) = ∫ π‘₯𝑓𝑋 (π‘₯ )𝑑π‘₯
−∞
5.3.2.
Varianza
Es una medida de dispersión que indica cuan dispersos están
los valores de la medida de tendencia central.
Para el caso discreto se define como:
𝑛
π‘£π‘Žπ‘Ÿ(𝑋) = ∑(π‘₯𝑖 − πœ‡π‘‹ )2 𝑃𝑋 (π‘₯𝑖 )
𝑖=1
Para el caso continuo:
∞
π‘£π‘Žπ‘Ÿ(𝑋) = ∫ (π‘₯ − πœ‡π‘‹ )2 𝑓𝑋 (π‘₯ )𝑑π‘₯
−∞
π‘£π‘Žπ‘Ÿ(𝑋) = 𝐸 (𝑋 2 ) − πœ‡π‘‹ 2
5.3.3.
Desviación estándar
πœŽπ‘‹ = √π‘£π‘Žπ‘Ÿ(𝑋)
5.3.4.
Coeficiente de variación
𝛿𝑋 =
5.4.
πœŽπ‘‹
πœ‡π‘‹
Distribuciones de probabilidad útiles
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
Método de confiabilidad FORM
𝑃𝑓 = 𝑃(𝑅 ≤ 𝑆)
𝑃𝑓 = 𝑃 (𝑅 − 𝑆 ≤ 0)
𝑀 =𝑅−𝑆
0
𝑃𝑓 = 𝑃(𝑀 ≤ 0) = ∫ 𝑓𝑀 (π‘š) π‘‘π‘š
−∞
𝑃𝑓 = ∬ 𝑓𝑅𝑆 (π‘Ÿ, 𝑠) π‘‘π‘Ÿπ‘‘π‘ 
𝑆>𝑅
∞
𝑠
𝑃𝑓 = ∫ ∫ 𝑓𝑅𝑆 (π‘Ÿ, 𝑠) π‘‘π‘Ÿπ‘‘π‘ 
0
0
𝑓𝑅𝑆 (π‘Ÿ, 𝑠) = 𝑓𝑅 (π‘Ÿ)𝑓𝑆 (𝑠)
∞
𝑠
𝑃𝑓 = ∫ 𝑓𝑆 (𝑠) [∫ 𝑓𝑅 (π‘Ÿ) π‘‘π‘Ÿ] 𝑑𝑠
0
0
Pero:
𝑠
𝐹𝑅 (𝑠) = ∫ 𝑓𝑅 (π‘Ÿ) π‘‘π‘Ÿ
0
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
∞
𝑃𝑓 = ∫ 𝐹𝑅 (𝑠) 𝑓𝑆 (𝑠) 𝑑𝑠
0
Los métodos de nivel II tratan de encontrar una medida de la
seguridad, directamente relacionada con la probabilidad de
fallo, y que, sin embargo, no implique necesariamente la
determinación de la misma mediante la integración de la
función de densidad conjunta de las variables aleatorias
involucradas. En terminología usual, esta medida se llama
índice 𝛽.
Si se tienen las siguientes condiciones:
-
La función de estado límite (margen de seguridad) es
lineal
Las variables aleatorias son independientes
Las variables aleatorias se distribuyen normalmente
El índice 𝛽 de Cornel se define como:
𝛽=
πœ‡π‘€
πœŽπ‘€
Gráficamente el índice de confiabilidad 𝛽, representa el
número de desviaciones estándar que separan el valor medio
del origen, esto significa que cuanto más lejos esté el valor
medio del origen, menor será la probabilidad de fallo del
sistema.
𝛽=
πœ‡π‘€
πœ‡π‘… − πœ‡π‘†
=
πœŽπ‘€ √πœŽπ‘… 2 + πœŽπ‘† 2
Ing. Albert Miranda
Apuntes de Confiabilidad Estructural
La relación entre la probabilidad de falla de un sistema y
el índice de confiabilidad 𝛽 está dado por:
𝑅 = Φ(𝛽)
𝑃𝑓 = 1 − 𝑅 = 1 − Φ(𝛽)
𝛽 = −Φ(𝑃𝑓 )
Ing. Albert Miranda
Download