Uploaded by troilleuproddeke-9577

Aproximaciones y Errores: Métodos Numéricos

advertisement
Aproximaciones y Errores
CIFRAS SIGNIFICATIVAS
Los errores de truncamiento representan la diferencia entre una formulación
matemática exacta de un problema y su aproximación obtenida por un
método numérico.
Cuando se emplea un número para realizar un cálculo, debe haber
seguridad de que pueda usarse con confianza.
El concepto de cifras o dígitos significativos se ha desarrollado para designar
formalmente la confiabilidad de un valor numérico. Las cifras significativas
de un número son aquellas que pueden utilizarse en forma confiable. Se
trata del número de dígitos que se ofrecen con certeza, más uno estimado
Por ejemplo, los ceros no siempre son cifras significativas, ya que pueden
usarse sólo para ubicar el punto decimal: los números 0.00001845, 0.0001845 y
0.001845 tienen cuatro cifras significativas.
Asimismo, cuando se incluye ceros en números muy grandes, no queda claro
cuántos son significativos. Por ejemplo, el número 45 300 puede tener tres,
cuatro o cinco dígitos significativos, dependiendo de si los ceros se conocen o
no con exactitud.
La incertidumbre se puede eliminar utilizando la notación científica, donde
4.53 × 104, 4.530 × 104, 4.5300 × 104 muestran, respectivamente, que el número
tiene tres, cuatro y cinco cifras significativas.
Criterios
1. Se deben desarrollar criterios para especificar qué tan confiables
son dichos resultados. Una manera de hacerlo es en términos de
cifras significativas. Por ejemplo, es posible afirmar que la
aproximación es aceptable siempre y cuando sea correcta con
cuatro cifras significativas.
2. Aunque ciertas cantidades tales como 𝜋 , e, o 7 representan
cantidades específicas, no se pueden expresar exactamente con un
número finito de dígitos. Por ejemplo,
pi = 3.141592653589793238462643...
hasta el infinito. Como las computadoras retienen sólo un número finito
de cifras significativas, tales números jamás se podrán representar con
exactitud. A la omisión del resto de cifras significativas se le conoce
como error de redondeo.
EXACTITUD Y PRECISIÓN
Los errores en cálculos y medidas se pueden caracterizar con respecto a su
exactitud y su precisión. La exactitud se refiere a qué tan cercano está el valor
calculado o medido del valor verdadero. La precisión se refiere a qué tan
cercanos se encuentran, unos de otros, diversos valores calculados o medidos.
Estos conceptos se ilustran gráficamente utilizando la analogía con una diana
en la práctica de tiro. Los agujeros en cada blanco se consideran como las
predicciones con una técnica numérica; mientras que el centro del blanco
representa la verdad. La inexactitud (conocida también como sesgo) se define
como una desviación sistemática del valor verdadero. La imprecisión (también
llamada incertidumbre), por otro lado, se refiere a la magnitud en la dispersión
de los disparos), la última es más precisa, pues los disparos están agrupados en
forma más compacta.
DEFINICIONES DE ERROR
Los errores numéricos surgen del uso de aproximaciones para representar
operaciones y cantidades matemáticas exactas. Éstas incluyen los errores de
truncamiento que resultan del empleo de aproximaciones como un procedimiento
matemático exacto, y los errores de redondeo que se producen cuando se usan
números que tienen un límite de cifras significativas para representar números
exactos. Para ambos tipos de errores, la relación entre el resultado exacto, o
verdadero, y el aproximado está dada por
Valor verdadero = Valor aproximado + error
El error numérico es igual a la diferencia entre el valor verdadero y el valor aproximado
Et = valor verdadero – valor aproximado
Una desventaja en esta definición es que no toma en consideración el orden de la
magnitud del valor que se estima. Por ejemplo, un error de un centímetro es mucho
más significativo si se está midiendo un remache en lugar de un puente.
Una manera de tomar en cuenta las magnitudes de las cantidades que se evalúan consiste en
normalizar el error respecto al valor verdadero
𝑒𝑟𝑟𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜
Error relativo fraccional verdadero= 𝑣𝑎𝑙𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜
El error relativo también se puede multiplicar por 100% para expresarlo como
𝑒𝑟𝑟𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜
ε𝑡 = 𝑣𝑎𝑙𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜 100%
Cálculo de errores
Suponga que se tiene que medir la longitud de un puente y la de un remache, y se obtiene 9
999 y 9 cm, respectivamente. Si los valores verdaderos son 10 000 y 10 cm, calcule a) el
error verdadero y b) el error relativo porcentual verdadero en cada caso.
En los métodos numéricos, el valor verdadero sólo se conocerá cuando se tengan funciones
que se resuelvan analíticamente. Éste comúnmente será el caso cuando se estudie el
comportamiento teórico de una técnica específica para sistemas simples.
Una mejor manera de ver un error es normalizar el error, usando la mejor estimación posible
al valor verdadero
𝑒𝑟𝑟𝑜𝑟 𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑑𝑜
ε𝑎 = 𝑣𝑎𝑙𝑜𝑟 𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑑𝑜 100%
Los métodos numéricos usan un método iterativo para calcular los resultados. En tales
métodos se hace una aproximación. Este proceso se efectúa varias veces, o de forma
iterativa, para calcular en forma sucesiva, esperando cada vez mejores aproximaciones.
El error a menudo se calcula como la diferencia entre la aproximación previa y la actual.
Por lo tanto, el error relativo porcentual está dado por
ε𝑎 =
𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖ó𝑛 𝑎𝑐𝑡𝑢𝑎𝑙 −𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖ó𝑛 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟
100%
𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖ó𝑛 𝑎𝑐𝑡𝑢𝑎𝑙
A menudo, cuando se realizan cálculos, no importa mucho el signo del error, sino más
bien que su valor absoluto porcentual sea menor que una tolerancia porcentual prefijada
εs .
Es útil emplear el valor absoluto, ya que los cálculos se repiten hasta que
𝜀𝑎 < 𝜀 𝑠
Es conveniente también relacionar estos errores con el número de cifras
significativas en la aproximación. Es posible demostrar (Scarborough, 1966) que
si el siguiente criterio se cumple, se tendrá la seguridad que el resultado es
correcto en al menos n cifras significativas.
𝜀𝑠 = 0.5 × 102−𝑛 %
Download