Sistemas de EcuacionesLineales VI • M´ etodos de descenso: M´ etodo del gradiente conjugado. Precondicionamiento. 521230 - 1- DIM – Universidad de Concepci ´ on Problema de minimizaci ´ on asociado a un sistema • Algunos de los m´ etodos iterativos m´ as eficientes para resolver un sistema de ecuaciones lineales se basan en resolver un problema de minimizaci ´ on equivalente. • Si A ∈ R n×n es sim´ etrica y definida positiva, b ∈ R n y x, y := x t y denota el producto escalar usual en R n , entonces la funci ´ on cuadr ´ atica J : R n −→R x −→ 1 2 Ax, x −b, x alcanza un ´ unico m´ınimo en el vector x ∈ R n soluci ´ on del sistema Ax = b. 521230 - 2- DIM – Universidad de Concepci ´ on Problema de minimizaci ´ on asociado a un sistema (cont.) • En efecto, ∇J(x) = 1 2 _ Ax +A t x _ −b = Ax −b, si Aes sim´ etrica. Entonces J tiene un punto cr´ıtico en x si y s´ olo si ∇J(x) = 0 ⇐⇒ Ax = b. Adem´ as, HJ(x) := _ ∂ 2 J ∂x i ∂x j (x) _ = _ a ij _ = A y, por lo tanto, si Aes definida positiva, el punto cr´ıtico de J es un m´ınimo. 521230 - 3- DIM – Universidad de Concepci ´ on M´ etodos de descenso • En los m´ etodos de descenso se parte de un punto x (0) ∈ R n , y, en cada paso k = 0, 1, 2, . . . se determina un nuevo punto x (k+1) ∈ R n tal que J _ x (k+1) _ < J _ x (k) _ del siguiente modo: 1. se escoge una direcci ´ on p (k) de descenso de J, 2. se considera la recta L k que pasa por el punto x (k) con direcci ´ on p (k) , 3. se escoge el punto x (k+1) ∈ L k donde J alcanza su m´ınimo sobre L k . x x p (k) (k) L k (k+1) x p (k+1) x (k+2) L k+1 521230 - 4- DIM – Universidad de Concepci ´ on M´ etodos de descenso (cont.) • Como L k = _ x (k) +αp (k) : α ∈ R _ , entonces J(x (k) +αp (k) ) = _ 1 2 ¸ Ax (k) , x (k) _ − ¸ b, x (k) _¸ + ¸ Ax (k) −b, p (k) _ α + 1 2 ¸ Ap (k) , p (k) _ α 2 Por lo tanto, dJ dα _ x (k) +αp (k) _ = 0 ⇐⇒ α = α k := ¸ r (k) , p (k) _ ¸ Ap (k) , p (k) _, donde r (k) = b −Ax (k) es el residuo de x (k) . Luego x (k+1) = x (k) +α k p (k) . 521230 - 5- DIM – Universidad de Concepci ´ on M´ etodo del m´ aximo descenso • Los distintos m´ etodos de descenso se distinguen por la manera de escoger la direcci ´ on de descenso p (k) . • La elecci ´ on m´ as simple es escoger la direcci ´ on de m´ aximo descenso de J: p (k) = −∇J(x (k) ) = b −Ax (k) = r (k) . • Esta elecci ´ on conduce al m´ etodo del m´ aximo descenso o del gradiente. • Algoritmo: Dado el vector inicial x (0) , r (0) = b −Ax (0) , para k = 0, 1, 2, . . . ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ α k = ¸ r (k) , r (k) _ ¸ Ar (k) , r (k) _ , x (k+1) = x (k) +α k r (k) , r (k+1) = b −Ax (k+1) = r (k) −α k Ar (k) , hasta que se satisfaga un criterio de detenci ´ on. 521230 - 6- DIM – Universidad de Concepci ´ on Criterio de detenci ´ on • Un criterio usual en los m´ etodos de descenso es detener el proceso cuando r (k) b ≤ tol. • Sin embargo, eso no garantiza que el error satisfaga _ _ e (k) _ _ = _ _ x −x (k) _ _ ≤ tol !! 521230 - 7- DIM – Universidad de Concepci ´ on Convergencia del m´ etodo del m´ aximo descenso • Teorema. (Convergencia) Sean A ∈ R n×n sim´ etrica y definida positiva y b ∈ R n . Para cualquier x (0) ∈ R n , la sucesi ´ on _ x (k) _ generada por el m´ etodo del m´ aximo descenso converge a la soluci ´ on del sistema Ax = b. Adem´ as, los errores e (k) = x −x (k) satisfacen e (k+1) 2 ≤ κ −1 κ + 1 e (k) 2 , donde κ = cond 2 (A). • Observaci ´ on. El factor de reducci ´ on del error en cada paso es κ −1 κ + 1 = 1 − 2 κ + 1 < 1, lo que asegura la convergencia. Sin embargo, si la matriz es mal condicionada, κ ≫1 =⇒ 1 − 2 κ + 1 ≈ 1 y el m´ etodo converge muy lentamente. 521230 - 8- DIM – Universidad de Concepci ´ on Direcciones conjugadas • Una elecci ´ on de la direcci ´ on de descenso p (k) que genera un m´ etodo m´ as eficiente se basa en ortogonalizar el residuo r (k) respecto a todas las direcciones de descenso anteriores p (j) , j = 1, . . . , k −1, en el producto interior x, y A := Ax, y , x, y ∈ R n . • Las direcciones obtenidas de esta manera satisfacen ¸ Ap (k) , p (j) _ = 0 ∀j = k y por ello se dice que son direcciones conjugadas o A-ortogonales. • Este procedimiento conduce a otro m´ etodo que se denomina el m´ etodo del gradiente conjugado. 521230 - 9- DIM – Universidad de Concepci ´ on M´ etodo del gradiente conjugado • Algoritmo: Dado el vector inicial x (0) , r (0) = b −Ax (0) , p (0) = r (0) , para k = 0, 1, 2, . . . ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ α k = ¸ r (k) , p (k) _ ¸ Ap (k) , p (k) _ , x (k+1) = x (k) +α k p (k) , r (k+1) = r (k) −α k Ap (k) , β k+1 = ¸ r (k+1) , r (k+1) _ ¸ r (k) , r (k) _ , p (k+1) = r (k+1) +β k+1 p (k) , hasta que se satisfaga un criterio de detenci ´ on. 521230 - 10 - DIM – Universidad de Concepci ´ on Convergencia del m´ etodo del gradiente conjugado • Teorema. (Convergencia) Sean A ∈ R n×n sim´ etrica y definida positiva y b ∈ R n . Para cualquier x (0) ∈ R n , la sucesi ´ on _ x (k) _ generada por el m´ etodo del gradiente conjugado converge a la soluci ´ on del sistema Ax = b en a lo m´ as n pasos. Adem´ as, los errores e (k) = x −x (k) satisfacen e (k+1) 2 ≤ √ κ −1 √ κ + 1 e (k) 2 , donde κ = cond 2 (A). • Observaci ´ on. Debido a los errores de redondeo, en las condiciones del teorema anterior, igual pueden ser necesarios m´ as de n pasos del m´ etodo. 521230 - 11 - DIM – Universidad de Concepci ´ on Convergencia del m´ etodo del gradiente conjugado (cont.) • El factor de reducci ´ on del error en cada paso es √ κ −1 √ κ + 1 = 1 − 2 √ κ + 1 < 1. • Si κ > 1, este m´ etodo converge m´ as velozmente que el del m´ aximo descenso, pues 2 √ κ + 1 > 2 κ + 1 . Por ejemplo, si κ = 100, entonces – M´ aximo descenso: κ −1 κ + 1 ≈ 0.98 (2% de reducci ´ on del error por paso) – Gradiente conjugado: √ κ −1 √ κ + 1 ≈ 0.82 (18% de reducci ´ on del error por paso). Sin embargo, si la matriz es muy mal condicionada, el m´ etodo a´ un converge lentamente. 521230 - 12 - DIM – Universidad de Concepci ´ on Precondicionamiento • Si la matriz es mal condicionada, una estrategia usual para resolver un sistema Ax = b, se basa en encontrar una matriz P tal que P −1 Asea bien condicionada, para luego resolver el sistema equivalente _ P −1 A _ x = P −1 b. • Sin embargo, si se quiere utilizar un m´ etodo como el del gradiente conjugado, debe notarse que aunque Asea sim´ etrica y definida positiva, en general P −1 Ano lo es! • En el caso en que P es sim´ etrica y definida positiva, P = HH t , con H invertible (Cholesky). En tal caso, P −1 = H −t H −1 y Ax = b ⇐⇒ ˆ Aˆ x = ˆ b, con ˆ A = H −1 AH −t , ˆ x = H t x y ˆ b = H −1 b. • Si Aes sim´ etrica y definida positiva, la matriz ˆ A = H −1 AH −t tambi ´ en lo es, por lo que pueden aplicarse m´ etodos como el del gradiente conjugado a ˆ Aˆ x = ˆ b. Adem´ as, σ _ P −1 A _ = σ( ˆ A) =⇒ cond 2 ( ˆ A) = max _ σ _ P −1 A __ min _ σ _ P −1 A __ = λ max _ P −1 A _ λ min _ P −1 A _ . 521230 - 13 - DIM – Universidad de Concepci ´ on M´ etodo del gradiente conjugado precondicionado • Algoritmo: Dado el vector inicial x (0) , r (0) = b −Ax (0) , resolver Pz (0) = r (0) , p (0) = z (0) , para k = 0, 1, 2, . . . ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ α k = ¸ z (k) , r (k) _ ¸ Ap (k) , p (k) _ , x (k+1) = x (k) +α k p (k) , r (k+1) = r (k) −α k Ap (k) , resolver Pz (k+1) = r (k+1) , β k+1 = ¸ z (k+1) , r (k+1) _ ¸ z (k) , r (k) _ , p (k+1) = z (k+1) +β k+1 p (k) , hasta que se satisfaga un criterio de detenci ´ on. 521230 - 14 - DIM – Universidad de Concepci ´ on Precondicionadores • Para que el m´ etodo del gradiente conjugado precondicionado sea eficiente, debe escogerse un precondicionador P tal que 1. P sim´ etrica y definida positiva, de manera que P = HH t (Cholesky); 2. P ≈ A, de manera que P −1 A ≈ I, y as´ı cond 2 ( ˆ A) = λ max _ P −1 A _ λ min _ P −1 A _ ≈ 1 ≪cond 2 (A) ; 3. resolver los sistemas Pz = r sea poco costoso. • Ejemplo. Precondicionador de Jacobi. Consiste en tomar como P, la diagonal de A: P = diag (A) = diag (a 11 , . . . , a nn ) . Este precondicionador es efectivo cuando Aes sim´ etrica y definida positiva y con elementos diagonales muy distintos. Adem´ as resolver sistemas Pz = r con P diagonal es muy poco costoso. 521230 - 15 - DIM – Universidad de Concepci ´ on Descomposici ´ on incompleta de Cholesky • Ejemplo. Precondicionador de Cholesky incompleto. Consiste en utilizar P = HH t , donde H = (h ij ) se obtiene aplicando el algoritmo del m´ etodo de Cholesky, pero s´ olo para las entradas h ij tales que a ij = 0. Para las restantes se toma h ij = 0. • Algoritmo de la descomposici ´ on incompleta de Cholesky. Para j = 1, . . . , n ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ h jj = ¸ ¸ ¸ _ a jj − j−1 k=1 h 2 jk para i = j + 1, . . . , n ¸ ¸ ¸ ¸ ¸ ¸ ¸ ¸ si a ij = 0, entonces h ij = 0, si no, h ij = 1 h jj _ a ij − j−1 k=1 h ik h jk _ 521230 - 16 - DIM – Universidad de Concepci ´ on Descomposici ´ on incompleta de Cholesky (cont.) • Si h jj = 0, j = 1, . . . , n, entonces H resulta no singular y P = HH t puede usarse como precondicionante. • Si Ano tuviera entradas nulas, la descomposici ´ on de Cholesky ser´ıa completa y, en tal caso, P = HH t = A. Para matrices dispersas, esto no es cierto, pero usualmente P ≈ A. • Resolver los sistemas Pz = r es poco costoso pues ya se dispone de la factorizaci ´ on de Cholesky P = HH t y basta resolver dos sistemas triangulares. Adem´ as H es igualmente dispersa que A. 521230 - 17 - DIM – Universidad de Concepci ´ on Comparaci ´ on de costos computacionales • Se considera como ejemplo un sistema con A ∈ R n×n y b ∈ R n provenientes de un programa MATLAB para la resoluci ´ on de un problema de EDPs que modela la deformaci ´ on de una membrana bajo la acci ´ on de una fuerza (como se ver ´ a en el laboratorio correspondiente). • Se utiliza una tolerancia tol = 10 −6 . • Se resuelve el sistema Ax = b mediante el comando MATLAB pcg (m´ etodo del gradiente conjugado precondicionado): 1. sin precondicionador, 2. con precondicionador P obtenido mediante el comando MATLAB cholinc (Cholesky incompleto con rellenado parcial), con el par ´ ametro droptol = 10 −2 . Tabla I: N´ umero de iteraciones para cada m´ etodo n 145 632 2629 10821 44071 MGC 32 66 125 261 500 MGCP 5 10 16 35 65 521230 - 18 - DIM – Universidad de Concepci ´ on Comparaci ´ on de costos operacionales 10 2 10 3 10 4 10 5 10 −2 10 −1 10 0 10 1 10 2 10 3 Tiempo de Cálculo vs. Tamaño del Sistema T i e m p o d e C P U ( s ) Número de incógnitas A\b CG PCG 521230 - 19 - DIM – Universidad de Concepci ´ on Comparaci ´ on de costos de almacenamiento 10 2 10 3 10 4 10 5 10 4 10 5 10 6 10 7 10 8 10 9 Costo de Almacenamiento vs. Tamaño del Sistema M e m o r i a u t i l i z a d a ( b y t e s ) Número de incógnitas A\b CG PCG 521230 - 20 - DIM – Universidad de Concepci ´ on ´ Problema de minimizacion asociado a un sistema ´ ´ • Algunos de los metodos iterativos mas eficientes para resolver un sistema de ecuaciones ´ lineales se basan en resolver un problema de minimizacion equivalente. ´ • Si A ∈ Rn×n es simetrica y definida positiva, b ∈ Rn y x, y := xt y denota el ´ ´ producto escalar usual en Rn , entonces la funcion cuadratica J : Rn −→ R x −→ 1 2 Ax, x − b, x alcanza un unico m´nimo en el vector x ´ ı ´ ∈ Rn solucion del sistema Ax = b. 521230 -2- ´ DIM – Universidad de Concepcion si A es definida positiva. ´ Entonces J tiene un punto cr´tico en x si y solo si ı ∇J(x) = 0 ´ Ademas. ⇐⇒ Ax = b. 1 Ax + At x − b = Ax − b. ∇J(x) = 2 ´ si A es simetrica.) • En efecto.´ Problema de minimizacion asociado a un sistema (cont. 521230 -3- ´ DIM – Universidad de Concepcion . por lo tanto. HJ(x) := ∂2J (x) ∂xi ∂xj = aij = A ı ı y. el punto cr´tico de J es un m´nimo. . y. se escoge el punto x(k+1) ∈ Lk donde J alcanza su m´nimo sobre Lk .´ Metodos de descenso ´ • En los metodos de descenso se parte de un punto x(0) ∈ Rn . en cada paso k = 0. . 1. 3. . se considera la recta Lk que pasa por el punto x(k) con direccion p(k) . 2. ´ 2. se escoge una direccion p(k) de descenso de J . se determina un nuevo punto x(k+1) ∈ Rn tal que J x(k+1) < J x(k) del siguiente modo: ´ 1. ı Lk Lk+1 x(k+1) p(k+1) x x (k+2) p (k) x(k) 521230 -4- ´ DIM – Universidad de Concepcion . entonces J(x(k) + αp(k) ) = 1 2 Ax(k) . 521230 -5- ´ DIM – Universidad de Concepcion . x(k+1) = x(k) + αk p(k) . donde r (k) Luego = b − Ax(k) es el residuo de x(k) . x(k) − b. x(k) dJ x(k) + αp(k) = 0 dα + Ax(k) − b. p(k) α + 1 2 Ap(k) . p(k) α2 Por lo tanto. ⇐⇒ α = αk := r (k) . p(k) Ap (k) .p (k) .) • Como Lk = x(k) + αp(k) : α ∈ R .´ Metodos de descenso (cont. ´ ´ ´ ´ • La eleccion mas simple es escoger la direccion de maximo descenso de J : p(k) = −∇J(x(k) ) = b − Ax(k) = r (k) . 521230 -6´ DIM – Universidad de Concepcion . αk = (k) . . Dado el vector inicial x(0) . para k • Algoritmo: = 0. r (k+1) = b − Ax(k+1) = r(k) − αk Ar(k) . ´ ´ ´ • Esta eleccion conduce al metodo del maximo descenso o del gradiente. ´ hasta que se satisfaga un criterio de detencion. 2. r(k) . r(k) . r(0) = b − Ax(0) . 1. r (k) Ar x(k+1) = x(k) + αk r (k) . . .´ ´ Metodo del maximo descenso ´ ´ • Los distintos metodos de descenso se distinguen por la manera de escoger la direccion de descenso p(k) . b • Sin embargo. eso no garantiza que el error satisfaga e(k) = x − x(k) ≤ tol !! 521230 -7- ´ DIM – Universidad de Concepcion .´ Criterio de detencion ´ • Un criterio usual en los metodos de descenso es detener el proceso cuando r(k) ≤ tol. Sin embargo. (Convergencia) Sean A ∈ Rn×n simetrica y definida positiva y b ∈ Rn . κ+1 κ+1 ´ ´ • Observacion. la sucesion x(k) generada por el metodo del maximo ´ descenso converge a la solucion del sistema Ax = b. los errores e(k) = x − x(k) satisfacen κ − 1 (k) (k+1) e e 2 ≤ κ+1 2.´ ´ Convergencia del metodo del maximo descenso ´ • Teorema. 521230 -8´ DIM – Universidad de Concepcion . donde κ = cond2 (A). κ−1 2 =1− < 1. Para cualquier x(0) ´ ´ ´ ∈ Rn . El factor de reduccion del error en cada paso es lo que asegura la convergencia. 2 ≈1 κ ≫ 1 =⇒ 1 − κ+1 ´ y el metodo converge muy lentamente. si la matriz es mal condicionada. ´ Ademas. p(j) = 0 ∀j = k y por ello se dice que son direcciones conjugadas o A-ortogonales. . k − 1. x. ´ ´ • Este procedimiento conduce a otro metodo que se denomina el metodo del gradiente conjugado. y . . . 521230 -9- ´ DIM – Universidad de Concepcion . • Las direcciones obtenidas de esta manera satisfacen Ap(k) . j = 1. . y ∈ Rn .Direcciones conjugadas ´ ´ ´ ´ • Una eleccion de la direccion de descenso p(k) que genera un metodo mas eficiente se basa en ortogonalizar el residuo r (k) respecto a todas las direcciones de descenso anteriores p(j) . y A := Ax. en el producto interior x. p(k) . . ´ hasta que se satisfaga un criterio de detencion. 521230 . r(0) = b − Ax(0) . para k • Algoritmo: = 0. r (k+1) . 1. p(k) Ap x(k+1) = x(k) + αk p(k) . αk = (k) . r (k+1) .10 - ´ DIM – Universidad de Concepcion . βk+1 = (k) . p(0) = r(0) . . 2.´ Metodo del gradiente conjugado Dado el vector inicial x(0) . r (k) r p(k+1) = r (k+1) + βk+1 p(k) . r (k+1) = r (k) − αk Ap(k) . . r (k) . la sucesion x(k) generada por el metodo del gradiente ´ ´ conjugado converge a la solucion del sistema Ax = b en a lo mas n pasos.´ Convergencia del metodo del gradiente conjugado ´ • Teorema. 2.11 - ´ DIM – Universidad de Concepcion . ´ Ademas. ´ ´ igual pueden ser necesarios mas de n pasos del metodo. (Convergencia) Sean A ∈ Rn×n simetrica y definida positiva y b ∈ Rn . 521230 . Debido a los errores de redondeo. κ+1 ´ • Observacion. en las condiciones del teorema anterior. los errores e(k) e(k+1) 2 = x − x(k) satisfacen √ κ − 1 (k) ≤√ e donde κ = cond2 (A). Para cualquier x(0) ´ ´ ∈ Rn . ) ´ • El factor de reduccion del error en cada paso es √ κ−1 2 √ =1− √ < 1. κ+1 κ+1 ´ ´ ´ • Si κ > 1.12 - ´ DIM – Universidad de Concepcion . si κ = 100. entonces κ−1 ´ ´ – Maximo descenso: ≈ 0. – Gradiente conjugado: √ κ+1 ´ Sin embargo.98 (2 % de reduccion del error por paso) κ+1 √ κ−1 ´ ≈ 0.82 (18 % de reduccion del error por paso). este metodo converge mas velozmente que el del maximo descenso. pues 2 2 √ . si la matriz es muy mal condicionada.´ Convergencia del metodo del gradiente conjugado (cont. > κ+1 κ+1 Por ejemplo. el metodo aun converge lentamente. ´ 521230 . En tal caso. x = H tx ˆ ˆ = H −1 b. con H invertible −1 (Cholesky). P = H −t H −1 y Ax = b con ⇐⇒ ˆx b. si se quiere utilizar un metodo como el del gradiente conjugado. debe −1 ´ notarse que aunque A sea simetrica y definida positiva.13 - max σ P −1 A min σ P −1 A = λmax P −1 A λmin P −1 A . la matriz A = H −1 AH −t tambien lo es. P = HH t . Aˆ = ˆ y ˆ A = H −1 AH −t . para luego resolver el sistema equivalente P −1 A x = P −1 b. b ˆ ´ ´ • Si A es simetrica y definida positiva. una estrategia usual para resolver un sistema Ax = b. Ademas. ´ • Sin embargo. −1 se basa en encontrar una matriz P tal que P A sea bien condicionada. ˆ ˆ σ P −1 A = σ(A) =⇒ cond2 (A) = 521230 . en general P A no lo es! ´ • En el caso en que P es simetrica y definida positiva. ´ DIM – Universidad de Concepcion . por ˆx b ´ ´ lo que pueden aplicarse metodos como el del gradiente conjugado a Aˆ = ˆ.Precondicionamiento • Si la matriz es mal condicionada. resolver P z (k+1) βk+1 = r (k+1) .14 ´ DIM – Universidad de Concepcion . r (k+1) = r (k) − αk Ap(k) . . 1. αk = (k) .´ Metodo del gradiente conjugado precondicionado Dado el vector inicial x(0) . . r(k+1) = . . z (k+1) . r(k) . z (k) . r (k) z p(k+1) = z (k+1) + βk+1 p(k) . ´ hasta que se satisfaga un criterio de detencion. resolver P z (0) = r(0) . p(0) = z (0) . p(k) Ap x(k+1) = x(k) + αk p(k) . 521230 . r(0) = b − Ax(0) . para k • Algoritmo: = 0. (k) . 2. ´ Ademas resolver sistemas P z 521230 = r con P diagonal es muy poco costoso. . Consiste en tomar como P . de manera que P −1 A ≈ I . . ´ P simetrica y definida positiva. . • Ejemplo. P ≈ A. . debe escogerse un precondicionador P tal que 1. 3. y as´ ı ˆ cond2 (A) = λmax P −1 A λmin P −1 A ≈ 1 ≪ cond2 (A) . ann ) . Precondicionador de Jacobi. la diagonal de A: P = diag (A) = diag (a11 . 2. resolver los sistemas P z = r sea poco costoso. .15 ´ DIM – Universidad de Concepcion . de manera que P = HH t (Cholesky).Precondicionadores ´ • Para que el metodo del gradiente conjugado precondicionado sea eficiente. ´ Este precondicionador es efectivo cuando A es simetrica y definida positiva y con elementos diagonales muy distintos. j−1 si aij 1 si no. Precondicionador de Cholesky incompleto. hij = hjj aij − hik hjk k=1 521230 . . entonces hij = 0. n = 0. . Consiste en utilizar P = HH t . ´ • Algoritmo de la descomposicion incompleta de Cholesky.´ Descomposicion incompleta de Cholesky • Ejemplo. . ´ ´ donde H = (hij ) se obtiene aplicando el algoritmo del metodo de Cholesky.16 - ´ DIM – Universidad de Concepcion . . Para las restantes se toma hij = 0. pero solo para las entradas hij tales que aij = 0. . . . Para j = 1. n j−1 hjj = para i ajj − h2 jk k=1 = j + 1. . j = 1. n. Para matrices dispersas. la descomposicion de Cholesky ser´a completa y. .) • Si hjj = 0. ´ Ademas H es igualmente dispersa que A. esto no es cierto. . entonces H resulta no singular y P = HH t puede usarse como precondicionante. P = HH = A. ´ • Resolver los sistemas P z = r es poco costoso pues ya se dispone de la factorizacion de t Cholesky P = HH y basta resolver dos sistemas triangulares.´ Descomposicion incompleta de Cholesky (cont. 521230 . ´ • Si A no tuviera entradas nulas. .17 - ´ DIM – Universidad de Concepcion . . pero usualmente P ≈ A. en tal ı t caso. con el parametro droptol = 10−2 .18 - 632 66 10 2629 125 16 10821 261 35 44071 500 65 ´ DIM – Universidad de Concepcion . ´ • Se resuelve el sistema Ax = b mediante el comando M ATLAB pcg (metodo del gradiente conjugado precondicionado): 1.´ Comparacion de costos computacionales • Se considera como ejemplo un sistema con A ∈ Rn×n y b ∈ Rn provenientes de un ´ ´ de una membrana bajo la accion de una fuerza (como se vera en el laboratorio correspondiente). 2. ´ Tabla I: Numero de iteraciones para cada metodo ´ n MGC MGCP 521230 145 32 5 . ´ ´ programa M ATLAB para la resolucion de un problema de EDPs que modela la deformacion • Se utiliza una tolerancia tol = 10−6 . sin precondicionador. con precondicionador P obtenido mediante el comando M ATLAB cholinc (Cholesky ´ incompleto con rellenado parcial). Tamaño del Sistema A\b CG PCG 10 2 Tiempo de CPU (s) 10 1 10 0 10 −1 10 −2 10 2 10 3 10 Número de incógnitas 4 10 5 521230 .´ Comparacion de costos operacionales 10 3 Tiempo de Cálculo vs.19 - ´ DIM – Universidad de Concepcion . 20 - ´ DIM – Universidad de Concepcion .´ Comparacion de costos de almacenamiento 10 9 Costo de Almacenamiento vs. Tamaño del Sistema A\b CG PCG 10 8 Memoria utilizada (bytes) 10 7 10 6 10 5 10 2 10 4 10 3 10 Número de incógnitas 4 10 5 521230 .