Le but de ce document est de résoudre des systèmes linéaires de type Ax=b où A est une matrice carrée symétrique définie positive de dimension NxN (connue), x (inconnu) et b (connu) deux vecteurs de dimension N.
Quatre méthodes sont étudiées :
- gradient simple à pas optimal ;
- gradient conjugué non préconditionné ;
- gradient conjugué préconditionné diagonal ;
- factorisation LDL^t.
[...] Ainsi, un programmeur découpera l'algorithme en deux programmes : un pour la factorisation et le second pour la descente-remontée. [...]
[...] La matrice de préconditionnement C peut donc être la matrice diagonale de A. Si A est symétrique et définie positive alors aii > 0 et C est aussi définie positive (et symétrique par définition Si les termes de la diagonale sont identiques, il est inutile de préconditionner. Il existe d'autres préconditionnements que nous n'aborderons pas ici Conclusion Si la matrice est creuse, autant utiliser le gradient conjugué non préconditionné. Dans le cas contraire, il est préférable d'utiliser un préconditionnement (diagonal par exemple) avec le vecteur d'initialisation nul afin d'avoir moins d'itérations et un résultat plus probable. [...]
[...] Résolution de systèmes linéaires Résolution de systèmes linéaires Le but est de résoudre dans R des systèmes linéaires de type Ax = b où A est une matrice carrée symétrique définie positive de dimension N N (connue), x (inconnu) et b (connu) deux vecteurs de dimension N . Quatre méthodes sont étudiées : gradient simple à pas optimal ; gradient conjugué non préconditionné ; gradient conjugué préconditionné diagonal ; factorisation LDLt Les méthodes de gradient Les méthodes de gradient sont des méthodes de descente. [...]
[...] Influence du point de départ x0 Convergence du gradient simple : méthode auto-corrective car l'énergie diminue à chaque itération. Cette méthode est très sensible au point de départ : plus x0 est proche de la solution, plus la convergence est rapide donc moins on a besoin d'itérations. Cependant, la correction rk est de plus en plus petite au fur et à mesure que l'on se rapproche de la solution ainsi l'efficacité del'algorithme diminue près de la solution. Avec la précision ǫ = les résultats trouvés ne sont pas exacts mais approchés. [...]
[...] Convergence du gradient conjugué : contrairement au gradient simple, cette méthode n'est pas auto-corrective. Le résidu peut augmenter au cours des itérations comme on le verra plus loin. Comme précédemment, le choix du x0 est meilleur si proche de la solution exacte mais a peu d'influenc sur le nombre d'itérations car la méthode est non auto-corrective. Influence de la précision ǫ Quand la précision diminue, on se rapproche beaucoup plus de la solution exacte pour les deux méthodes. On peut aussi remarquer que le gradient conjugué est le plus convergent. [...]
Source aux normes APA
Pour votre bibliographieLecture en ligne
avec notre liseuse dédiée !Contenu vérifié
par notre comité de lecture