Optimierungsverfahren < Numerik < Hochschule < Mathe < Vorhilfe
|
Hallo,
ich wollte mir ein paar Optimierungsthemen näher bringen, aber irgendwie finde ich zu manchen einfach keine klaren Aussagen. Ich wollte ein paar Eigenschaften zusammenstellen, dass hab ich schon bei ein paar gemacht so wie beim Gradientenverfahren:
[+] globale Konvergenz ([mm]\nabla^2f(x^k) > 0[/mm] nicht erforderlich)
[+] einfaches Verfahren
[–] langsame Konvergenz bei schlecht konditionierten / schlecht skalierten Problemen
[–] begrenzte Genauigkeit (Verfahren erster Ordnung)
oder beim Newton-Verfahren:
[+] quadratische Konvergenz in der Nähe von [mm]x^*[/mm] (innerhalb weniger Iterationen)
[+] hohe Genauigkeit (Verfahren zweiter Ordnung)
[–] nur lokale Konvergenz ([mm]\nabla^2f(x) > 0[/mm] im Allg. nicht für alle x gewährleistet)
[–] aufwendige Berechnung der Hessematrix [mm]\nabla^2f[/mm], insbesondere bei großen Problemen
Aber wie sieht das mit den Vor-und Nachteilen bei Quasi-Newton-Verfahren aus?
Ich weiß, dass ein großer Vorteil darin liegt dass die Hessematrix nur approximiert wird und dadurch viel Rechenaufwand gespart wird. Aber was sind die Nachteile und gibt es noch mehr Vorteile?
Vielen Dank schon mal
Meike
P.S.:
Ich habe diese Frage auch in folgenden Foren auf anderen Internetseiten gestellt:
http://matheplanet.de/
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:20 So 08.11.2009 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|
|
Habt ihr wenigstens zu einen der verfahren einen tipp?
|
|
|
|